WO2018128253A1 - 전자 장치 및 그의 표시 방법 - Google Patents
전자 장치 및 그의 표시 방법 Download PDFInfo
- Publication number
- WO2018128253A1 WO2018128253A1 PCT/KR2017/011821 KR2017011821W WO2018128253A1 WO 2018128253 A1 WO2018128253 A1 WO 2018128253A1 KR 2017011821 W KR2017011821 W KR 2017011821W WO 2018128253 A1 WO2018128253 A1 WO 2018128253A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display
- area
- electronic device
- screen
- sub
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/003—Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
- G09G5/005—Adapting incoming signals to the display format of the display terminal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
- G09G2340/145—Solving problems related to the presentation of information to be displayed related to small screens
Definitions
- Various embodiments of the present disclosure relate to a method and an apparatus for processing a display of a display in an electronic device.
- the flexible display may represent a display that can be bent and detached freely, and the curved display may represent a display in which the curved shape of the display is maintained in consideration of a design or the like.
- An electronic device having a curved display may extend the display area not only in front of the electronic device, but also at left and right sides of the electronic device.
- the screen may be enlarged by bending the left and right edges of the display.
- the display panel may be changed and provided in various ways such as 16:10 and 16:11 instead of standard resolution (for example, 16: 9).
- An electronic device having a curved display may expand the display area through the edge area by modifying the standardized screen resolution ratio to provide an expanded screen.
- the extended screen is provided in a bezel form irrespective of the main screen, which may cause heterogeneity with the main screen.
- the electronic device having the curved display excludes the extended screen using the edge area, the entire screen size of the display may be small.
- a method of extending and displaying the main screen up to the edge area may be considered, but this method has a problem in that the contents of the main screen are distorted by distorting the screen resolution ratio of the main screen.
- a method and an apparatus for displaying a main screen and an extended screen in an electronic device including an added or expanded display are disclosed.
- a method and apparatus for displaying an extended screen in association with a main screen in a sub-region of a display without a heterogeneity between the main screen and the extended screen are disclosed.
- a method and an apparatus for simulating (or copying) all or a part of contents of a main screen in displaying a screen in a sub area of a display are disclosed.
- a method and apparatus for expanding a visible area through a sub area and adding a function for a user in the sub area without distorting the aspect ratio of the main screen are disclosed.
- a method and an apparatus for solving a problem of heterogeneous viewing in a sub area which may occur due to a change of a main screen, when the visible area is expanded using a sub area.
- An electronic device may include a main area of a front surface and a sub area of at least one side surface extending from the main area, and display an image based on the main area and at least some of the sub areas.
- a display, a memory, and a processor operatively connected to the display and the memory, wherein the processor senses at least a portion of the main area, and generates imitation information for an extended screen based on the sensed area And display an enlarged screen on the sub-region based on the imitation information, in association with the main screen of the main region.
- an operation method of an electronic device may include: sensing at least a portion of a main area divided by the display when a screen is displayed on a display, and imitating an expanded screen based on the sensed area Generating information, and displaying the extended screen on a sub-region separated from the display in association with a main screen of the main region based on the copy information. And the sub-region of at least one side surface extending from the main region, and displaying the image based on at least a portion of the main region and the sub-region.
- various embodiments of the present disclosure may include a computer-readable recording medium having recorded thereon a program for executing the method in a processor.
- an electronic device having a display that can be displayed by being divided into a main area and a sub area may process display of the display more effectively. For example, when displaying a screen in a sub area of the electronic device, all or part of the contents of the main screen may be copied (or copied) and displayed. In this way, an extended screen (or a virtual screen) associated with the main screen may be displayed in a sub area of the electronic device without a sense of heterogeneity.
- the visible area may be extended without distorting the aspect ratio of the main screen in the electronic device, and a function for a user may be added in the extended screen through the sub area.
- a problem of heterogeneous visibility may be solved in a sub area that may occur due to the change of the main screen.
- a touch malfunction may be solved by using a sub area, and a screen (for example, an imitation image for an extended screen and a virtual image of a function (or application) executed through the sub area) is displayed through the sub area. This can reduce the heterogeneity between screen transitions.
- the main screen may be expanded based on an expansion function, and when the user holds the electronic device by hand (eg, The grip (grip state) can prevent the malfunction of the touch by the sub-region through the application to turn off the expansion function, and can maximize the aesthetics.
- the grip grip state
- the electronic device it may contribute to improving usability, convenience, and competitiveness of the electronic device.
- FIG. 1 is a diagram illustrating a network environment including an electronic device according to various embodiments of the present disclosure.
- FIG. 2 is a block diagram of an electronic device according to various embodiments of the present disclosure.
- FIG. 3 is a block diagram of a program module according to various embodiments of the present disclosure.
- FIG. 4 is a diagram illustrating an example of an electronic device according to various embodiments of the present disclosure.
- FIG. 5 is a diagram illustrating an example of a display form of an electronic device according to various embodiments of the present disclosure.
- 6A, 6B, 6C, and 6D are diagrams for describing an example of an electronic device according to various embodiments of the present disclosure.
- FIG. 7 is a diagram schematically illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
- FIG. 8 is a diagram schematically illustrating a configuration of an electronic device for processing a display of a display in an electronic device according to various embodiments of the present disclosure.
- FIG. 9 is a diagram illustrating an example of a hierarchical structure of an application layer in an electronic device according to various embodiments of the present disclosure.
- FIG. 10 is a diagram illustrating a display operation of a display in an electronic device according to various embodiments of the present disclosure.
- FIG. 11 is a flowchart illustrating a method of processing a display of a display in an electronic device according to various embodiments of the present disclosure.
- FIG. 12 is a diagram illustrating an example of managing a black list in an electronic device according to various embodiments of the present disclosure.
- FIG. 13 is a diagram illustrating a display example of a sub area in an electronic device according to various embodiments of the present disclosure.
- FIG. 14 is a flowchart illustrating a method of processing a display of a display in an electronic device according to various embodiments of the present disclosure.
- 15 is a diagram illustrating an example of operating a sub area in an electronic device according to various embodiments of the present disclosure.
- FIG. 16 is a diagram illustrating another example of operating a sub area in an electronic device according to various embodiments of the present disclosure.
- 17 is a flowchart illustrating an example of processing a display of a display in an electronic device according to various embodiments of the present disclosure.
- FIG. 18 is a diagram illustrating an example in which an extended screen is provided in an electronic device according to various embodiments of the present disclosure.
- 19A, 19B, 19C, 19D, and 19E are diagrams illustrating examples of providing various types of extended screens in an electronic device according to various embodiments of the present disclosure.
- “configured to” means having the ability to “fit to”, “hard,” depending on the circumstances, for example, hardware or software. It can be used interchangeably with “,” modified to “,” made to “,” doable “, or” designed to “.
- the expression “device configured to” may mean that the device “can” together with other devices or components.
- the phrase “processor configured (or configured to) perform A, B, and C” may be implemented by executing a dedicated processor (eg, an embedded processor) to perform its operation, or one or more software programs stored in a memory device. It may mean a general-purpose processor (eg, a central processing unit (CPU) or an application processor (AP)) capable of performing corresponding operations.
- a dedicated processor eg, an embedded processor
- AP application processor
- An electronic device may be, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a personal digital assistant (PDA). It may include at least one of an assistant, a portable multimedia player (PMP), an MP3 player, a medical device, a camera, or a wearable device. Wearable devices may be accessory (e.g. watches, rings, bracelets, anklets, necklaces, eyeglasses, contact lenses, or head-mounted-devices (HMDs), fabrics or clothing integrated (e.g.
- the electronic device may be, for example, a television, a DVD, or the like.
- a body attachment type e.g. a skin pad or a tattoo
- the electronic device may be, for example, a television, a DVD, or the like.
- Player audio, refrigerator, air conditioner, cleaner, oven, microwave, washing machine, air purifier, set-top box, home automation control panel, security control panel, media box (e.g. Samsung HomeSync TM , Apple TV TM , or Google TV TM ), a game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.
- the electronic device may include various medical devices (eg, various portable medical measuring devices (eg, blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), and magnetic resonance imaging). ), Computed tomography (CT), cameras or ultrasounds), navigation devices, global navigation satellite systems (GNSS), event data recorders (EDR), flight data recorders (FDRs), automotive infotainment devices, ship electronics Equipment (e.g. marine navigation systems, gyro compasses, etc.), avionics, security devices, vehicle head units, industrial or household robots, drones, automated teller machines (ATMs) at financial institutions Point of sales (POS) of the store, or Internet of things (IoT) devices (e.g.
- various medical devices eg, various portable medical measuring devices (eg, blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), and magnetic resonance imaging).
- CT Computed tomography
- GNSS global
- an electronic device may be a piece of furniture, a building / structure or a car, an electronic board, an electronic signature receiving device, a projector, or various measurement devices (eg, water, electricity, Gas, or a radio wave measuring instrument).
- the electronic device may be flexible or a combination of two or more of the aforementioned various devices.
- An electronic device according to an embodiment of the present disclosure is not limited to the above-described devices.
- the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.
- FIG. 1 is a diagram illustrating a network environment including an electronic device according to various embodiments of the present disclosure.
- the electronic device 101 may include a bus 110, a processor 120, a memory 130, an input / output interface 150, a display 160, and a communication interface 170. According to an embodiment of the present disclosure, the electronic device 101 may omit at least one of the components or additionally include other components.
- the bus 110 may include circuitry that connects the components 110-170 to each other and transfers communication (eg, control messages or data) between the components.
- the processor 120 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP).
- the processor 120 may execute, for example, an operation or data processing related to control and / or communication of at least one other component of the electronic device 101. Processing (or control) operations of the processor 120 according to various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
- the memory 130 may include volatile memory and / or non-volatile memory.
- the memory 130 may store, for example, commands or data related to at least one other element of the electronic device 101.
- the memory 130 may store software and / or a program 140.
- the program 140 may be, for example, a kernel 141, middleware 143, an application programming interface (API) 145, and / or an application program. (Or “application”) 147, and the like.
- API application programming interface
- At least a portion of kernel 141, middleware 143, or API 145 may be referred to as an operating system (OS).
- OS operating system
- the kernel 141 may be a system resource (eg, used to execute an action or function implemented in, for example, other programs (eg, middleware 143, API 145, or application program 147).
- the bus 110, the processor 120, or the memory 130 may be controlled or managed.
- the kernel 141 may provide an interface for controlling or managing system resources by accessing individual components of the electronic device 101 from the middleware 143, the API 145, or the application program 147. Can be.
- the middleware 143 may serve as an intermediary for allowing the API 145 or the application program 147 to communicate with the kernel 141 to exchange data.
- the middleware 143 may process one or more work requests received from the application program 147 according to priority.
- the middleware 143 may use system resources (eg, the bus 110, the processor 120, or the memory 130, etc.) of the electronic device 101 for at least one of the application programs 147. Prioritize and process the one or more work requests.
- the API 145 is an interface for the application 147 to control functions provided by the kernel 141 or the middleware 143. For example, file control, window control, image processing, or It may include at least one interface or function (eg, a command) for character control.
- the input / output interface 150 may transfer, for example, a command or data input from a user or an external device to other component (s) of the electronic device 101, or the other component (s) of the electronic device 101.
- the command or data received from the user can be output to the user or an external device.
- wired / wireless headphone port, external charger port, wired / wireless data port, memory card port, audio input / output port, video input / output port, earphone port Etc. may be included in the input / output interface 150.
- the display 160 may be, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, an active OLED (AMOLED). ), Micro-electromechanical systems (MEMS) displays, or electronic paper displays.
- the display 160 may display, for example, various contents (eg, text, images, videos, icons, and / or symbols, etc.) to the user.
- the display 160 may include a touch screen, and may receive, for example, a touch, gesture, proximity, or hovering input using an electronic pen or a part of a user's body.
- the communication interface 170 may establish communication between the electronic device 101 and an external device (eg, the first external electronic device 102, the second external electronic device 104, or the server 106). Can be.
- the communication interface 170 may be connected to the network 162 through wireless or wired communication to communicate with an external device (eg, the second external electronic device 104 or the server 106).
- Wireless communication includes, for example, long term evolution (LTE), LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), and wireless broadband (WiBro). Or cellular communication using at least one of a global system for mobile communications (GSM) and the like.
- the wireless communication may include, for example, wireless fidelity (WiFi), wireless gigabit alliance (WiGig), Bluetooth, Bluetooth low energy (BLE), Zigbee (Zigbee), and NFC (near). field communication, magnetic secure transmission, radio frequency (RF), or body area network (BAN).
- the wireless communication may include a GNSS.
- the GNSS may be, for example, a global positioning system (GPS), a global navigation satellite system (Glonass), a Beidou Navigation Satellite System (hereinafter referred to as "Beidou”), or a Galileo, the European global satellite-based navigation system.
- GPS global positioning system
- Glonass global navigation satellite system
- Beidou Beidou Navigation Satellite System
- Galileo the European global satellite-based navigation system
- Wired communication may include, for example, universal serial bus (USB), high definition multimedia interface (HDMI), updated standard 232 (RS-232), power line communication, or plain old telephone service (POTS). It may include at least one.
- USB universal serial bus
- HDMI high definition multimedia interface
- RS-232 updated standard 232
- POTS plain old telephone service
- the network 162 may comprise at least one of a telecommunications network, for example, a computer network (eg, a local area network (LAN) or a wide area network (WAN)), the Internet, or a telephone network. It may include.
- a computer network eg, a local area network (LAN) or a wide area network (WAN)
- WAN wide area network
- the network 162 may comprise at least one of a telecommunications network, for example, a computer network (eg, a local area network (LAN) or a wide area network (WAN)), the Internet, or a telephone network. It may include.
- Each of the first external electronic device 102 and the second external electronic device 104 may be the same or different type of device as the electronic device 101.
- all or part of operations executed in the electronic device 101 may be executed in another or a plurality of electronic devices (for example, the electronic devices 102 and 104 or the server 106).
- the electronic device 101 when the electronic device 101 needs to perform a function or service automatically or by request, the electronic device 101 may instead or additionally execute the function or service by itself. At least some associated functions may be requested to another device (eg, the electronic device 102 or 104 or the server 106).
- the other electronic device may execute the requested function or the additional function and transmit the result to the electronic device 101.
- the electronic device 101 may process the received result as it is or additionally to provide the requested function or service.
- cloud computing, distributed computing, or client-server computing technology may be used.
- the server 106 may be, for example, a payment server, a card company server, a bank server, an authentication server, an application server, a management server, an integration server, a provider server (or a carrier server), or content. It may include at least one of a server (content server), an internet server (internet server), a cloud server (cloud server).
- a server content server
- internet server internet server
- cloud server cloud server
- FIG. 2 is a block diagram of an electronic device according to various embodiments of the present disclosure.
- the electronic device 201 may include, for example, all or part of the electronic device 101 illustrated in FIG. 1.
- the electronic device 201 may include one or more processors (eg, an AP) 210, a communication module 220, a subscriber identification module 224, a memory 230, a sensor module 240, an input device 250, and a display ( 260, an interface 270, an audio module 280, a camera module 291, a power management module 295, a battery 296, an indicator 297, a motor 298, and the like.
- the electronic device 201 may not be essential to those illustrated in FIG. 2, and thus may be implemented to have more or fewer configurations than those illustrated in FIG. 2.
- the electronic device 201 may not include any components.
- the above-described components of the electronic device 201 may be seated on or outside the housing (or bezel, main body) of the electronic device 201.
- the processor 210 may control, for example, a plurality of hardware or software components connected to the processor 210 by driving an operating system or an application program, and may perform various data processing and operations.
- the processor 210 may be implemented with, for example, a system on chip (SoC).
- SoC system on chip
- the processor 210 may further include a graphic processing unit (GPU) and / or an image signal processor (ISP).
- the processor 210 may include at least some of the components illustrated in FIG. 2 (eg, the cellular module 221).
- the processor 210 may load and process instructions or data received from at least one of other components (eg, nonvolatile memory) into the volatile memory, and store the result data in the nonvolatile memory.
- the communication module 220 may have a configuration that is the same as or similar to that of the communication interface 170 illustrated in FIG. 1, for example.
- the communication module 220 may include, for example, a cellular module 221, a WiFi module 223, a Bluetooth module 225, a GNSS module 227, an NFC module 228, and an RF module 229. have.
- the communication module 220 may further include, for example, a WiGig module (not shown).
- the WiFi module 223 and the WiGig module may be integrated into one chip.
- the cellular module 221 may, for example, provide a voice call, a video call, a text service, an internet service, or the like through a communication network. According to an embodiment of the present disclosure, the cellular module 221 may perform identification and authentication of the electronic device 201 in a communication network using a subscriber identification module (eg, a subscriber identification module (SIM) card) 224. . According to an embodiment of the present disclosure, the cellular module 221 may perform at least some of the functions that the processor 210 may provide. According to an embodiment of the present disclosure, the cellular module 221 may include a communication processor (CP).
- CP communication processor
- At least some (eg, two or more) of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may include one IC ( integrated chip) or IC package.
- the RF module 229 may transmit / receive a communication signal (for example, an RF signal), for example.
- the RF module 229 may include, for example, a transceiver, a power amplifier module (PAM), a frequency filter, a low noise amplifier (LNA), an antenna, or the like.
- PAM power amplifier module
- LNA low noise amplifier
- at least one of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may transmit and receive an RF signal through a separate RF module. Can be.
- the WiFi module 223 may represent, for example, a module for establishing a wireless LAN link with a wireless Internet connection and an external device (for example, another electronic device 102 or the server 106, etc.).
- the WiFi module 223 may be embedded or external to the electronic device 201.
- Wireless Internet technologies may include WiFi, WiGig, Wibro, world interoperability for microwave access (WiMax), high speed downlink packet access (HSDPA), or millimeter wave (mmWave).
- the WiFi module 223 may be directly connected to an electronic device or an external device (eg, another electronic device 104, etc.) connected through a network (eg, a wireless Internet network) (eg, a network 162). In conjunction with the), various data of the electronic device 201 may be transmitted to or received from the outside.
- the WiFi module 223 may be constantly turned on or may be turned on / off according to a setting of the electronic device or a user input.
- the Bluetooth module 225 and the NFC module 228 may represent, for example, a short range communication module for performing short range communication.
- Bluetooth, low power Bluetooth (BLE), radio frequency identification (RFID), infrared communication (IrDA), ultra wideband (UWB), Zigbee, or NFC may be used as a short range communication technology.
- the short range communication module interlocks with the external device (for example, other electronic device 102, etc.) connected to the electronic device 201 through a network (for example, a short distance communication network) to externally store various data of the electronic device 201. Can be sent or received by the device.
- the short range communication module (for example, the Bluetooth module 225 and the NFC module 228) may be always on, or may be turned on / off according to a setting of the electronic device 201 or a user input.
- Subscriber identification module 224 may include, for example, a card or embedded SIM that includes a subscriber identification module, and may include unique identification information (eg, integrated circuit card identifier (ICCID)) or subscriber information (eg, IMSI). (international mobile subscriber identity)).
- ICCID integrated circuit card identifier
- IMSI international mobile subscriber identity
- the memory 230 may include, for example, an internal memory 232 or an external memory 234.
- the internal memory 232 may be, for example, volatile memory (for example, dynamic access memory (DRAM), synchronous RAM (SRAM), or synchronous dynamic RAM, etc.), nonvolatile memory (for example, OTPROM). (one time programmable read only memory), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically EPROM (EEPROM), mask ROM, flash ROM, flash memory, hard drive, or solid state drive (SSD) (solid state drive)
- the external memory 234 may be a flash drive, for example, a compact flash (CF), secure digital (SD), micro-SD, or mini-. It may include an SD, an extreme digital (xD), a multi-media card (MMC), a memory stick, etc.
- the external memory 234 may be functionally or physically connected to the electronic device 201 through various interfaces.
- the sensor module 240 may measure, for example, a physical quantity or detect an operation state of the electronic device 201 and convert the measured or detected information into an electrical signal.
- the sensor module 240 is, for example, a gesture sensor 240A, a gyro sensor 240B, a barometer sensor 240C, a magnetic sensor 240D. , Acceleration sensor (240E), grip sensor (240F), proximity sensor (240G), color sensor (240H) (e.g. RGB (red, green, blue) Sensor), a biometric sensor 240I, a temperature / humidity sensor 240J, an illuminance sensor 240K, or an ultraviolet violet sensor 240M. It may include one.
- sensor module 240 may include, for example, an e-nose sensor, an electromyography sensor, and an electroencephalogram sensor. And an electrocardiogram (ECG) sensor, an infrared (IR) sensor, an iris scan sensor, and / or a fingerprint scan sensor.
- ECG electrocardiogram
- IR infrared
- IR infrared
- iris scan sensor a iris scan sensor
- / or a fingerprint scan sensor may further include a control circuit for controlling at least one or more sensors belonging therein.
- the electronic device 201 further includes a processor configured to control the sensor module 240 as part of or separately from the processor 210, while the processor 210 is in a sleep state. The sensor module 240 may be controlled.
- the input device 250 may include, for example, a touch panel 252, a (digital) pen sensor 254, a key 256, or an ultrasonic input device 258.
- the touch panel 252 may use at least one of capacitive, resistive, infrared, or ultrasonic methods, for example.
- the touch panel 252 may further include a control circuit.
- the touch panel 252 may further include a tactile layer to provide a tactile response to the user.
- the (digital) pen sensor 254 may be, for example, part of a touch panel or may include a separate sheet for recognition.
- the key 256 may include, for example, a physical button, an optical key, or a keypad.
- the ultrasonic input device 258 may detect the ultrasonic waves generated by the input tool through the microphone 288 and check the data corresponding to the detected ultrasonic waves.
- the input device 250 may include an electronic pen.
- the input device 250 may be implemented to receive a force touch.
- Display 260 may include panel 262, hologram device 264, projector 266, and / or control circuitry to control them.
- the panel 262 may be implemented to be, for example, flexible, transparent, or wearable.
- the panel 262 may be configured with the touch panel 252 and one or more modules.
- the panel 262 may include a pressure sensor (or force sensor) capable of measuring the strength of the pressure with respect to the user's touch.
- the pressure sensor may be integrally implemented with the touch panel 252 or one or more sensors separate from the touch panel 252.
- the panel 262 may be seated on the display 260 and sense a user input in contact with or in proximity to the surface of the display 260.
- the user input may include a touch input or a proximity input input based on at least one of single-touch, multi-touch, hovering, or air gesture.
- the panel 262 may receive a user input for starting an operation related to the use of the electronic device 201 in various embodiments, and generate an input signal according to the user input.
- the panel 262 may be configured to convert a change in pressure applied to a specific portion of the display 260 or capacitance occurring at a specific portion of the display 260 into an electrical input signal.
- the panel 262 may detect a location and area at which an input tool (eg, a user's finger, an electronic pen, etc.) is touched or approached on the surface of the display 260.
- the panel 262 may be implemented to detect even a pressure (for example, force touch) at the time of touch according to the applied touch method.
- the hologram 264 may show a stereoscopic image in the air by using interference of light.
- the projector 266 may display an image by projecting light onto a screen.
- the screen may be located inside or outside the electronic device 201.
- the interface 270 may include, for example, an HDMI 272, a USB 274, an optical interface 276, or a D-subminiature 278.
- the interface 270 may be included in, for example, the communication interface 170 illustrated in FIG. 1. Additionally or alternatively, interface 270 may include, for example, a mobile high-definition link (MHL) interface, an SD card / multi-media card (MMC) interface, or an infrared data association (IrDA) compliant interface.
- MHL mobile high-definition link
- MMC multi-media card
- IrDA infrared data association
- the audio module 280 may bidirectionally convert, for example, a sound and an electrical signal. At least some components of the audio module 280 may be included in, for example, the input / output interface 145 illustrated in FIG. 1.
- the audio module 280 may process sound information input or output through, for example, a speaker 282, a receiver 284, an earphone 286, a microphone 288, or the like.
- the audio module 280 transmits an audio signal received from the processor 210 to an output device (eg, the speaker 282, the receiver 284, or the earphone 286), and inputs the input device (eg, the microphone 288).
- An audio signal such as a voice input from the processor, may be transmitted to the processor 210.
- the audio module 280 converts the voice / sound data into an audible sound through an output device under the control of the processor 210, and outputs the audio / audio data.
- the audio module 280 converts an audio signal such as a voice received from the input device into a digital signal. Can be forwarded to
- the speaker 282 or the receiver 284 may output audio data received from the communication module 220 or stored in the memory 230.
- the speaker 282 or the receiver 284 may output sound signals related to various operations (functions) performed by the electronic device.
- the microphone 288 may receive an external sound signal and process the same as electrical voice data.
- the microphone 288 may implement various noise reduction algorithms for removing noise generated in the process of receiving an external sound signal.
- the microphone 288 may be responsible for input of audio streaming, such as voice commands.
- the camera module 291 is, for example, a device capable of capturing still images and moving images.
- the camera module 291 may include one or more image sensors (eg, a front sensor or a rear sensor), a lens, and an image signal processor (ISP). Or flash (eg, LED or xenon lamp, etc.).
- image sensors eg, a front sensor or a rear sensor
- ISP image signal processor
- flash eg, LED or xenon lamp, etc.
- the power management module 295 may manage power of the electronic device 201, for example.
- the power management module 295 may include a power management integrated circuit (PMIC), a charger IC, a battery, or a fuel gauge.
- PMIC power management integrated circuit
- the PMIC may have a wired and / or wireless charging scheme.
- the wireless charging method may include, for example, a magnetic resonance method, a magnetic induction method, an electromagnetic wave method, or the like, and may further include additional circuits for wireless charging, such as a coil loop, a resonance circuit, a rectifier, and the like. have.
- the battery gauge may measure, for example, the remaining amount of the battery 296, the voltage, the current, or the temperature during charging.
- the battery 296 may include, for example, a rechargeable battery and / or a solar battery.
- the indicator 297 may display a specific state of the electronic device 201 or a part thereof (for example, the processor 210), for example, a booting state, a message state, or a charging state.
- the motor 298 may convert electrical signals into mechanical vibrations, and may generate vibrations or haptic effects.
- the electronic device 201 may be, for example, a mobile TV supporting device capable of processing media data according to a standard such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or mediaFlo TM . : GPU).
- DMB digital multimedia broadcasting
- DVD digital video broadcasting
- mediaFlo TM mediaFlo TM . : GPU
- Each of the components described in this document may be composed of one or more components, and the names of the corresponding components may vary depending on the type of electronic device.
- the electronic device eg, the electronic devices 101 and 201
- the electronic devices 101 and 201 may be omitted, some additional components may be included, or some of the components may be combined to form a single object.
- the functions of the corresponding components before combining may be performed in the same way.
- FIG. 3 is a block diagram of a program module according to various embodiments of the present disclosure.
- the program module 310 may be configured to operate on an operating system and / or operating system that controls resources related to the electronic device (eg, the electronic devices 101 and 201). It may include an application (for example, the application program 147).
- the operating system may include, for example, Android TM , iOS TM , Windows TM , Symbian TM , Tizen TM , or Bada TM .
- the program module 310 may include a kernel 320 (eg, kernel 141), middleware 330 (eg, middleware 143), and API 360 (eg, API 145). , And / or the application 370 (eg, the application program 147). At least a part of the program module 310 may be preloaded on the electronic device or may be downloaded from an external electronic device (eg, the electronic devices 102 and 104, the server 106, etc.).
- a kernel 320 eg, kernel 141
- middleware 330 eg, middleware 143
- API 360 eg, API 145
- the application 370 eg, the application program 147
- At least a part of the program module 310 may be preloaded on the electronic device or may be downloaded from an external electronic device (eg, the electronic devices 102 and 104, the server 106, etc.).
- the kernel 320 may include, for example, a system resource manager 321 and / or a device driver 323.
- the system resource manager 321 may perform control, allocation, or retrieval of system resources.
- the system resource manager 321 may include a process manager, a memory manager, or a file system manager.
- the device driver 323 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, an audio driver, or an inter-process communication (IPC) driver.
- the middleware 330 may provide various functions through the API 360, for example, to provide functions commonly required by the application 370, or to allow the application 370 to use limited system resources inside the electronic device. May be provided to the application 370.
- the middleware 330 may include a runtime library 335, an application manager 341, a window manager 342, and a multimedia manager 343.
- a notification manager 349, a location manager 350, a graphic manager 351, or a security manager 352. have.
- the runtime library 335 may include, for example, a library module used by a compiler to add new functions through a programming language while the application 370 is running.
- the runtime library 335 may perform input / output management, memory management, or arithmetic function processing.
- the application manager 341 may manage, for example, a life cycle of the application 370.
- the window manager 342 may manage graphical user interface (GUI) resources used on the screen.
- the multimedia manager 343 may identify a format necessary for playing the media files, and may encode or decode the media file using a codec suitable for the format.
- the resource manager 344 may manage space of source code or memory of the application 370.
- the power manager 345 may manage, for example, the capacity or power of the battery and provide power information necessary for the operation of the electronic device. According to an embodiment of the present disclosure, the power manager 345 may interoperate with a basic input / output system (BIOS).
- BIOS basic input / output system
- the database manager 346 may create, retrieve, or change a database to be used, for example, in the application 370.
- the package manager 347 may manage installation or update of an application distributed in the form of a package file.
- the connectivity manager 348 may manage, for example, a wireless connection.
- the notification manager 349 may provide the user with events such as, for example, an arrival message, an appointment, a proximity notification, and the like.
- the location manager 350 may manage location information of the electronic device, for example.
- the graphic manager 351 may manage, for example, graphic effects to be provided to the user or a user interface related thereto.
- the security manager 352 may provide system security or user authentication, for example.
- the middleware 330 may include a telephony manager for managing a voice or video telephony function of the electronic device or a middleware module that may form a combination of functions of the above-described components.
- the middleware 330 may provide a module specialized for each type of OS. The middleware 330 may dynamically delete some of the existing components or add new components.
- API 360 is, for example, a set of API programming functions, which may be provided in different configurations depending on the operating system. For example, in the case of Android or iOS, one API set may be provided for each platform, and in Tizen, two or more API sets may be provided for each platform.
- the application 370 is, for example, a home 371, a dialer 372, an SMS / MMS 373, an instant message (IM) 374, a browser 375, a camera 376, an alarm 377. , Applications 378, voice dial 379, email 380, calendar 381, media player 382, album 383, watch 384, and the like.
- the application 370 may include a health care (eg, exercise amount or blood glucose, etc.) or an environment information (eg, barometric pressure, humidity, or temperature information) application.
- the application 370 may include an information exchange application capable of supporting information exchange between the electronic device and the external electronic device.
- the information exchange application may include, for example, a notification relay application for delivering specific information to the external electronic device, or a device management application for managing the external electronic device.
- the notification relay application may deliver notification information generated by another application of the electronic device to the external electronic device, or receive notification information from the external electronic device and provide the notification information to the user.
- the device management application may, for example, turn-on / turn-off of a function of an external electronic device (eg, the external electronic device itself (or some component)) in communication with the electronic device. ) Or adjust the brightness (or resolution) of the display, or install, delete, or update an application running on the external electronic device.
- an external electronic device eg, the external electronic device itself (or some component)
- adjust the brightness (or resolution) of the display or install, delete, or update an application running on the external electronic device.
- the application 370 may include an application (eg, a health care application of a mobile medical device) designated according to an attribute of the external electronic device.
- an application eg, a health care application of a mobile medical device
- the application 370 may include an application received from an external electronic device.
- At least a portion of the program module 310 may be implemented (eg, executed) in software, firmware, hardware (eg, the processor 210), or a combination of at least two or more thereof, and a module for performing one or more functions; It can include a program, routine, instruction set, or process.
- module includes a unit composed of hardware, software, or firmware, and includes, for example, logic, logic block, component, or circuit. Can be used interchangeably with such terms.
- the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
- Modules may be implemented mechanically or electronically, for example, application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs), or known or future developments that perform certain operations. It can include a programmable logic device.
- ASIC application-specific integrated circuit
- FPGAs field-programmable gate arrays
- At least a portion of an apparatus (eg, modules or functions thereof) or method (eg, operations) according to various embodiments may be stored on a computer-readable storage medium (eg, memory 130) in the form of a program module. It can be implemented as.
- a processor eg, the processor 120 of FIG. 1 or the processor 210 of FIG. 2
- the processor may perform a function corresponding to the command.
- Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical recording media (e.g. compact disc read only memory), DVD (digital versatile disc), magneto-optical media (eg, floppy disks), internal memory, etc. Instructions may be executed by code or interpreters produced by the compiler. It can contain code that can.
- the recording medium may include a computer-readable recording medium having recorded thereon a program for executing various methods described below in the processors 120 and 210.
- Modules or program modules according to various embodiments of the present disclosure may include at least one or more of the above components, some of them may be omitted, or may further include other components. According to various embodiments, operations performed by a module, program module, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least some operations may be executed in a different order, omitted, or otherwise. Actions can be added.
- the various embodiments of the present disclosure relate to processing a display of a display in an electronic device, and a method and a device for displaying a main screen and an extended screen in an electronic device including an added or expanded display are disclosed.
- the extended screen of the sub area may be displayed without any difference from the main screen.
- all or a portion of the contents of the main screen may be copied (or copied) to generate an extended screen (eg, an imitation image), and the expanded screen may be associated with the main screen of the main area through a sub area. I can display it.
- the visible area may be extended without distorting the aspect ratio of the main screen.
- the visible area when the visible area is expanded using the expanded screen simulated based on the main screen, a problem of heterogeneous visibility of the visible area according to the change of the main screen may be solved.
- the electronic device may include all devices that use one or more of various processors such as an AP, a CP, a GPU, and a CPU.
- an electronic device may include an information communication device, a multimedia device, a wearable device, an IoT device, or various other devices corresponding to these devices.
- FIG. 4 is a diagram illustrating an example of an electronic device according to various embodiments of the present disclosure.
- the electronic device 400 is formed on the display 430, a housing (or main body) 450 on which the display 430 is seated and fastened, and formed on the housing 450. It may be configured to include an additional device for performing the function of the device 400, and the like.
- the additional device may include a first speaker 401, a second speaker 403, a microphone 405, a sensor (eg, front camera 407, an illuminance sensor 409, etc.), a communication interface (eg, A charge or data input / output port 411, an audio input / output port 413, etc.), a button 415, and the like.
- an electronic device having a curved display 430 is described as an example, but is not limited thereto.
- the electronic device 400 may operate the display area as a main area and a sub area, and may use a flexible display or a flat panel display to extend a screen through the sub area. It may include an electronic device having a.
- display 430 may include a curved display (or a bent display) that can bend, bend, or roll without damage through a thin, flexible substrate, such as a flat panel display or paper.
- the curved display 430 is fastened to the housing (or bezel) to maintain the curved shape.
- the display 430 of the electronic device 400 is implemented in the form of a curved display as an example, but is not limited thereto.
- the electronic device 400 may be implemented as a display such as a curved display 430 or a display that can be bent and detached like a flexible display.
- the display 430 is folded by replacing the glass substrate surrounding the liquid crystal with a plastic film in a liquid crystal display (LCD), a light emitting diode (LED), an organic light emitting diode (OLED), or an active OLED (AMOLED). It can give you the flexibility to unfold.
- LCD liquid crystal display
- LED light emitting diode
- OLED organic light emitting diode
- AMOLED active OLED
- the display 430 may have a particular screen size (eg, 3 inches, 4 inches, 4.65 inches, 4.8 inches, 5 inches, 6.5 inches, 7.7 inches, 8.9 inches, 10.1, etc.) depending on the size of the electronic device 400. Inches, etc.) may include an active matrix screen. According to various embodiments of the present disclosure, the display 430 extends to at least one side (eg, at least one side of a left side, a right side, an upper side, or a lower side) of the electronic device 400 to operate the curved display. It can be folded and fastened to the side of the housing 450 below a possible radius of curvature (eg, 5 cm, 1 cm, 7.5 mm, 5 mm, 4 mm, etc.). The display 430 according to various embodiments of the present disclosure may be embodied in a right angle shape without a radius of curvature.
- a possible radius of curvature eg, 5 cm, 1 cm, 7.5 mm, 5 mm, 4 mm, etc.
- the area appearing on the front of the display 430 is called the main area 410 and extends from the main area 410 to at least one side of the housing 450 (eg, see FIG. 4).
- the regions bent at reference numerals A and B and appearing on the side surfaces of the housing 450 may be referred to as sub-regions 420.
- a screen displayed through the main area 410 is called a main screen, and a screen displayed by extending the main screen through the sub area 420 is called an expanded screen and is assigned to the sub area 420.
- the screen displayed by the function (or application) may be referred to as a sub screen.
- the main region 410 and the sub region 420 are divided for convenience of description and do not mean a physically separated form.
- the main region 410 and the sub region 420 have a shape in which at least one end is bent, and one or more ends at least bent extend to at least one side of the electronic device 400. It may be implemented by the curved display 430. According to various embodiments of the present disclosure, at least one end that is bent according to an implementation manner of the display 430 may be extended to the rear surface of the electronic device 400.
- image processing by the main area 410 may be performed by a processor (eg, an application processor (AP)) of the electronic device 400.
- the sub region 420 may include a display control circuit (eg, a display driver circuit) that provides an electrical signal (eg, a multi high voltage level (MHVL) signal) to a display panel (not shown) in the electronic device 400. (DDI, display driver IC)).
- the image processing for the main area 410 and the sub area 420 may be distributed and processed by the processor and the display control circuit to reduce the current consumption of the processor consumed for image processing for the display 430. Can be.
- image processing for the main area 410 and the sub area 420 may be processed by any one processor.
- the display 430 may support inputs and outputs, and may simultaneously or separately process inputs and outputs by the main area 410 and the sub area 420.
- examples of image processing operations for the main region 410 and the sub region 420 are described with reference to the following drawings.
- the main area 410 when the main area 410 is not used, such as the main area 410 is covered by a cover (not shown) of the electronic device 400, the main area 410 by the processor.
- the main area 410 may be non-displayed by outputting the signal in a single color (eg, black).
- the main area 410 may not be displayed by separating power from the main area 410 and the sub area 420 to cut off power supply to the main area 410.
- the display control circuit may process and display an image related to the display of the sub area 420 according to the operation of the electronic device 400.
- the sensor of the electronic device 400 may be used to determine whether the electronic device 400 is placed on the floor or is gripped by a user.
- the main screen of the main area 410 may be extended to the sub area 420 based on the expansion function according to various embodiments of the present disclosure.
- an extension function may be automatically deactivated (or off) to prevent malfunction of a touch by the sub area 420. have.
- the electronic device 400 may be configured by using an environment setting provided by the electronic device 400, a separate application, or a user's grip (or grip) state detection.
- Right hand mode and left hand mode can be defined.
- the electronic device 400 may process input and output using only the sub area 420 of the side surface corresponding to the corresponding mode. For example, when the electronic device 400 is set to the right hand mode in the example of FIG. 4, for example, the electronic device 400 is input through the sub-region 420 of the right side A when the electronic device 400 is viewed from the front. And output can be made.
- the electronic device 400 is set to the left hand mode in the example of FIG. 4, for example, the electronic device 400 is input through the sub-region 420 of the left side B when the electronic device 400 is viewed from the front. And output can be made.
- FIG. 5 is a diagram illustrating an example of a display form of an electronic device according to various embodiments of the present disclosure.
- the display 500 of the electronic device 400 may include at least two or more areas.
- the sub-regions 520 (520A and 520B) may be disposed on the main region 510 (eg, the flat display region) and the left side of the main region 510 and the right side of the main region 510.
- the display 500 of the electronic device 400 may be functionally divided into two or more areas.
- the main area 510 and the sub area 520 are one display panel, but functions of the corresponding area may be distinguished.
- the main area 510 is divided into areas in which general applications (eg, a message application, a schedule management application, an Internet application, a camera application, etc.) are executed, and the sub area 520 is an application that is frequently used.
- the notification application or the content may be divided into areas in which they are displayed.
- the area of the display 500 may be divided in various ways.
- the display 500 may be operated within the main area and the sub area, the flat area and the curved area, the front area and the side area, the front area and the rear area, and the viewing angle as described above. It may be divided into a visible region and an invisible region, or a combination of three or more of the above regions.
- the display 500 may be divided into a first area and a second area.
- an area displaying the entire contents (or the main content or the main screen) of the application or the content is a main area (or a first area), and the main area 510 is relatively extended to provide additional information.
- the region is divided into sub-regions (or second regions, edge regions, etc.) to be described. Such division is for convenience of description and the division is not intended to limit the embodiments of the present invention.
- the term display is an add-on type in which a touch screen panel (TSP) is coupled to an LCD panel, and an on-cell type in which a touch screen panel is embedded in an LCD panel. (on-cell type), and an in-cell type in which a touch function is built in the LCD panel, and the like.
- TSP touch screen panel
- on-cell type an on-cell type in which a touch screen panel is embedded in an LCD panel.
- in-cell type in-cell type in which a touch function is built in the LCD panel, and the like.
- a touch event input on the display 500 may be processed by a processor (eg, the processor 120 or 210).
- the touch event is input based on a change in capacitance of the touch panel included in the display 500, and the like, such as a down event, an up event, a continuous event, Or a multi-touch event.
- the down event may refer to an event in which a user presses and inputs a pressure to an input device including a finger, a touch pen (electronic pen), or the like on the touch panel.
- the up event may refer to an event in which the user releases the input means from the touch panel after inputting the down event.
- the continuous event may be referred to as an event in which the user keeps pressing the touch panel after inputting the down event and changes the position of the input device to input the same.
- a series of events may be represented by a drag in the technical field to which the present invention belongs.
- the multi-touch event may refer to a user inputting a down event at two or more points of the touch panel.
- the touch event may be generated by a proximity touch input as well as a direct touch input to the display area.
- the electronic device 400 may be a multi-faced display device having a plurality of display surfaces on a front surface thereof.
- the display 500 may include a first display positioned on the flat portion 515 of the front portion of the electronic device 400, a second display positioned on the left bending portion 525A of the front portion, and a right bending portion 525B. It may include a third display.
- the first to third displays may face the first to third directions, respectively, and the first to third directions may all be different.
- an area where an image (eg, a main screen) is displayed by the first display is defined as a main area
- an area where an image (eg, a sub screen or an extended screen) is displayed by the second display is a first area.
- An area in which an image (eg, a sub screen or an extended screen) is displayed by the third display may be defined as a second area (eg, a right sub area).
- the first to third displays may be continuously connected to each other.
- the third display may extend from the first display or the second display.
- at least one portion of the second sub-region may extend from the periphery of the main region or the periphery of the first sub-region.
- at least one of the second display and the third display positioned in the left bending part 525A and the right bending part 525B may include a curved display.
- the first to third displays may be driven independently of each other to display different images or to display one image in a continuous form.
- the processor may execute an application to provide a user interface through the display 500 and control a screen displayed based on at least a portion of the first to third displays in response to a user input.
- an example in which the processor controls the screen displayed on the first to third displays will be described with reference to FIG. 5.
- the first display, the second display, and the third display may display one connected screen in each display area (eg, the main area 510 and the sub areas 520 (520A and 520B)).
- a screen eg, an extended left screen
- a left screen of the main area 510 of the first display is displayed in the first sub area 520A of the second display
- the second sub area of the third display is displayed.
- a screen eg, a right extended screen connected to a right screen of the main area 510 of the first display may be displayed.
- the first display and the third display may display one connected screen in each display area (eg, the main area 510 and the second sub area 520B), and the second display may be different.
- a separate screen can be displayed.
- the second sub-region 520B of the third display displays a screen (eg, an extended right screen) connected to the right screen of the main region 510 of the first display, and displays the first sub-region of the second display.
- a separate screen eg, a sub screen
- a separate screen separated from the left screen of the main area 510 of the first display may be displayed.
- the first display and the second display may display one connected screen in each display area (eg, the main area 510 and the first sub area 520A), and the third display may be different from the other display area.
- a separate screen can be displayed.
- a screen eg, an extended left screen
- a separate screen eg, a sub screen
- the right screen of the main area 510 of the first display may be displayed.
- the first display, the second display, and the third display may display respective screens separated in each display area (eg, the main area 510 and the sub area 520).
- a specific screen eg, a first screen
- a left side of the main area 510 of the first display is displayed in the first sub area 520A of the second display.
- a separate screen for example, a second screen
- a separate screen for example, a screen separated from the right screen of the main area 510 of the first display in the second sub-region 520B of the third display.
- the third screen can be displayed.
- each display area of the second display and the third display may display different screens.
- at least one of each display area (eg, the first sub-region 520A and the second sub-region 520B) of the second display and the third display may be controlled by the type of application controlled or executed by the processor. Therefore, the screen may operate in a turn-off state without displaying a screen.
- 6A, 6B, 6C, and 6D are diagrams for describing an example of an electronic device according to various embodiments of the present disclosure.
- 6A, 6B, 6C, and 6D may illustrate examples of the electronic device 400 having a curved display (or a bent display), for example.
- the electronic device 400 is an electronic device having a curved display as an example, but is not limited thereto.
- the electronic device 400 includes an electronic device having no bezel area or having a very narrow configuration, for example, an electronic device having a flexible display or a flat panel display. It may include.
- a display 660 (eg, the display 160 of FIG. 1 and the display 260 of FIG. 2) of the electronic device 400 may include at least one of the electronic devices 400.
- a radius of curvature e.g., a radius of curvature of 5 cm, 1 cm, 7.5 mm, extending to the side of at least one of the left, right, top, bottom) 5 mm, 4 mm, or the like
- the display 660 may be embodied in a right angle shape without a radius of curvature.
- the area appearing on the front of the curved display 660 is called the main area 610 and extends from the main area 610 to bend to at least one side of the housing 670 so that the housing (
- An area appearing on the side of the 670 may be referred to as a sub area 620 (eg, a left sub area 621, a right sub area 622, an upper sub area 624 described later, and a lower sub area 623 described below).
- a sub area 620 eg, a left sub area 621, a right sub area 622, an upper sub area 624 described later, and a lower sub area 623 described below.
- the main area 610 and the sub area 620 are divided for convenience of description and do not mean a physically separated form.
- the main region 610 and the sub region 620 have a shape in which at least one end is bent, and the at least one bent end extends to at least one side of the electronic device 400. It may be implemented by the curved display 660.
- at least one end that is bent according to an implementation manner of the electronic device 400 may be extended to the rear surface of the electronic device 400.
- the display 660 may support inputs and outputs, and may simultaneously or separately process inputs and outputs by the main area 610 and the sub area 620.
- the main area 610 may be set as a copy area 630 (or a copy information sensing area).
- a partial area is imitated from the boundary between the sub area 620 and the main area 610 to the inside of the main area 610.
- the copy area 630 may represent an area where content to be copied is displayed in the present content of the main screen displayed through the main area 610.
- the main screen may be extended and displayed through the sub area 620 by replicating all or a part of the present contents of the main screen.
- the main area 610 may be part of an outer part of the main area 610 (for example, a part of an outer part of the main area 610 that is adjacent to the sub area 620). 631 and the right partial area 632 may be set as a copy area 630.
- the copy area 630 may be, for example, a copy target on the main screen of the main area 610.
- An area for obtaining imitation information based on at least some content may be referred to as, for example, an imitation information sensing area
- the imitation area 630 may include at least one of the main area 610.
- a specific pixel (for example, 1 pixel) may be allocated from a boundary of the sub region 620 of one side surface according to various embodiments of the present disclosure. May be set larger (wide) or smaller (narrower) than a specific pixel.
- the electronic device 400 may designate an area in which a general application is executed on the display 660 to display a related screen as a main area 610 (eg, a first area), notification contents,
- Sub-area 620 is an area for displaying a related screen such as notification color or progress (eg, alarm, player, etc.) or displaying an expanded screen according to various embodiments. (E.g., second area), some areas of the main area 610 that display imitation information (e.g., copy image, imitation image) generated based on this content of the main area 610
- the display operation may be performed by dividing into the area 630.
- FIGS. 6B, 6C, and 6D may illustrate examples of other types of electronic devices 400 having curved displays (or flexible displays).
- the bezel area of the electronic device 400 illustrated in FIGS. 6B, 6C, and 6D may be narrower than that of the electronic device 400 illustrated in FIG. 6A, and the electronic device 400 may have a narrower bezel area.
- the front surface may represent an example of an electronic device implemented by the display 660.
- the electronic device 400 illustrated in FIGS. 6B, 6C, and 6D may be an electronic device in the form of a full front display.
- a camera 650 (eg, a front camera) may be located in the display 660 area.
- the example ⁇ A> of FIG. 6B illustrates an example in which the camera 650 is positioned at the top center of the electronic device 400
- the example ⁇ B> of FIG. 6B illustrates an upper side portion of the electronic device 400 (eg : An example in which the camera 650 is located at the upper right).
- the electronic device 400 according to various embodiments of the present disclosure may be implemented by various displays, and an arrangement of other devices such as a front camera may be designed according to the display fastening structure.
- the electronic device 400 extends from the main region 610 and the main region 610 as described in the description with reference to FIG. 6A.
- Subregion 620 (or edge region) (eg, left subregion 621, right) that is bent to at least one side of 670 (eg, left, right, top, bottom) that appears on the side of housing 670
- the sub area 622, the upper sub area 623, and the lower sub area 624 may be included.
- the main area 610 and the sub area 620 are divided for convenience of description and do not mean a physically separated form.
- FIG. 6B illustrates that the display 660 of the electronic device 400 extends to the left and right sides of the electronic device 400 such that the display 660 of the electronic device 400 extends to the side (eg, both sides) of the housing 670 (or bezel).
- the sub-region 620 (for example, the left sub-region 621 and the right sub-region 622) may be formed on both sides of the main region 610.
- the main region 610 may include a mimic region based on at least some edge portions of the left side or the right side of the main region 610, as illustrated in FIG. 6A.
- FIG. 6C illustrates that the display 660 of the electronic device 400 extends to the left side, right side, top side, or bottom side of the electronic device 400, such that the side surface of the housing 670 (or bezel) may be extended.
- the sub region 620 (for example, the left sub-region 621 and the right sub-region 622) is configured from the main region 610 to the left and right sides, and the sub region 620 (for example, the upper and lower sides).
- An upper subregion 623 and a lower subregion 624 may be configured.
- one or more sub-regions may extend to at least one side surface (eg, at least one surface of a left side, a right side, an upper side, or a lower side) according to an implementation of the display 660 of the electronic device 400.
- 620 eg, 621, 622, 623, and 624.
- the main region 610 may be an imitation region (eg, 630; 631) based on at least some edge portions of the left, right, upper side, or lower side of the main region 610, as illustrated in FIG. 6A. , 632, 633, 634.
- the main area 610 of the electronic device 400 may include a main area from a boundary between the sub areas 620 (621, 621, 622, 623, and 624) and the main area 610 of the left, right, top, and bottom sides. Some regions may be allocated to the imitation region 630 inwardly of 610.
- the main region 610 may include four mimic regions 630; 631, 632, 633, and 634 based on the left side, the right side, the upper side, and the lower side.
- the main area 610 may be part of an outer part of the main area 610 (for example, a part of an outer part of the main area 610 that is adjacent to the sub area 620). 631, the right partial region 632, the upper partial region 633, and the lower partial region 634 may be set as the imitation region 630.
- the imitation region 630 may be, for example, an example.
- an area for acquiring imitation information on the main screen of the main area 610 is allocated a specific pixel (for example, 1 pixel) from the boundary of the sub area 620 of at least one side of the main area 610.
- an example of the electronic device may be basically provided through the entire display area (eg, the main area 610 and the sub area 620).
- an extended screen may be used, such as resolutions 18.5: 10, 18.5: 11, 18.5: 9, 16:10, 16:11, or the general screen may be used as a general resolution 16: 9 only through the main area 610. It may be.
- the electronic device 400 may include a first sub-region 620 (eg, the first and second sub regions 620 and 622 may be distinguished from each other.
- the electronic device 400 of FIGS. 6C and 6D may be an electronic device having a flexible display having up, down, left, and right sides, and an additional or extended display (eg, the sub area 620) may be configured on both top, bottom, left, and right sides of the bezel. Or an electronic device of a narrower form.
- the display when the electronic device 400 operates in the portrait mode, the display may be processed based on the first sub-region 620 (for example, 621 and 622) and the electronic device 400 may be processed.
- the display by the screen expansion may be processed based on the second sub-region 620 (for example, 623 and 624).
- the shape of a hand that the user grips the electronic device 400 may vary according to an operation mode of the electronic device 400, and activation / deactivation of the sub area 620 according to an operation mode of the electronic device 400. Can be implemented.
- the setting of the copy area 630 may also be switched.
- the electronic device 400 when the electronic device 400 operates in the portrait mode, display based on screen expansion is performed based on the first sub-region 620 (eg, 621 and 622).
- the expanded screen may be configured based on the imitation information obtained by the first imitation region 630 (eg, 631 and 632).
- the electronic device 400 when the electronic device 400 operates in the landscape mode, display based on screen expansion is performed based on the second sub-region 620 (for example, 623 and 624).
- the expanded screen may be configured based on the imitation information obtained by the second imitation region 630 (eg, 633 and 634).
- FIG. 7 is a diagram schematically illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
- the electronic device 400 may include, for example, a wireless communication unit 710, a user input unit 720, a touch screen 730, an audio processor 740, and a memory 750.
- One or more processors eg, processor 120, processor 210
- processors including an interface 760, a camera module 770, a controller 780 (eg, processing circuitry), and It may include a power supply 790.
- the electronic device 400 is not essential to the configuration shown in Figure 7, it may have more or more than the configuration shown in Figure 7 It can be implemented with fewer configurations.
- the wireless communication unit 710 may have a configuration that is the same as or similar to that of the communication module 220 of FIG. 2, for example.
- the wireless communication unit 710 may include one or more modules that enable wireless communication between the electronic device 400 and an external device (for example, other electronic devices 102 and 104 and the server 106).
- the wireless communication unit 710 may include a mobile communication module 711, a wireless local area network (WLAN) module 713, a short range communication module 715, and a location calculation module 717.
- the wireless communication unit 710 may include a module (eg, a short range communication module, a telecommunication module, etc.) for communicating with a peripheral external device.
- a module eg, a short range communication module, a telecommunication module, etc.
- the mobile communication module 711 may have, for example, a configuration that is the same as or similar to that of the cellular module 221 of FIG. 2.
- the mobile communication module 711 may transmit / receive wireless signals with at least one of a base station, an external device (for example, another electronic device 104), and various servers in a mobile communication network.
- the wireless signal may include a voice signal, a data signal or various types of control signals.
- the mobile communication module 711 may transmit various data necessary for the operation of the electronic device 400 to an external device (eg, the server 106 or the other electronic device 104, etc.) in response to a user request.
- the wireless LAN module 713 may have, for example, a configuration that is the same as or similar to that of the WiFi module 223 of FIG. 2.
- the wireless LAN module 713 may represent a module for establishing a wireless LAN link with a wireless Internet connection and an external device (for example, another electronic device 102 or the server 106, etc.).
- the wireless LAN module 713 may be internal or external to the electronic device 400.
- WiFi, Wibro world interoperability for microwave access (WiMax), high speed downlink packet access (HSDPA), or millimeter wave (mmWave) may be used.
- the wireless LAN module 713 may be an external device (eg, another electronic device 104, etc.) connected to the electronic device 400 through a network (eg, a wireless Internet network) (eg, the network 162 of FIG. 1). In conjunction with the operation, various data of the electronic device 400 may be transmitted to or received from the outside.
- the wireless LAN module 713 may be always on, or may be turned on / off according to a setting of the electronic device 400 or a user input.
- the short range communication module 715 may represent a module for performing short range communication.
- As the short range communication technology for example, Bluetooth, low power Bluetooth (BLE), radio frequency identification (RFID), infrared communication (IrDA), ultra wideband (UWB), Zigbee, or NFC may be used.
- the short range communication module 715 may be connected to an external device (for example, another electronic device 102, etc.) that is connected to the electronic device 400 through a network (for example, a short range communication network). Data can be sent to or received from an external device.
- the short range communication module 415 may maintain the always on state or may be turned on / off according to a setting or a user input of the electronic device 400.
- the location calculation module 717 may have the same or similar configuration as the GNSS module 227 of FIG. 2, for example.
- the position calculation module 717 is a module for acquiring a position of the electronic device 400, and may include a global position system (GPS) module as a representative example.
- GPS global position system
- the location calculation module 717 may measure the location of the electronic device 400 on the basis of triangulation.
- the user input unit 720 may generate input data for controlling the operation of the electronic device 400 in response to a user input.
- the user input unit 720 may include at least one input device for detecting various inputs of a user.
- the user input unit 720 may include a key pad, a dome switch, a physical button, a touch pad (static pressure / capacitance), a jog & shuttle, and a sensor (eg, FIG. 2).
- Sensor module 240 may be any suitable for controlling the operation of the electronic device 400 in response to a user input.
- the user input unit 720 may include at least one input device for detecting various inputs of a user.
- the user input unit 720 may include a key pad, a dome switch, a physical button, a touch pad (static pressure / capacitance), a jog & shuttle, and a sensor (eg, FIG. 2).
- Sensor module 240 Sensor module 240
- the user input unit 720 may be partially implemented in the form of a button on the outside of the electronic device 400, or may be partially or entirely implemented as a touch panel.
- the user input unit 720 may receive a user input for initiating various operations (for example, a screen extension function, an application execution function, a shooting function, a data generation function, a data reproduction function, etc.) of the electronic device 400. And an input signal according to a user input.
- the touch screen 730 may represent an input / output device capable of simultaneously performing an input function and a display function.
- the touch screen 730 may include a display 731 (eg, the display 160 and 260 of FIG. 1 or 2) and the touch sensing unit 733.
- the touch screen 730 may provide an input / output interface between the electronic device 400 and the user.
- the touch screen 730 may transmit a user's touch input to the electronic device 400, and may also include a role of a medium that shows an output from the electronic device 400 to the user.
- the touch screen 730 can show a visual output to the user.
- the visual output can be in the form of text, graphics, video, and combinations thereof.
- the display 731 may display (output) various pieces of information processed by the electronic device 400.
- the display 731 may display various user interfaces (UIs) or graphical user interfaces (GUIs) related to the use of the electronic device 400.
- UIs user interfaces
- GUIs graphical user interfaces
- the display 731 may provide various screen configurations according to the operation of the main area and the sub area.
- various displays eg, the display 160 of FIG. 1
- the curved display may be used as the display 731.
- the display 731 may include a display control circuit (eg, DDI, display driver IC) (not shown) that provides an electrical signal (eg, a multi high voltage level (MHVL) signal) to a display panel (not shown). ) May be included.
- the display control circuitry may be an essential component necessary for driving the display 731.
- the display control circuit may provide the driving signal and data to the display 731 as an electrical signal (eg, an MHVL signal) such that an image (eg, text, picture, still image, video, etc.) is displayed on the screen.
- an IC a circuit for driving a display can be shown.
- the display control circuit may be referred to as an extended screen module and may be implemented in software and / or hardware.
- the display control circuitry may be referred to as software DDI and / or hardware DDI and may handle operations related to display using sub-areas of display 731.
- the touch sensing unit 733 may be mounted on the display 731, and may sense a user input contacting or approaching the surface of the touch screen 730.
- the user input may include a touch input or a proximity input input based on at least one of single-touch, multi-touch, hovering, or air gesture.
- the touch sensing unit 733 may receive a user input for initiating various operations related to the use of the electronic device 400 in various embodiments, and generate an input signal according to the user input.
- the audio processor 740 may have a configuration that is the same as or similar to that of the audio module 280 of FIG. 2, for example.
- the audio processor 740 transmits an audio signal input from the controller 780 to a speaker 741, and controls an audio signal such as a voice input from a microphone 743 and the controller 780. ) Can be performed.
- the audio processor 740 converts the audio / sound data into an audible sound through the speaker 741 under the control of the controller 780, and converts the audio signal such as a voice received from the microphone 743 into a digital signal.
- the controller 780 may transmit the result.
- the speaker 741 may receive audio data received from the wireless communication unit 710 or stored in the memory 750.
- the speaker 741 may output sound signals related to various operations (functions) performed by the electronic device 400.
- the microphone 743 may receive an external sound signal and process it as electrical voice data.
- the microphone 743 may be implemented with various noise reduction algorithms for removing noise generated in the process of receiving an external sound signal.
- the microphone 743 may be responsible for input of audio streaming, such as a voice command (eg, a voice command for controlling activation / deactivation of a screen extension function, etc.).
- the memory 750 may store one or more programs executed by the controller 780, and may be input / output. It can also perform a function for temporary storage of data (eg buffering).
- the input / output data may include, for example, a video, an image, a photo, or an audio.
- the memory 750 is responsible for storing the acquired data, and the data obtained in real time may be stored in a temporary storage device (eg, a buffer), and data determined to be stored may be stored in a storage device that can be stored for a long time. have.
- the memory 750 is configured to display a screen by dividing the main area and the sub area of the display 731 of the electronic device 400 and to display the expanded screen based on the imitation information sensed (acquired) through the copy area.
- the memory 750 may be configured by the controller 780 (eg, a processor) to sense at least some areas of the main area, generate imitation information for the expanded screen based on the sensed area, and copy information.
- One or more programs, data, or instructions related to displaying the extended screen in the sub area in association with the main screen of the main area may be stored.
- the memory 750 may be configured by the controller 780 (eg, a processor) to generate a first canvas for a draw of an enlarged screen displayed through a sub-area and displayed through the main area.
- the controller 780 eg, a processor
- Create a second canvas for the draw of the main screen calculate the size and position of the view of the main screen, obtain imitation information according to the view, draw the view to the second canvas, and submit the imitation information.
- One or more programs related to drawing on the first canvas, drawing the first canvas and the second canvas into memory, and displaying the first canvas in the subregion at the time the second canvas is displayed in the main region. Can store data or instructions.
- the memory 750 may include an extended memory (eg, the external memory 234 of FIG. 2) or an internal memory (eg, the internal memory 232 of FIG. 2).
- the electronic device 400 may operate in association with a web storage that performs a storage function of the memory 750 on the Internet.
- the memory 750 may store one or more software (or software modules).
- the software component may be an operating system software module, a communication software module, a graphics software module, a user interface software module, a moving picture experts group (MPEG) module, a camera software module, or one or more application software modules. It may include.
- a module which is a software component, may be expressed as a set of instructions, so that a module may be referred to as an instruction set. Modules are also represented programmatically.
- memory 230 may include additional modules (instructions) in addition to the modules described above. Or, if necessary, some modules (instructions) may not be used.
- Operating system software modules may include various software components that control general system operations. Control of general system operation may mean, for example, memory management and control, storage hardware (device) control and management, or power control and management.
- the operating system software module may also perform functions that facilitate communication between various hardware (devices) and software components (modules).
- the communication software module may be a wearable device, a smartphone, a computer, a server, a television through a communication module (for example, the wireless communication unit 710 or the communication module 220) or an interface (for example, the interface unit 760 or the interface 270). Communication with other electronic devices such as a monitor or a portable terminal.
- the communication software module may be configured with a protocol structure corresponding to the communication method.
- the graphics software module may include various software components for providing and displaying graphics on a display (eg, display 731, display 260).
- graphics may be used to mean text, web pages, icons, digital images, video, animations, and the like. have.
- the user interface software module may include various software components related to the user interface (UI). For example, it may include information on how the state of the user interface changes or under what conditions the state of the user interface state changes.
- the MPEG module may include a software component that enables digital content (eg, video, audio) related processes and functions (eg, creation, playback, distribution and transmission, etc.) of content.
- digital content eg, video, audio
- functions eg, creation, playback, distribution and transmission, etc.
- the camera software module may include camera related software components that enable camera related processes and functions.
- Application modules include web browsers, including a rendering engine, email, instant messages, word processing, keyboard emulation, address book ), Touch list, widget, digital right management (DRM), iris scan, context recognition, voice recognition, location determination ( position determining function), location based service, and the like.
- a rendering engine including a rendering engine, email, instant messages, word processing, keyboard emulation, address book ), Touch list, widget, digital right management (DRM), iris scan, context recognition, voice recognition, location determination ( position determining function), location based service, and the like.
- the memory 750 may include a computer-readable recording medium that records a program for executing the method according to various embodiments in the processor (eg, the controller 780).
- the computer-readable recording medium displays a screen on the display 731
- an operation of sensing at least a partial area of the main area separated from the display 731 may be performed.
- the interface unit 760 may have a configuration that is the same as or similar to that of the interface 270 of FIG. 2, for example.
- the interface unit 760 may receive data from another electronic device, or may receive power and transfer the data to each of the components inside the electronic device 400.
- the interface unit 760 may allow data inside the electronic device 400 to be transmitted to another electronic device.
- wired / wireless headphone port, external charger port, wired / wireless data port, memory card port, audio input / output port, video input / output port, earphone port Etc. may be included in the interface unit 760.
- the camera module 770 (eg, the camera module 291 of FIG. 2) represents a configuration supporting the capturing function of the electronic device 400.
- the camera module 770 may photograph an arbitrary subject under the control of the controller 780, and transfer the photographed data (eg, an image) to the display 731 and the controller 780.
- the camera module 770 may include, for example, a first camera (eg, a color (RGB) camera) for obtaining color information and depth information (eg, location information of a subject, And a second camera (eg, an infrared (IR) camera) for acquiring distance information.
- the camera module 770 may include an image sensor.
- the image sensor may be implemented as a charged coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS).
- the first camera may be a front camera provided in the front of the electronic device 400.
- the front camera may be replaced by the second camera and may not be provided at the front of the electronic device 400.
- the first camera may be disposed together on the front surface of the electronic device 400 together with the second camera.
- the first camera may be a rear camera provided at the rear of the electronic device 400.
- the first camera may have a form including both a front camera and a rear camera respectively provided on the front and the rear of the electronic device 400.
- the controller 780 may control the overall operation of the electronic device 400.
- the controller 780 may have, for example, a configuration that is the same as or similar to that of the processor 210 of FIG. 2.
- the controller 780 senses at least a partial area of the main area divided on the display 731, and for the expanded screen based on the sensed area.
- the operation of generating the imitation information and the operation of displaying the enlarged screen on the sub-region separated on the display 731 in association with the main screen of the main region based on the imitation information may be processed.
- the controller 780 may generate a first canvas for drawing a draw of the expanded screen displayed through the sub-area, and a second canvas for draw of the main screen displayed through the main region.
- An operation of drawing a canvas and the second canvas into the memory, and an operation of displaying the first canvas in the sub area at the time of displaying the second canvas in the main area may be performed.
- the controller 780 may include one or more processors for controlling the operation of the electronic device 400.
- the controller 780 may include a communication processor (CP), an application processor (AP), an interface (eg, GPIO, general purpose input / output), internal memory, or the like as separate components, or one or more components. It can be integrated in an integrated circuit.
- the application processor may execute various software programs to perform various functions for the electronic device 400, and the communication processor may perform processing and control for voice communication and data communication. Can be done.
- the controller 780 may play a role of executing a specific software module (for example, an instruction set) stored in the memory 750 to perform various specific functions corresponding to the module.
- a specific software module for example, an instruction set
- the controller 780 may control the operation of hardware modules such as the audio processor 740, the interface unit 760, the display 731, and the camera module 770. Control (or processing) operation of the controller 780 according to various embodiments of the present invention will be described in detail with reference to the accompanying drawings. According to various embodiments of the present disclosure, the controller 780 executes one or more programs stored in the memory 750 to control one or more operations of the electronic device 400 according to various embodiments of the present disclosure. It may be implemented as one or more processors. According to various embodiments of the present disclosure, the controller 780 may be electrically or functionally connected to the display 731 and the memory 750 of the electronic device 400.
- the power supply unit 790 may receive an external power source or an internal power source under the control of the controller 780 to supply power for operation of each component.
- the power supply unit 790 may supply or turn off (on / off) power to the wireless communication unit 710, the display 731, the camera module 770, and the like under the control of the controller 780.
- the power supply unit 790 may include, for example, a battery control circuit.
- the power supply 790 may include a battery (eg, a rechargeable battery and / or a solar battery), a battery level measuring circuit (eg, a fuel gauge), and a power management integrated circuit (eg, a PMIC). It may be configured to include a power management integrated circuit, a charging circuit, and a booster circuit.
- FIG. 8 is a diagram schematically illustrating a configuration of an electronic device for processing a display of a display in an electronic device according to various embodiments of the present disclosure.
- 9 is a diagram illustrating an example of a hierarchical structure of an application layer in an electronic device according to various embodiments of the present disclosure.
- a main area and at least one sub area of the display 830 may be formed through the first processor 810 and the second processor 820.
- An example of the operation of allocating and processing image processing for the following is described.
- an electronic device 400 may include a first processor 810, a second processor 820, a display 830, and a memory 840.
- the display 830 is exposed to one surface of a housing (eg, the housing 450 of FIG. 4) of the electronic device 400, and has a flat main area and a sub-extension extending at least partially from the main area. It can include an area.
- the display 830 may display a screen by dividing the main area and the sub area.
- the sub area may use an edge portion of the curved display, a folding surface in the flexible display, or an area separated in the flat display.
- the first processor 810 may have the same or similar configuration as the processor 210 of FIG. 2 or the controller 780 of FIG. 7.
- the first processor 810 may be implemented as an application processor (AP).
- AP application processor
- the first processor 810 may process to display a screen on a main area of the display 830, or a main area and a sub area of the display 830 in response to the setting of the electronic device 400. .
- the first processor 810 may display a display method of the display 830 based on a user's use setting of the display 830 (for example, whether at least one sub-area of the display 830 is used). You can decide.
- the first processor 810 may perform image processing for display corresponding to the main area, and generate control information accordingly.
- the first processor 810 may perform image processing for display corresponding to the main area and the sub area, and generate control information accordingly.
- the first processor 810 may set an imitation area in the main area of the display 830 in response to the setting of the electronic device 400, and may based on the imitation information obtained through the imitation area.
- the main screen of may be processed to display an extended screen through the sub area.
- the first processor 810 may determine a display method (eg, whether the screen is expanded) of the display 830 based on the screen extension function setting.
- the first processor 810 may determine a display method (eg, whether a screen is expanded) of the display 830 based on a state (eg, a laid state or a gripped state) of the electronic device 400. .
- the first processor 810 determines to use the screen extension function, the first processor 810 acquires copy information (eg, the content of the copy area on the main screen) based on the copy area of the main area (for example, the copy information sensing area). Based on the imitation information, image processing for displaying an extended screen may be performed, and control information may be generated accordingly.
- copy information eg, the content of the copy area on the main screen
- the first processor 810 may transfer the processed image and the control information to the second processor 820.
- the first processor 810 determines and processes the display by the main area, the display by the main area and the sub area, or the display and the display by the screen extension function using the imitation area.
- the apparatus may further include a screen display processor 850. According to various embodiments, all or part of the screen display processor 850 may be implemented in software.
- the screen display processor 850 may include a module that processes various operations related to displaying a virtual image and / or a mimic image in a sub area.
- the screen display processing unit 850 may include an analysis module 851, a processing module 852, a display control module 853, a virtual image processing module 854, and an extended screen display module 855. Can be implemented.
- the screen display processing unit 850 may, in various embodiments, perform an operation related to displaying an enlarged screen (eg, an imitation image) based on the imitation information;
- the operation related to displaying the virtual image of the area together with the expanded screen (eg, an imitation image) can be processed.
- the analysis module 851 may include a module for analyzing contents (or main screens) of the main area.
- the analysis module 851 may grasp the layer structure of the content displayed in the main area and extract feature information of a view in which the main content is displayed.
- the analysis module 851 may analyze the content based on the feature information, and provide the analyzed content as the analysis information to the processing module 852.
- the analysis information may include, for example, information for determining a correction scheme suitable for displaying the expanded screen.
- An example of a hierarchical structure (eg, application layer) according to various embodiments is illustrated in FIG. 9.
- FIG. 9 is a block diagram of an application layer 950 and is a diagram illustrating a hierarchical structure of a view.
- FIG. 9 may show an example of components (eg, window and view) of each application of the application layer 950.
- an application may be provided through a plurality of windows 951, 952, and 953.
- the windows 951, 952, and 953 may overlap each other according to a Z-order.
- Each of the windows 951, 952, 953 may include one or more views 971, 972, 973.
- the processing module 852 may include a module configured to process information for displaying an enlarged screen in the sub area based on the content (analysis information) analyzed by the analysis module 851.
- the processing module 852 may represent a module for modulating the contents of the main area based on the analysis information provided by the analysis module 851.
- the processing module 852 may extract information displayed by extending the entire layer of the main area or extract background information from the layer of the main area and provide it as processing information for the expanded screen using the sub area. .
- the processing module 852 may sense (acquire) imitation information based on the set imitation area in the main area in which at least one view determined based on the analysis information is provided, and based on the imitation information. To provide processing information (eg, an imitation image) for the expansion screen through the sub area.
- the display control module 853 may include a module that performs image processing for displaying an enlarged screen in a sub area based on processing information (eg, an imitation image) processed by the processing module 852. can do.
- the display control module 853 may control to display the expanded screen in the sub area in software or hardware based at least in part on the analysis information and the processing information.
- the display control module 853 may control to display the extended screen by software DDI or hardware DDI.
- the display control module 853 may control the operation by the software DDI (for example, the extended screen display module 855) when determining the extended screen display in software, and the hardware DDI when determining the extended screen display in hardware.
- the display control module 853 may provide an effect for reducing heterogeneity between the main screen of the main area and the expanded screen of the sub area and / or between the sub screen and the expanded screen of the sub area, and continuously I can display it.
- the virtual image display module 854 may perform a related sub-screen (eg, virtual image) through, for example, a user input (eg, a touch) by the sub-area.
- a related sub-screen eg, virtual image
- a user input eg, a touch
- notification content, notification color, progress, etc. can be controlled to appear naturally.
- the extended screen display module 855 may include, for example, a software DDI, and may perform software image processing for displaying a sub area. According to various embodiments of the present disclosure, the extended screen display module 855 may perform, for example, a function corresponding to the second processor 820 in software.
- the second processor 820 may be implemented as, for example, a display driver integrated circuit (DDI). In various embodiments, the second processor 820 may receive control information for image and display processing from the first processor 810. The second processor 820 may determine a display method based on the received control information.
- DCI display driver integrated circuit
- the second processor 820 may transfer the received image to the display 830 as it is.
- the second processor 820 may display the sub-region of the display 830 based on the control information (for example, an independent display of the sub area, an extended (or extended) screen display of the main area, etc.).
- the virtual image may be generated by specific processing (eg, pixel extension, gradation, black or blur processing, etc.) for the sub-region based on the control information.
- the second processor 820 may transmit an image (eg, a main screen), a specific processed virtual image, and / or a specific processed mimic image for the main area received from the first processor 810 to the display 830. .
- the second processor 820 includes an interface 821, a memory 822, a decoder 823, an image quality corrector 824, a brightness corrector 825, a screen corrector 826, and the like. Can be implemented.
- the interface 821 may include, for example, a serial interface (eg, a mobile industry processor interface display serial interface). According to various embodiments of the present disclosure, the interface 821 may process transmission of a command (eg, control information) and data (eg, an image) with the first processor 810 (eg, the screen display processor 850).
- a command eg, control information
- data eg, an image
- the memory 822 may include, for example, a frame buffer. According to various embodiments, the memory 822 may record (eg, buffer) (eg, display screen area) an image transmitted through the interface 821, and may include a video buffer and a video memory. memory, video RAM, or the like.
- Decoder 823 may, for example, convert the coded image to its original form.
- the image quality correction unit 824, the brightness correction unit 825, and the screen correction unit 826 may process image quality, brightness, or screen correction of an image to be displayed on the display 830.
- the memory 840 may have a configuration that is the same as or similar to that of the memory 230 of FIG. 2 or the memory 750 of FIG. 7. According to various embodiments, the memory 840 is electrically connected to at least one of the at least two processors (eg, the first processor 810 and the second processor 820) (eg, the first processor 810). It can be implemented with at least one memory.
- FIG. 10 is a diagram illustrating a display operation of a display in an electronic device according to various embodiments of the present disclosure.
- the electronic device 400 supports a full resolution (eg, 2560 * 1600), the main area 1010 of the front supports a resolution of 2560 * 1440, Each of the sub-regions 1020 on both sides supports a resolution of 2560 * 80, and the sum of the resolution of the main region 1010 and the resolution of the sub-region 1020 corresponds to the full resolution (for example, 2560 * 1600). It shows by way of example.
- the numerical value of the resolution is not merely used to describe a specific embodiment or for convenience of description, but may be variously implemented according to the characteristics of the display 830 or the electronic device 400. .
- the electronic device 400 to which the curved display 830 is applied may make the screen larger by using the sub area 1020 when the landscape or portrait mode is used.
- the 2560 * 80 resolution is extended through the sub area 1020 on both sides, respectively, to give a total of 2560 * 1600 (for example, 2056). * (1440 + 80 + 80)).
- 160 pixels may be extended using both sub-regions 1020 on both sides, or 80 pixels may be extended using sub-regions 1020 on either side.
- the display of the main area 1010 is processed by the first processor 810, and the display of the sub area 1020 is performed by the second processor 820 (eg, a display driver IC). Can be processed.
- the second processor 820 eg, a display driver IC
- the first processor 810 may at least partially process the display of the sub-region 1020
- the second processor 820 may at least partially process the display of the sub-region 1020.
- a processing task for displaying the sub area 1020 may be adaptively distributed (assigned) to the first processor 810 and the second processor 820, and the second processor 820 may serve as a sub processor.
- the display process for the area 1020 may be partially performed.
- the first processor 810 performs image processing on the resolution 2560 * 1440 of the main area 1010 in front of the image for display, rather than image processing on the full resolution 2560 * 1600.
- a first image eg, an image having a resolution of 2560 * 1440
- the second processor 820 displays the sub image 1020 based on the transferred first image.
- a second image eg, a virtual image, an imitation image; at least one 2560 * 80 image
- the second processor 820 may make the screen larger by performing specific processing on the sub area 1020.
- the second processor 820 may perform sub-regions through specific processing such as pixel extension, gradation, black, or blur based on the first image.
- the second image may be displayed.
- the second image may be a virtual image for a sub region, an imitation image in which the main region is extended, or an image including the virtual image and the imitation image.
- a usage scenario of the curved display eg, the main area 1010 and the sub area 1020
- image processing for the main area 1010 and the sub area 1020 may be separately processed by the first processor 810 and the second processor 820.
- the first processor 810 may transfer a full resolution image (eg, 2560 * 1600 image) to the second processor 820, and the second When the full resolution image is transferred from the first processor 810, the processor 820 may transfer the full resolution image to the display 830 without an image processing operation for the sub-region 1020.
- a full resolution image eg, 2560 * 1600 image
- the display 830 may display an image transmitted from the second processor 820 through the main area 1010 or the main area 1010 and at least one sub area 1020.
- an electronic device may include a main area of a front surface and a sub area of at least one side surface extending from the main area, and display an image among the main area and the sub area.
- 780 and a first processor 810 wherein the processor (for example, the controller 780 and the first processor 810) senses at least a portion of the main area, and applies the detected area to the sensed area. And generating imitation information for the extended screen based on the imitation information, and displaying the expanded screen in the sub area in association with the main screen of the main area based on the imitation information.
- the processor may be configured to set at least a part of the main area as a copy area, and to copy the whole or part of the copy area to generate the copy information.
- the copy area may be set to a predetermined size from a boundary between the main area and the sub area.
- the copy area may allocate 1 pixel in the main area.
- the processor may be configured to display the virtual image allocated to the sub region and the imitation image according to the imitation information together in the sub region.
- the processor may be configured to determine a display method of the copying information and to process the display of the extended screen based on the determined display method.
- the processor may extend the imitation information based at least in part on a hardware pixel extension method, a background extension method, or a black extension method. It can be configured to handle the display of the screen.
- the processor may generate a first canvas for a draw of the extended screen displayed through the sub-region, and a second for draw of the main screen displayed through the main region.
- Create a canvas calculate the size and position of the view of the main screen, obtain the imitation information according to the view, draw the view to the second canvas, and draw the imitation information to the first canvas.
- the first canvas and the second canvas may be drawn in the memory, and the first canvas may be displayed in the sub area at the time when the second canvas is displayed in the main area.
- the processor may be configured to generate one or more second canvases corresponding to the sub area.
- the processor detects the use of the electronic device, monitors the state of the electronic device in response to detecting the use of the electronic device, and deactivates the extension function if the state of the electronic device is in a gripping state.
- Set process screen display in response to deactivation of the extended function, and if the state of the electronic device is fixed, sense imitation information based on the extended function, and process the screen display including the imitation information. can do.
- the processor may be configured to include an application processor and a display driver integrated circuit (DDI).
- DCI display driver integrated circuit
- 11 is a flowchart illustrating a method of processing a display of a display in an electronic device according to various embodiments of the present disclosure.
- 12 is a diagram illustrating an example of managing a black list in an electronic device according to various embodiments of the present disclosure.
- FIG. 11 is a method of displaying an extended screen through a sub area, and for example, illustrates an operation of displaying a virtual image and a copy image related to the extended screen together in the sub area.
- the controller 780 eg, the first processor 810 of FIG. 8 of the electronic device 400 displays a screen displayed on the display 830 when displaying a screen.
- the screen of the electronic device 400 may have a hierarchical structure of various views 971, 972, and 973.
- the sizing, positioning, and draw processes of the views 971, 972, and 973 may be performed, respectively. have.
- the view when the sizes and positions of the views 971, 972, and 973 are determined, when the x / width coordinate of a specific view is located at the first coordinate / end coordinate of the screen x-axis, the view is an edge. This can be determined by the view in. According to an embodiment of the present disclosure, when the sizes and positions of the views 971, 972, and 973 are determined, when the y / height coordinate of a specific view is located at the first coordinate / end coordinate of the screen y axis, the view is at an edge. Can be determined by a view.
- the controller 480 may generate the imitation information.
- the controller 780 may generate copy information by replicating all or part of the contents of the main screen displayed through the main area.
- the controller 480 may generate the imitation information based on the view of the edge based on the result of the screen analysis.
- the controller 480 may sense an imitation area of the main area and generate imitation information based on the sensing result.
- the controller 480 may determine a display method of the imitation information according to whether the object is included in the view. According to an embodiment of the present disclosure, if the corresponding view located at the edge does not include an object (eg, an image), the controller 780 displays an extended screen through hardware (eg, H / W pixel extension). ) Can be determined. For example, the controller 780 may determine to perform pixel extension. According to an embodiment of the present disclosure, if the corresponding view located at the edge includes an object (eg, an image), the controller 780 may determine not to perform an extended screen display through hardware. For example, one may decide not to perform pixel extension and to perform background extension.
- an extended screen eg, H / W pixel extension
- whether an object eg, an image
- OS operating system
- the sub area may be blacked (for example, a black extension method). You can decide.
- a black list may be managed and blackened.
- the above methods may be set in various ways by user selection. According to various embodiments, an example of managing a black list is illustrated in FIG. 12.
- the electronic device 400 stores and manages a black list through a black list service 1200 (or a black list management application) that manages a black list (for example, black).
- List management server to request and obtain a black list.
- the electronic device 400 may store the black list obtained from the server 1250 in the memory 840 by the black list service 1200.
- the black apparatus needs the black process as described above, the electronic device 400 reads the black list stored in the memory 840 by the analysis module 851, and based on the read black list, Screen display processing (for example, black processing) may be performed.
- the controller 780 may process screen display in response to the determined display method. For example, the controller 780 may process the display of the main screen through the main area, the display of the extended screen in the sub area, the display of the sub screen in the server area, etc. based on the imitation information. According to various embodiments of the present disclosure, screen display processing for the main area and the sub area may be distributed and processed through the first processor and the second processor, as described above.
- a method of processing a screen display on a sub-region based on the imitation information may include applying the generated imitation information to a screen expansion application method through hardware (eg, hardware pixel expansion (H / W pixel). extension method), a background extension method, a black extension method, or the like.
- hardware eg, hardware pixel expansion (H / W pixel). extension method
- background extension method e.g., black extension method, or the like.
- the display of imitation information by the pixel expansion method may include, for example, a screen alpha channel of one pixel (eg, an imitation region) of the edge of the main region in hardware at the time of draw. (Or alpha area).
- the alpha channel may represent a channel set in addition to the base region (or base channel) in order to process the image processing task more simply and effectively.
- a typical screen consists of three channels.
- an image may be generated by synthesizing three lights of R (red), G (green), and B (blue).
- the fourth channel is called an alpha channel, and is composed of black and white channels.
- an alpha channel can effectively fuse two colors when the color of one pixel on the graphic overlaps with the color of another pixel, and can be effective for animation work.
- the image of the alpha channel is A and the screen to be synthesized is B
- the white portion of the alpha channel of the screen A may appear in the image of A
- the black portion may be transparent to correspond to the back background
- the image of B may appear.
- the imitation information display by the background extension application scheme may include, for example, a canvas (eg, 1xHeight Canvas) for a subregion (eg, both subregions) before analyzing the view hierarchy. ) Can be created.
- a canvas eg, 1xHeight Canvas
- a subregion eg, both subregions
- Can be created When each view is located in a sub area (eg, an edge part) at a draw time, a background image may be drawn on the canvas by 1 pixel (eg, a pixel corresponding to an imitation area). After drawing the final view, draw the created canvas at the edge when the main screen is displayed, and draw the drawn canvas to the alpha channel through the hardware to draw the extended screen at the same time as the main screen. Can be.
- the background extension application scheme may be implemented by combining hardware and software as described below. This will be described with reference to the drawings to be described later.
- the imitation information display according to the black expansion method may set, for example, a frame buffer (eg, the memory 822 of FIG. 8) of an alpha channel in the case of the black expansion method. May be possible.
- the background image may be set to black color for natural animation between screens.
- the imitation information for the extended screen may be generated and displayed in the sub area through various methods.
- the overlapping of the virtual image allocated to the sub-region and the imitation information (eg, the imitation image) corresponding to the extended screen may occur.
- an unnatural animation may appear. An example of this is shown in FIG. 13.
- FIG. 13 is a diagram illustrating a display example of a sub area in an electronic device according to various embodiments of the present disclosure.
- a user may input a sub area 1320 on the sub area 1320 based on a user input (eg, touch or drag and the like).
- An operation of displaying a specific screen eg, related content such as notification content, notification color, or progress (eg, alarm, player, etc.)
- the electronic device 400 may display a virtual image corresponding to the sub screen through the sub area 1320 in response to a user input.
- the electronic device 400 may also perform an operation of displaying the imitation information (eg, an imitation image simulated based on the imitation region 1310) through the sub region 1320.
- the imitation information eg, an imitation image simulated based on the imitation region 1310
- FIG. 14 is a flowchart illustrating a method of processing a display of a display in an electronic device according to various embodiments of the present disclosure.
- the controller 780 (eg, the first processor 810 of FIG. 8) of the electronic device 400 may select a canvas (eg, a first canvas) for a sub area. Can be generated.
- the controller 780 may generate a canvas for drawing an enlarged screen (eg, an image corresponding to 1 pixel of the copy area) displayed through the sub area.
- the controller 780 may generate at least one canvas for a sub region of one side.
- the controller 780 may generate one or more canvases corresponding to the operation of the sub area (or the number of sub areas configured).
- the controller 780 may generate two canvases for the left and right sub areas.
- the controller 780 may generate two canvases for the upper and lower sub areas.
- the controller 780 may generate four canvases for the left, right, top, and bottom sub areas.
- the controller 780 may generate one canvas for the corresponding sub area.
- the controller 780 may generate the canvas to have a corresponding specific height (eg, 1xHeight) of the corresponding subregion.
- the controller 780 may generate a canvas (eg, a second canvas) for the main area.
- the controller 780 may generate a canvas for the draw of the main screen displayed through the main area.
- the controller 780 may calculate the size and location of the view according to the hierarchical structure.
- the screen of the electronic device 400 may have a hierarchical structure of various views, and the controller 780 may calculate the size and position of various views of the main screen and sense (or obtain) imitation information. The view can be determined.
- the controller 780 may obtain copying information according to the view. For example, the controller 780 may determine the pattern of the imitation information. According to an embodiment of the present disclosure, the controller 780 may acquire the imitation image corresponding to the image displayed in the imitation area by simulating the contents of the imitation area of a specific pixel (eg, 1 pixel) allocated in the main area. The pattern of the acquired mimic image can be analyzed.
- a specific pixel eg, 1 pixel
- the controller 780 may draw each view to the second canvas.
- the controller 780 may draw views of the main screen displayed through the main area on the canvas for the main area.
- the controller 780 may draw the imitation information on the first canvas.
- the controller 780 may draw imitation information (eg, an imitation image) for the enlarged screen displayed through the sub region to the canvas for the sub region.
- the controller 780 may draw the first canvas to the frame buffer.
- the controller 780 may draw the second canvas to the frame buffer.
- controller 780 may display the first canvas as an expanded screen through the sub area at the time when the second canvas is displayed through the main area.
- 15 is a diagram illustrating an example of operating a sub area in an electronic device according to various embodiments of the present disclosure.
- the electronic device 400 may include a system 1510, an edge manager 1520 (eg, a sub area manager), a hardware DDI 1530, and a software DDI 1540. It may include an edge service 1550.
- an edge manager 1520 eg, a sub area manager
- a hardware DDI 1530 e.g., a hardware DDI 1530
- a software DDI 1540 e.g., a software DDI 1540.
- It may include an edge service 1550.
- the system 1510 may notify (notify) the opening of the virtual display to the edge manager 1520.
- the edge manager 1520 may turn on the software DDI 1540 and turn off the hardware DDI 1530 in response to the virtual display opening. Can be.
- the edge manager 1520 may open the content and deliver it to the edge service 1550.
- the edge service 1550 may begin an animation corresponding to the content.
- the electronic device 400 may open an image (eg, a virtual image or an imitation image) for a sub area.
- an image eg, a virtual image or an imitation image
- the electronic device 400 uses a hardware module, an image (eg, a virtual image or an imitation image) related to the subregion may appear in the main area of the display (eg, the display 830 of FIG. 8). have.
- a software DDI 1540 supporting the Z-order for example, the extended screen display module 855 operating in software in FIG.
- the software DDI 1540 may be turned on. Thereafter, the electronic device 400 may naturally display an image (eg, a virtual image or an imitation image) in the sub area through image processing by the software DDI 1540.
- a hardware DDI 1530 (eg, the expanded screen display module 855 or the second processor 820 operating in hardware in FIG. 8)
- the software DDI 1540 may be turned on. Thereafter, the electronic device 400 may naturally display an image (eg, a virtual image or an imitation image) in the sub area through image processing by the software DDI 1540.
- FIG. 16 is a diagram illustrating another example of operating a sub area in an electronic device according to various embodiments of the present disclosure.
- the electronic device 400 when the electronic device 400 displays an image (eg, a virtual image or an imitation image) for the sub region, the electronic device 400 does not configure the software DDI 1540 and the sub region. After displaying the image as many times as possible, the hardware DDI 1530 may be turned off. Thereafter, the electronic device 400 may display an image according to the acceleration.
- an extended screen may be displayed through a sub area without animation at first, and then, as shown in the example ⁇ C>. As described above, the extended screen may be displayed in the sub area together with the animation.
- the sub area is small (for example, when the width of the sub area is narrow), the expanded screen may be displayed more naturally due to the acceleration.
- the operation of the sub-region of the present invention has been described as an example of being implemented on the left side and the right side, but the present invention is not limited thereto, and the sub-region is implemented on the upper side and the lower side.
- the extended screen may be implemented in the same manner as described above by using the sub area as the extended screen area.
- 17 is a flowchart illustrating an example of processing a display of a display in an electronic device according to various embodiments of the present disclosure.
- the controller 780 of the electronic device 400 may detect use of the electronic device 400.
- the user may turn on the display by manipulating the electronic device 400.
- the electronic device 400 may receive various data from an external device or a server.
- the use of the electronic device 400 and the reception of data from the outside by a user may be set as a trigger for the use of the electronic device 400.
- the controller 780 may monitor (or determine) the state of the electronic device 400.
- the controller 780 uses at least one sensor (eg, the sensor module 240 of FIG. 2) of the electronic device 400 to determine a state of the electronic device 400 (eg, the electronic device 400). Posture, acceleration, tilt, touch or pressure according to the grip, various states such as charging) can be determined.
- the controller 780 determines whether the electronic device 400 is held by a user or a fixed state in which the electronic device 400 is placed on a floor (or a wireless charging pad) based on the monitoring result of operation 1703. It can be determined.
- the controller 780 may disable (or turn off) the extension function.
- the controller 780 may process screen display in response to deactivation of the extended function.
- the controller 780 may limit the use of the sub area, and may process to receive a screen display and a touch input based on the main area.
- the controller 780 determines that the state of the electronic device 400 is not a gripped state, for example, when it is determined that the state of the electronic device 400 is a fixed state (No in operation 1705).
- the imitation information may be sensed based on the extension function.
- the controller 780 may generate copy information for the expanded screen by copying the copy area of the main area.
- the controller 780 may process screen display including the imitation information.
- the controller 780 may include a virtual image allocated to the sub area and an expanded screen according to the imitation information and display the same together.
- FIG. 18 is a diagram illustrating an example in which an extended screen is provided in an electronic device according to various embodiments of the present disclosure.
- examples ⁇ A> and ⁇ B> of FIG. 18 illustrate an operation example of an extended screen according to various embodiments.
- the expanded screen in operating an enlarged screen using a sub-area, is reduced to the maximum in order to improve the user's concentration of the main screen during the operation of the user's electronic device. It can be displayed in place.
- the width of the subregion can be narrowly operated.
- the extended screen of the sub area may be displayed in the form of a bezel having a content unrelated to the main screen of the main area, which may cause a heterogeneity between the main screen and the extended screen. have.
- example ⁇ B> when the expanded screen using the sub area is operated, the expanded screen may be displayed by referring to the contents of the main screen. Accordingly, in the case of the example ⁇ B>, compared to the example ⁇ A>, the disconnected heterogeneity between the main screen and the extended screen may be reduced. According to various embodiments of the present disclosure, as the extended screen is implemented by referring to the contents of the main screen, distortion of the main screen may be avoided.
- example ⁇ B> may represent an example implemented in a hardware pixel expansion scheme.
- 19A, 19B, 19C, 19D, and 19E are diagrams illustrating examples of providing various types of extended screens in an electronic device according to various embodiments of the present disclosure.
- FIGS. 19A and 19B may illustrate an example in which the extended screens 1920 and 1940 are implemented in a hardware pixel expansion method as illustrated in the example ⁇ B> of FIG. 18 according to various embodiments. have.
- one pixel eg, an imitation area
- the edge of the main area eg, the content area
- the screen alpha channel or the alpha area
- the expanded screens 1920 and 1940 are implemented in both sub-regions by processing the contents of the main screens 1910 and 1930 of the main area, the distortion of the main screens 1910 and 1930 is avoided.
- the heterogeneity caused by the makeup screens 1920 and 1940 between the main area and the sub area may be reduced.
- FIGS. 19C and 19D may illustrate examples of implementing the extended screens 1950 and 1970 in a background expansion method according to various embodiments.
- the electronic device 400 may generate a canvas for the sub area before analyzing the view hierarchy. When each of the views is located in a sub area (eg, an edge portion) at a draw time, the electronic device 400 may draw a background image on the canvas by 1 pixel. After the final view is drawn, the created canvas is drawn to the edge when the main screens (1950, 1970) are displayed, and the drawn canvas is drawn to the alpha channel through the hardware to be expanded at the same time as the main screen.
- the screens 1960 and 1980 can be drawn.
- FIG. 19E illustrates an example in which the expanded screen 1990 is implemented in a black expansion method according to various embodiments.
- the background image may be provided by setting a black color.
- the electronic device when displaying a screen on the displays 731 and 830, may sense at least some areas of the main area divided by the displays 731 and 830. Generating imitation information for an extended screen based on the sensed region, and displaying the extended screen in a sub-region separated in the display in association with a main screen of the main region based on the imitation information; And the display 731, 830 includes the main area of the front side and the sub area of at least one side surface extending from the main area, wherein the image comprises at least a portion of the main area and the sub area. It may include a display to display based on.
- the generating may include setting at least a portion of the main area as a copy area, and generating the copy information by copying all or part of the copy area.
- the setting may include setting a predetermined size from a boundary between the main area and the sub area, and the predetermined size includes allocating 1 pixel in the main area. can do.
- the displaying may include displaying a virtual image allocated to the sub region and an imitation image according to the imitation information together in the sub region.
- the displaying operation may include an operation of determining a display method of the imitation information, and an operation of processing the display of the extended screen based on the determined display method.
- the operation of processing the display of the extended screen may include converting the imitation information into a hardware pixel extension method, a background extension method, or a black extension method. And processing the display of the extended screen based at least in part on.
- an operation of generating a first canvas for a draw of the extended screen displayed through the sub-area and a second canvas for drawing the main screen displayed through the main area is performed.
- Performing the operation calculating the size and position of the view of the main screen, acquiring the copy information according to the view, drawing the view onto the second canvas, and copying the copy information to the first canvas.
- a drawing operation, a drawing operation of the first canvas and the second canvas to the memory, and an operation of displaying the first canvas in the sub area at the time of displaying the second canvas in the main area; can do.
- the generating of the first canvas may include generating one or more of the first canvases corresponding to the sub area.
- an operation of detecting the use of the electronic device, an operation of monitoring the state of the electronic device in response to the detection of the use of the electronic device, and deactivating the extension function when the state of the electronic device is a gripped state Processing screen display in response to deactivation of the extended function; and if the state of the electronic device is in a fixed state, sensing imitation information based on the extended function, and processing screen display including the imitation information. It may include.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
본 발명의 다양한 실시 예들은 전자 장치에서 메인 영역과 서브 영역을 포함하는 디스플레이의 표시를 처리하는 방법 및 장치에 관하여 개시한다. 본 발명의 다양한 실시 예들에 따르면, 전면의 메인 영역과 상기 메인 영역으로부터 연장되는 적어도 하나의 측면의 서브 영역을 포함하고, 이미지를 상기 메인 영역 및 상기 서브 영역 중 적어도 일부에 기반하여 표시하는 디스플레이, 메모리, 및 상기 디스플레이 및 상기 메모리와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 메인 영역의 적어도 일부 영역을 센싱하고, 상기 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하고, 및 상기 모방 정보에 기반하여 상기 메인 영역의 메인 화면에 연관되게 확장 화면을 상기 서브 영역에 표시하도록 구성할 수 있다. 다양한 실시 예들이 가능하다.
Description
본 발명의 다양한 실시 예들은 전자 장치에서 디스플레이의 표시를 처리하는 방법 및 장치에 관한 것이다.
최근 디지털 기술의 발달과 함께 이동통신 단말기, 스마트폰(smart phone), 태블릿(tablet) PC(personal computer), 노트북(notebook), PDA(personal digital assistant), 웨어러블 장치(wearable device), 디지털 카메라(digital camera) 또는 개인용 컴퓨터(personal computer) 등과 같은 다양한 유형의 전자 장치가 널리 사용되고 있다. 그리고 최근에는 플렉서블 디스플레이(flexible display)를 비롯하여, 플렉서블 디스플레이와 전자 장치 결합에 의해 구현되는 커브드 디스플레이(curved display)(또는 벤디드 디스플레이(bended display))를 가지는 전자 장치가 개발 및 사용되고 있다. 플렉서블 디스플레이는 구부렸다가 폈다가를 자유자재로 할 수 있는 디스플레이를 나타내며, 커브드 디스플레이는 디자인 등을 고려하여 디스플레이를 구부려진 형태가 유지되는 디스플레이를 나타낼 수 있다.
커브드 디스플레이를 가지는 전자 장치는, 전자 장치의 전면(front)뿐만 아니라, 전자 장치의 좌우 측면(side)까지 디스플레이 영역을 확장할 수 있다. 예를 들어, 커브드 디스플레이를 전자 장치에 적용하는 경우, 디스플레이의 좌우 에지(edge) 부분을 휘게 만들어 화면을 크게 보이도록 할 수 있다. 한 실시 예에 따르면, 디스플레이 패널을 표준 해상도(예: 16:9)가 아닌 16:10, 16:11 등과 같이 다양하게 변경하여 제공할 수 있다.
커브드 디스플레이를 가지는 전자 장치는, 정형화된 화면 해상도 비율을 변형하여 에지 영역을 통해 디스플레이 영역을 확장하여 확장 화면을 제공할 수 있다. 이러한 전자 장치의 경우, 확장 화면이 메인 화면과는 무관하게, 베젤 형태로 제공되고 있어 메인 화면과의 이질감을 유발할 수 있다. 또한 커브드 디스플레이를 가지는 전자 장치에서 에지 영역을 이용한 확장 화면을 배제할 시 디스플레이의 전체 화면 크기가 작게 보이는 문제점이 있다. 이에, 에지 영역까지 메인 화면을 늘려 표시하는 방법이 고려될 수 있으나, 이러한 방식은 메인 화면의 화면 해상도 비율을 왜곡시켜 메인 화면의 내용이 일그러져 보이게 되는 문제점이 있다.
다양한 실시 예들에서는, 추가 또는 확장된 디스플레이를 포함하는 전자 장치에서 메인 화면과 확장 화면을 표시하는 방법 및 장치에 관하여 개시한다.
다양한 실시 예들에서는, 디스플레이의 서브 영역에 메인 화면과 연관하여 확장 화면을 표시할 때, 메인 화면과 확장 화면 간의 이질감 없이 표시하는 방법 및 장치에 관하여 개시한다.
다양한 실시 예들에서는, 디스플레이의 서브 영역에 화면을 표시함에 있어서, 메인 화면의 내용의 전체 또는 일부를 모사(또는 복사)하여 표시하는 방법 및 장치에 관하여 개시한다.
다양한 실시 예들에서는, 메인 화면의 화면 비율을 왜곡 시키지 않으면서도 서브 영역을 통해 가시 영역을 확장하고, 서브 영역에서 사용자를 위한 기능을 추가할 수 있는 방법 및 장치에 관하여 개시한다.
다양한 실시 예들에서는, 서브 영역을 이용한 가시 영역 확장 시, 메인 화면의 변화에 따라 발생할 수 있는 서브 영역에서의 이질적인 시인 문제를 해결할 수 있는 방법 및 장치에 관하여 개시한다.
본 발명의 다양한 실시 예들에 따른 전자 장치는, 전면의 메인 영역과 상기 메인 영역으로부터 연장되는 적어도 하나의 측면의 서브 영역을 포함하고, 이미지를 상기 메인 영역 및 상기 서브 영역 중 적어도 일부에 기반하여 표시하는 디스플레이, 메모리, 및 상기 디스플레이 및 상기 메모리와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 메인 영역의 적어도 일부 영역을 센싱하고, 상기 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하고, 및 상기 모방 정보에 기반하여 상기 메인 영역의 메인 화면에 연관되게 확장 화면을 상기 서브 영역에 표시하도록 구성할 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치의 동작 방법은, 디스플레이에 화면을 표시할 때, 상기 디스플레이 구분된 메인 영역의 적어도 일부 영역을 센싱하는 동작, 상기 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하는 동작, 및 상기 모방 정보에 기반하여 상기 메인 영역의 메인 화면에 연관되게 상기 확장 화면을 상기 디스플레이에 구분된 서브 영역에 표시하는 동작을 포함하고, 상기 디스플레이는, 전면의 상기 메인 영역과 상기 메인 영역으로부터 연장되는 적어도 하나의 측면의 상기 서브 영역을 포함하고, 이미지를 상기 메인 영역 및 상기 서브 영역 중 적어도 일부에 기반하여 표시하는 디스플레이를 포함할 수 있다.
상기와 같은 과제를 해결하기 위하여 본 발명의 다양한 실시 예들에서는, 상기 방법을 프로세서에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
다양한 실시 예들에 따른 전자 장치 및 그의 동작 방법에 따르면, 메인 영역과 서브 영역으로 구분하여 표시 가능한 디스플레이를 가지는 전자 장치에서 디스플레이의 보다 효과적으로 표시를 처리할 수 있다. 예를 들면, 전자 장치의 서브 영역에 화면을 표시할 때, 메인 화면의 내용의 전체 또는 일부를 모사(또는 복사)하여 표시할 수 있다. 이를 통해, 전자 장치의 서브 영역에서 메인 화면에 연관된 확장 화면(또는 가상 화면)을 이질감 없이 표시할 수 있다. 다양한 실시 예들에 따르면, 전자 장치에서 메인 화면의 화면 비율을 왜곡 시키지 않으면서도 가시 영역을 확장할 수 있으며, 서브 영역을 통한 확장 화면에서 사용자를 위한 기능을 추가할 수 있다. 다양한 실시 예들에 따르면, 메인 화면에 기반하여 모사된 확장 화면을 이용한 가시 영역 확장 시, 메인 화면의 변화에 따라 발생 가능한 서브 영역에서의 이질적인 시인 문제를 해결할 수 있다.
다양한 실시 예들에 따르면, 다양한 방법으로 제공되고 있는 전자 장치의 서브 영역에 화면을 표시할 때, 메인 화면의 내용을 참조 가공하여 표시함으로, 서브 영역에 표시되는 확장 화면을, 메인 화면과 단절된 이질감을 감소시킬 수 있다. 이를 통해, 다양한 실시 예들에서는 디스플레이의 운영에 심미감(審美感)(aesthetic)을 향상할 수 있고, 메인 화면의 왜곡 현상도 회피할 수 있다. 다양한 실시 예들에 따르면, 서브 영역을 이용하여 터치 오동작을 해결할 수 있으며, 서브 영역을 통해 화면(예: 확장 화면을 위한 모방 이미지, 서브 영역을 통해 실행되는 기능(또는 어플리케이션)의 가상 이미지)를 표시할 때 화면 전환 간 이질감을 감소시킬 수 있다.
다양한 실시 예들에 따르면, 전자 장치의 센서를 이용하여, 전자 장치가 바닥에 놓여있을 때는 확장 기능에 기반하여 메인 화면을 확장할 수 있고, 사용자가 전자 장치를 손으로 잡았을 때(예: 전자 장치의 파지(그립(grip)) 상태)는 확장 기능을 오프(off) 하는 응용을 통해서 서브 영역에 의한 터치의 오동작은 방지하고, 심미감(aesthetic)은 극대화할 수 있다. 다양한 실시 예들에 따른 전자 장치에 의해, 전자 장치의 사용성(usability), 편의성(ease) 및 경쟁력(competitiveness)을 향상시키는데 기여할 수 있다.
도 1은 본 발명의 다양한 실시 예들에 따른 전자 장치를 포함하는 네트워크 환경을 도시하는 도면이다.
도 2는 본 발명의 다양한 실시 예들에 따른 전자 장치의 블록도이다.
도 3은 본 발명의 다양한 실시 예들에 따른 프로그램 모듈의 블록도이다.
도 4는 본 발명의 다양한 실시 예들에 따른 전자 장치의 예시를 도시하는 도면이다.
도 5는 본 발명의 다양한 실시 예들에 따른 전자 장치의 디스플레이 형태의 예를 설명하기 위해 도시하는 도면이다.
도 6a, 도 6b, 도 6c 및 도 6d는 본 발명의 다양한 실시 예들에 따른 전자 장치의 예를 설명하기 위해 도시하는 도면들이다.
도 7은 본 발명의 다양한 실시 예들에 따른 전자 장치의 구성을 개략적으로 도시하는 도면이다.
도 8은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시를 처리하기 위한 전자 장치의 구성을 개략적으로 도시하는 도면이다.
도 9는 다양한 실시 예들에 따른 전자 장치에서 어플리케이션 레이어의 계층 구조의 예를 도시하는 도면이다.
도 10은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시 동작을 설명하기 위해 도시하는 도면이다.
도 11은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시를 처리하는 방법을 도시하는 흐름도이다.
도 12는 다양한 실시 예들에 따른 전자 장치에서 블랙 리스트를 관리하는 예를 설명하기 위해 도시하는 도면이다.
도 13은 다양한 실시 예들에 따른 전자 장치에서 서브 영역의 표시 예를 도시하는 도면이다.
도 14는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시를 처리하는 방법을 도시하는 흐름도이다.
도 15는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 서브 영역을 운영하는 예를 설명하기 위해 도시하는 도면이다.
도 16은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 서브 영역을 운영하는 다른 예를 설명하기 위해 도시하는 도면이다.
도 17은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시를 처리하는 예를 도시하는 흐름도이다.
도 18은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 확장 화면이 제공되는 예를 설명하기 위해 도시하는 도면이다.
도 19a, 도 19b, 도 19c, 도 19d 및 도 19e는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 다양한 방식의 확장 화면이 제공되는 예를 도시하는 도면들이다.
이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째", 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어(hardware)적 또는 소프트웨어(software)적으로 "~에 적합한", "~하는 능력을 가지는", "~하도록 변경된", "~하도록 만들어진", "~를 할 수 있는", 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU(central processing unit) 또는 AP(application processor))를 의미할 수 있다.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(HMD(head-mounted-device)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형 회로(implantable circuit) 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(예: 혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS, global navigation satellite system), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM(automated teller machine), 상점의 POS(point of sales), 또는 사물 인터넷(IoT, internet of things) 장치(예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시 예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예들에서, 전자 장치는 플렉서블(flexible)하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시 예들에 따른 전자 장치를 포함하는 네트워크 환경을 도시하는 도면이다.
도 1을 참조하여, 다양한 실시 예들에서의, 네트워크 환경(100) 내의 전자 장치(101)가 기재된다. 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시 예에서, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(110)는 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서(120)는, 중앙처리장치(CPU), 어플리케이션 프로세서(AP), 또는 커뮤니케이션 프로세서(CP, communication processor) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 다양한 실시 예들에 따른 프로세서(120)의 처리(또는 제어) 동작은 후술하는 도면들을 참조하여 구체적으로 설명된다.
메모리(130)는, 휘발성 메모리(volatile memory) 및/또는 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널(kernel)(141), 미들웨어(middleware)(143), 어플리케이션 프로그래밍 인터페이스(API(application programming interface))(145), 및/또는 어플리케이션 프로그램(application program)(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템(OS, operating system)으로 지칭될 수 있다.
커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API(145)는 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일(file) 제어, 윈도우(window) 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(function)(예: 명령어)를 포함할 수 있다.
입출력 인터페이스(150)는, 예를 들면, 사용자 또는 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 외부 기기로 출력할 수 있다. 예를 들면, 유/무선 헤드폰 포트(port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 오디오 입/출력(input/output) 포트, 비디오 입/출력 포트, 이어폰 포트 등이 입출력 인터페이스(150)에 포함될 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이(LCD, liquid crystal display), 발광 다이오드(LED, light emitting diode) 디스플레이, 유기 발광 다이오드(OLED, organic LED) 디스플레이, 능동형 OLED(AMOLED, active matrix OLED), 마이크로 전자기계 시스템(MEMS, micro-electromechanical systems) 디스플레이, 또는 전자종이(electronic paper) 디스플레이 등을 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)를 표시할 수 있다. 디스플레이(160)는, 터치 스크린(touchscreen)을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스처, 근접, 또는 호버링 입력을 수신할 수 있다.
통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, LTE(long term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(wireless broadband), 또는 GSM(global system for mobile communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시 예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), WiGig(wireless gigabit alliance), 블루투스(Bluetooth), 블루투스 저전력(BLE, Bluetooth low energy), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(magnetic secure transmission), 라디오 프리퀀시(RF, radio frequency), 또는 보디 에어리어 네트워크(BAN, body area network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(global positioning system), Glonass(global navigation satellite system), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다.
유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232), 전력선 통신(power line communication), 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다.
네트워크(162)는 텔레커뮤니케이션 네트워크(telecommunications network), 예를 들면, 컴퓨터 네트워크(예: LAN(local area network) 또는 WAN(wide area network)), 인터넷, 또는 텔레폰 네트워크(telephone network) 중 적어도 하나를 포함할 수 있다.
제1 외부 전자 장치(102) 및 제2 외부 전자 장치(104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시 예들에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))에서 실행될 수 있다. 한 실시 예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅(cloud computing), 분산 컴퓨팅(distributed computing), 또는 클라이언트-서버 컴퓨팅(client-server computing) 기술이 이용될 수 있다.
서버(106)는, 예를 들면, 결제 서버, 카드사 서버, 은행 서버, 인증 서버, 어플리케이션 서버, 관리 서버, 통합 서버(integration server), 프로바이더 서버(provider server)(또는 통신 사업자 서버), 컨텐츠 서버(content server), 인터넷 서버(internet server), 또는 클라우드 서버(cloud server) 등) 중 적어도 하나를 포함할 수 있다.
도 2는 다양한 실시 예들에 따른 전자 장치의 블록도이다.
전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP)(210), 통신 모듈(220), 가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 등을 포함할 수 있다. 다양한 실시 예들에서, 전자 장치(201)는 도 2에 도시된 구성들이 필수적인 것은 아니어서, 도 2에 도시된 구성들보다 많은 구성들을 가지거나, 또는 그보다 적은 구성들을 가지는 것으로 구현될 수 있다. 예를 들어, 다양한 실시 예들에 따른 전자 장치(201)는 그 종류에 따라, 어느 일부 구성요소를 포함하지 않을 수 있다. 다양한 실시 예들에 따라, 전술한 전자 장치(201)의 구성들은 전자 장치(201)의 하우징(또는 베젤, 본체)에 안착되거나, 또는 그 외부에 형성될 수 있다.
프로세서(210)는, 예를 들면, 운영 체제 또는 어플리케이션 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시 예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 시그널 프로세서(ISP, image signal processor)를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210)는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
통신 모듈(220)은, 예를 들면, 도 1에 도시된 통신 인터페이스(170)와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227), NFC 모듈(228) 및 RF 모듈(229)을 포함할 수 있다. 도시하지는 않았으나, 통신 모듈(220)은, 예를 들면, WiGig 모듈(미도시)을 더 포함할 수도 있다. 한 실시 예에 따라, WiFi 모듈(223)과 WiGig 모듈(미도시)은 하나의 칩 형태로 통합 구현될 수도 있다.
셀룰러 모듈(221)은, 예를 들면, 통신 네트워크를 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM(subscriber identification module) 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP)를 포함할 수 있다. 어떤 실시 예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 IC(integrated chip) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나(antenna) 등을 포함할 수 있다. 다른 실시 예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
WiFi 모듈(223)은, 예를 들면, 무선 인터넷 접속 및 외부 장치(예: 다른 전자 장치(102) 또는 서버(106) 등)와 무선 랜 링크(link)를 형성하기 위한 모듈을 나타낼 수 있다. WiFi 모듈(223)은 전자 장치(201)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WiFi, WiGig, Wibro, WiMax(world interoperability for microwave access), HSDPA(high speed downlink packet access), 또는 mmWave(millimeter Wave) 등이 이용될 수 있다. WiFi 모듈(223)은 전자 장치와 직접(direct) 연결되거나, 또는 네트워크(예: 무선 인터넷 네트워크)(예: 네트워크(162))를 통해 연결되어 있는 외부 장치(예: 다른 전자 장치(104) 등)와 연동하여, 전자 장치(201)의 다양한 데이터들을 외부로 전송하거나, 또는 외부로부터 수신할 수 있다. WiFi 모듈(223)은 상시 온(on) 상태를 유지하거나, 전자 장치의 설정 또는 사용자 입력에 따라 턴-온(turn-on)/턴-오프(turn-off) 될 수 있다.
블루투스 모듈(225) 및 NFC 모듈(228)은, 예를 들면, 근거리 통신(short range communication)을 수행하기 위한 근거리 통신 모듈을 나타낼 수 있다. 근거리 통신 기술로 블루투스, 저전력 블루투스(BLE), RFID(radio frequency identification), 적외선 통신(IrDA), UWB(ultra wideband), 지그비(Zigbee), 또는 NFC 등이 이용될 수 있다. 근거리 통신 모듈은 전자 장치(201)와 네트워크(예: 근거리 통신 네트워크)를 통해 연결되어 있는 외부 장치(예: 다른 전자 장치(102) 등)와 연동하여, 전자 장치(201)의 다양한 데이터들을 외부 장치로 전송하거나 수신 받을 수 있다. 근거리 통신 모듈(예: 블루투스 모듈(225) 및 NFC 모듈(228))은 상시 온 상태를 유지하거나, 전자 장치(201)의 설정 또는 사용자 입력에 따라 턴-온/턴-오프 될 수 있다.
가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM(random access memory)), SRAM(synchronous RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM(read only memory)), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically EPROM), mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브(SSD(solid state drive)) 중 적어도 하나를 포함할 수 있다. 외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 등을 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(gesture sensor)(240A), 자이로 센서(gyro sensor)(240B), 기압 센서(barometer sensor)(240C), 마그네틱 센서(magnetic sensor)(240D), 가속도 센서(acceleration sensor)(240E), 그립 센서(grip sensor)(240F), 근접 센서(proximity sensor)(240G), 컬러 센서(color sensor)(240H)(예: RGB(red, green, blue) 센서), 생체 센서(medical sensor)(240I), 온/습도 센서(temperature-humidity sensor)(240J), 조도 센서(illuminance sensor)(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈(240)은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG, electromyography) 센서, 일렉트로엔씨팔로그램(EEG, electroencephalogram) 센서, 일렉트로카디오그램(ECG, electrocardiogram) 센서, IR(infrared) 센서, 홍채 센서(iris scan sensor) 및/또는 지문 센서(finger scan sensor)를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(252), (디지털) 펜 센서(254), 키(256), 또는 초음파 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(288)를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다. 다양한 실시 예들에 따라, 입력 장치(250)는 전자 펜을 포함할 수 있다. 다양한 실시 예들에 따라, 입력 장치(250)는 포스 터치(force touch)를 입력 받을 수 있도록 구현될 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 프로젝터(266), 및/또는 이들을 제어하기 위한 제어 회로를 포함할 수 있다.
패널(262)은, 예를 들면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나 이상의 모듈로 구성될 수 있다. 한 실시 예에 따르면, 패널(262)은 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(또는 포스 센서(force sensor))를 포함할 수 있다. 상기 압력 센서는 터치 패널(252)과 일체형으로 구현되거나, 또는 터치 패널(252)과는 별도의 하나 이상의 센서로 구현될 수 있다.
패널(262)은 디스플레이(260)에 안착될 수 있으며, 디스플레이(260) 표면에 접촉 또는 근접하는 사용자 입력을 감지할 수 있다. 사용자 입력은 싱글터치(single-touch), 멀티터치(multi-touch), 호버링(hovering), 또는 에어 제스처(air gesture) 중 적어도 하나에 기반하여 입력되는 터치 입력 또는 근접 입력을 포함할 수 있다. 패널(262)은 다양한 실시 예들에서 전자 장치(201)의 사용과 관련된 동작을 개시하기 위한 사용자 입력을 수신할 수 있고, 사용자 입력에 따른 입력 신호를 발생할 수 있다. 패널(262)은 디스플레이(260)의 특정 부위에 가해진 압력 또는 디스플레이(260)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력 신호로 변환하도록 구성될 수 있다. 패널(262)은 입력 도구(예: 사용자 손가락, 전자 펜 등)가 디스플레이(260)의 표면 상에 터치 또는 근접되는 위치 및 면적을 검출할 수 있다. 또한 패널(262)은 적용한 터치 방식에 따라 터치 시의 압력(예: 포스 터치)까지도 검출할 수 있도록 구현될 수 있다.
홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다.
인터페이스(270)는, 예를 들면, HDMI(272), USB(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(170)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(145)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. 오디오 모듈(280)은 프로세서(210)로부터 입력 받은 오디오 신호를 출력 장치(예: 스피커(282), 리시버(284) 또는 이어폰(286))로 전송하고, 입력 장치(예: 마이크(288))로부터 입력 받은 음성 등의 오디오 신호를 프로세서(210)에 전달하는 기능을 수행할 수 있다. 오디오 모듈(280)은 음성/음향 데이터를 프로세서(210)의 제어에 따라 출력 장치를 통해 가청음으로 변환하여 출력하고, 입력 장치로부터 수신되는 음성 등의 오디오 신호를 디지털 신호로 변환하여 프로세서(210)에게 전달할 수 있다.
스피커(282) 또는 리시버(284)는 통신 모듈(220)로부터 수신되거나, 또는 메모리(230)에 저장된 오디오 데이터를 출력할 수 있다. 스피커(282) 또는 리시버(284)는 전자 장치에서 수행되는 다양한 동작(기능)과 관련된 음향 신호를 출력할 수도 있다. 마이크(288)는 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리할 수 있다. 마이크(288)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘(noise reduction algorithm)이 구현될 수 있다. 마이크(288)는 음성 명령 등과 같은 오디오 스트리밍의 입력을 담당할 수 있다.
카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시 예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC, 배터리 또는 연료 게이지(fuel gauge)를 포함할 수 있다.
PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동, 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다.
전자 장치(201)는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있는 모바일 TV 지원 장치(예: GPU)를 포함할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예들에서, 전자 장치(예: 전자 장치(101, 201))는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함하거나, 또는, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시 예들에 따른 프로그램 모듈의 블록도이다.
한 실시 예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101, 201))에 관련된 자원을 제어하는 운영 체제 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다.
도 3을 참조하면, 프로그램 모듈(310)은 커널(320)(예: 커널(141)), 미들웨어(330)(예: 미들웨어(143)), API(360)(예: API(145)), 및/또는 어플리케이션(370)(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드(preload) 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드(download) 가능하다.
커널(320)은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수를 수행할 수 있다. 한 실시 예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부를 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다. 미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다.
한 실시 예에 따르면, 미들웨어(330)는 런타임 라이브러리(runtime library)(335), 어플리케이션 매니저(application manager)(341), 윈도우 매니저(window manager)(342), 멀티미디어 매니저(multimedia manager)(343), 리소스 매니저(resource manager)(344), 파워 매니저(power manager)(345), 데이터베이스 매니저(database manager)(346), 패키지 매니저(package manager)(347), 커넥티비티 매니저(connectivity manager)(348), 노티피케이션 매니저(notification manager)(349), 로케이션 매니저(location manager)(350), 그래픽 매니저(graphic manager)(351), 또는 시큐리티 매니저(security manager)(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어(programming language)를 통해 새로운 기능을 추가하기 위해 컴파일러(compiler)가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수 처리를 수행할 수 있다.
어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370)의 생명 주기(life cycle)를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용되는 GUI(graphical user interface) 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱을 이용하여 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370)의 소스 코드 또는 메모리의 공간을 관리할 수 있다.
파워 매니저(345)는, 예를 들면, 배터리의 용량 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보를 제공할 수 있다. 한 실시 예에 따르면, 파워 매니저(345)는 바이오스(BIOS(basic input/output system))와 연동할 수 있다.
데이터베이스 매니저(346)는, 예를 들면, 어플리케이션(370)에서 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다.
커넥티비티 매니저(348)는, 예를 들면, 무선 연결을 관리할 수 있다. 노티피케이션 매니저(349)는, 예를 들면, 도착 메시지, 약속, 근접성 알림 등의 이벤트를 사용자에게 제공할 수 있다. 로케이션 매니저(350)는, 예를 들면, 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는, 예를 들면, 사용자에게 제공될 그래픽 효과 또는 이와 관련된 유저 인터페이스를 관리할 수 있다. 시큐리티 매니저(352)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다.
한 실시 예에 따르면, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화(telephony) 매니저 또는 전술된 구성요소들의 기능들의 조합을 형성할 수 있는 미들웨어 모듈을 포함할 수 있다. 한 실시 예에 따르면, 미들웨어(330)는 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.
API(360)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 와치(384) 등의 어플리케이션을 포함할 수 있다. 다양한 실시 예들에 따르면, 어플리케이션(370)은, 헬스 케어(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보(예: 기압, 습도, 또는 온도 정보) 제공 어플리케이션 등을 포함할 수 있다.
한 실시 예에 따르면, 어플리케이션(370)은 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 노티피케이션 릴레이(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 노티피케이션 릴레이 어플리케이션은 전자 장치의 다른 어플리케이션에서 발생된 알림 정보를 외부 전자 장치로 전달하거나, 또는 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다.
장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온(turn-on)/턴-오프(turn-off) 또는 디스플레이의 밝기(또는, 해상도) 조절), 또는 외부 전자 장치에서 동작하는 어플리케이션을 설치, 삭제, 또는 갱신할 수 있다.
한 실시 예에 따르면, 어플리케이션(370)은 외부 전자 장치의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션)을 포함할 수 있다.
한 실시 예에 따르면, 어플리케이션(370)은 외부 전자 장치로부터 수신된 어플리케이션을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어(예: 프로세서(210)), 또는 이들 중 적어도 둘 이상의 조합으로 구현(예: 실행)될 수 있으며, 하나 이상의 기능을 수행하기 위한 모듈, 프로그램, 루틴, 명령어 세트 또는 프로세스를 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛(unit)을 포함하며, 예를 들면, 로직(logic), 논리 블록(logic block), 부품(component), 또는 회로(circuit) 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시 예들에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(130))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 도 1의 프로세서(120) 또는 도 2의 프로세서(210))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical recording media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
다양한 실시 예들에 따르면, 기록 매체는, 후술되는 다양한 방법을 프로세서(120, 210)에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
다양한 실시 예들에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
제안하는 본 발명의 다양한 실시 예들에서는, 전자 장치에서 디스플레이의 표시를 처리하는 것에 관한 것으로, 추가 또는 확장된 디스플레이를 포함하는 전자 장치에서 메인 화면과 확장 화면을 표시하는 방법 및 장치에 관하여 개시한다. 다양한 실시 예들에 따르면, 디스플레이의 서브 영역을 이용한 확장 화면을 제공할 때, 서브 영역의 확장 화면을 메인 화면과 이질감 없이 표시할 수 있다. 다양한 실시 예들에 따르면, 메인 화면의 내용의 전체 또는 일부를 모사(또는 복사)하여, 확장 화면(예: 모방 이미지)를 생성하고, 확장 화면을 서브 영역을 통해, 메인 영역의 메인 화면과 연관하여 표시할 수 있다.
다양한 실시 예들에 따르면, 메인 영역의 메인 화면은 유지하고, 서브 영역에 메인 화면의 전체 또는 일부가 모사된 확장 화면을 제공함에 따라, 메인 화면의 화면 비율을 왜곡시키지 않으면서 가시 영역을 확장할 수 있다. 다양한 실시 예들에 따르면, 메인 화면에 기반하여 모사된 확장 화면을 이용한 가시 영역 확장 시, 메인 화면의 변화에 따른 가시 영역의 이질적인 시인 문제를 해결할 수 있다.
다양한 실시 예들에서, 전자 장치는, AP, CP, GPU, 및 CPU 등의 다양한 프로세서 중 하나 또는 그 이상을 사용하는 모든 장치를 포함할 수 있다. 예를 들면, 다양한 실시 예들에 따른 전자 장치는, 정보통신기기, 멀티미디어기기, 웨어러블 장치(wearable device), IoT 장치, 또는 이들 장치에 대응하는 다양한 다른 기기를 포함할 수 있다.
이하에서, 첨부 도면들을 참조하여 본 발명의 다양한 실시 예들에 따른 동작 방법 및 장치에 대하여 살펴보기로 한다. 하지만, 본 발명의 다양한 실시 예들이 하기에서 기술하는 내용에 의해 제한되거나 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다. 이하에서 설명되는 본 발명의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 발명의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 발명의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다.
도 4는 본 발명의 다양한 실시 예들에 따른 전자 장치의 예시를 도시하는 도면이다.
도 4를 참조하면, 다양한 실시 예들에서, 전자 장치(400)는 디스플레이(430)와, 디스플레이(430)가 안착되어 체결되는 하우징(또는 본체)(450)과, 하우징(450)에 형성되어 전자 장치(400)의 기능 수행을 위한 부가 장치 등을 포함하여 구성될 수 있다. 다양한 실시 예들에서, 부가 장치는 제1 스피커(401), 제2 스피커(403), 마이크(405), 센서(예: 전면 카메라(407), 조도 센서(409) 등), 통신 인터페이스(예: 충전 또는 데이터 입/출력(Input/Output) 포트(411), 오디오 입/출력 포트(413) 등), 버튼(415) 등을 포함할 수 있다.
다양한 실시 예들에서는, 전자 장치(400)가 커브드 디스플레이(curved display)(430)를 갖는 전자 장치를 예로 설명하지만, 이에 한정하지는 않는다. 예를 들면, 다양한 실시 예들에서, 전자 장치(400)는, 디스플레이 영역을 메인 영역과 서브 영역으로 운영할 수 있고, 서브 영역을 통해 화면을 확장하여 사용할 수 있는 플렉서블 디스플레이(flexible display) 또는 평면 디스플레이를 갖는 전자 장치를 포함할 수 있다.
다양한 실시 예들에서, 디스플레이(430)는 평면형 디스플레이 또는 종이처럼 얇고 유연한 기판을 통해 손상 없이 휘거나 구부리거나 말 수 있는 커브드 디스플레이(또는 벤디드 디스플레이(bended display))를 포함할 수 있다. 다양한 실시 예들에서, 커브드 디스플레이(430)는 하우징(또는 베젤(bezel), 본체)(450)에 체결되어 구부러진 형태를 유지할 수 있다. 다양한 실시 예들에서는, 전자 장치(400)의 디스플레이(430)가 커브드 디스플레이 형태로 구현된 것을 예로 설명하지만, 이에 한정하지는 않는다. 예를 들면, 전자 장치(400)는 커브드 디스플레이(430)와 같은 형태를 비롯하여, 플렉서블 디스플레이와 같이 구부렸다가 폈다가를 자유자재로 할 수 있는 디스플레이로 구현될 수도 있다.
다양한 실시 예들에서, 디스플레이(430)는 액정 디스플레이(LCD), 발광다이오드(LED), 유기발광다이오드(OLED), 또는 능동형 OLED(AMOLED) 등에서 액정을 싸고 있는 유리 기판을 플라스틱 필름으로 대체하여, 접고 펼 수 있는 유연성을 부여할 수 있다.
다양한 실시 예들에서, 디스플레이(430)는 전자 장치(400)의 크기에 따라 특정 화면 크기(예컨대, 3인치, 4인치, 4.65인치, 4.8인치, 5인치, 6.5인치, 7.7인치, 8.9인치, 10.1인치 등)의 액티브 매트릭스 화면(active matrix screen)을 포함할 수 있다. 다양한 실시 예들에 따라, 디스플레이(430)는 전자 장치(400)의 적어도 하나의 측면(side)(예: 좌측, 우측, 상측, 또는 하측 중 적어도 하나의 면)까지 연장되어, 커브드 디스플레이가 동작 가능한 곡률 반경(radius of curvature)(예: 곡률 반경 5cm, 1cm, 7.5mm, 5mm, 4mm 등) 이하로 접혀 하우징(450)의 측면에 체결될 수 있다. 이에 한정하지 않으며, 다양한 실시 예들에 따른 디스플레이(430)는 곡률 반경이 없는 직각 형태로 구현할 수도 있다.
다양한 실시 예들에서는, 디스플레이(430)의 전면(front)에 나타나는 영역을 메인 영역(410)이라 칭하고, 메인 영역(410)으로부터 연장되어 하우징(450)의 적어도 하나의 측면(예: 도 4의 참조부호 A, B 참조)으로 구부러져서 하우징(450)의 측면에 나타나는 영역을 서브 영역(420)이라 할 수 있다. 다양한 실시 예들에서, 메인 영역(410)을 통해 표시하는 화면을 메인 화면이라 하고, 서브 영역(420)을 통해 메인 화면을 확장하여 표시하는 화면을 확장 화면이라 하고, 서브 영역(420)에 할당된 기능(또는 어플리케이션)에 의해 표시하는 화면을 서브 화면이라 할 수 있다.
다양한 실시 예들에서, 메인 영역(410)과 서브 영역(420)은 설명의 편의를 위해 구분한 것으로, 물리적으로 분리된 형태를 의미하지 않는다. 다양한 실시 예들에 따라, 메인 영역(410)과 서브 영역(420)은 적어도 하나의 끝단이 구부러진 형태를 가지며, 구부러지는 적어도 하나의 끝단이 전자 장치(400)의 적어도 하나의 측면까지 연장되는 하나의 커브드 디스플레이(430)에 의해 구현될 수 있다. 다양한 실시 예들에서, 디스플레이(430)의 구현 방식에 따라 구부러지는 적어도 하나의 끝단이 전자 장치(400)의 후면까지 연장되어 구현될 수도 있다.
다양한 실시 예들에서, 메인 영역(410)에 의한 이미지 프로세싱은 전자 장치(400)의 프로세서(예: AP, application processor)에서 담당할 수 있다. 다양한 실시 예들에서, 서브 영역(420)은 전자 장치(400)에서 디스플레이 패널(미도시)에 전기적 신호(예: MHVL(multi high voltage level) signal)로 제공하는 디스플레이 제어회로(예: 디스플레이 드라이버 회로(DDI, display driver IC))에서 담당할 수 있다. 다양한 실시 예들에서는, 메인 영역(410)과 서브 영역(420)을 위한 이미지 프로세싱을 프로세서와 디스플레이 제어회로에서 분산하여 처리하여, 디스플레이(430)를 위한 이미지 프로세싱에 소모되는 프로세서의 소모 전류를 감소할 수 있다. 이에 한정하지 않으며, 다양한 실시 예들에 따르면, 메인 영역(410)과 서브 영역(420)을 위한 이미지 프로세싱을 어느 하나의 프로세서에 의해 처리할 수도 있다.
다양한 실시 예들에서, 디스플레이(430)는 입력과 출력을 지원할 수 있으며, 메인 영역(410)과 서브 영역(420)에 의한 입력 및 출력을 동시적으로 또는 개별적으로 처리할 수 있다. 다양한 실시 예들에서, 메인 영역(410)과 서브 영역(420)에 대한 이미지 프로세싱 동작 예시들에 대해 후술하는 도면들을 참조하여 설명된다.
다양한 실시 예들에 따르면, 전자 장치(400)의 커버(미도시) 등에 의해 메인 영역(410)이 가려지는 것과 같이, 메인 영역(410)이 사용되지 않는 경우에서는, 프로세서에 의해 메인 영역(410)을 단색(예: 검은색 등)으로 출력하여 메인 영역(410)을 비표시(non-display) 할 수 있다. 또는 메인 영역(410)과 서브 영역(420)의 전원을 분리하여 메인 영역(410)으로의 전원 공급을 차단하여 메인 영역(410)을 비표시 할 수 있다. 이러한 경우, 전자 장치(400)의 운영에 따라 디스플레이 제어회로에서 서브 영역(420)의 표시에 관련된 이미지를 처리하여 표시 할 수도 있다.
다양한 실시 예들에 따르면, 전자 장치(400)의 센서를 이용하여, 전자 장치(400)가 바닥에 놓여진 상태인지, 또는 사용자에 의한 파지(또는 그립(grip)) 상태인지 여부를 판단할 수 있다. 다양한 실시 예들에 따르면, 전자 장치(400)가 바닥 등에 놓여진 상태에서는, 다양한 실시 예들에 따른 확장 기능에 기반하여 메인 영역(410)의 메인 화면을 서브 영역(420)까지 확장하여 제공할 수 있다. 다양한 실시 예들에 따르면, 전자 장치(400)가 사용자에 의한 파지(또는 그립) 상태에서는, 확장 기능을 자동 비활성화(또는 오프(off)) 하여 서브 영역(420)에 의한 터치의 오동작을 방지할 수도 있다.
다양한 실시 예들에 따르면, 이하에서 그 도시 및 설명은 생략하지만, 전자 장치(400)에서 제공되는 환경 설정, 별도의 어플리케이션, 또는 사용자의 파지(또는 그립) 상태 감지를 이용하여 전자 장치(400)의 오른손 모드 및 왼손 모드를 정의할 수 있다. 그리고 전자 장치(400)는 해당 모드에 대응하는 측면의 서브 영역(420)만을 이용하여 입력 및 출력을 처리할 수도 있다. 일 예로, 도 4의 예시에서 전자 장치(400)가 오른손 모드로 설정된 경우, 예를 들면, 전자 장치(400)를 정면에서 바라보는 시점에서 오른쪽 측면(A)의 서브 영역(420)을 통해 입력 및 출력이 이루어질 수 있다. 다른 예로, 도 4의 예시에서 전자 장치(400)가 왼손 모드로 설정된 경우, 예를 들면, 전자 장치(400)를 정면에서 바라보는 시점에서 왼쪽 측면(B)의 서브 영역(420)을 통해 입력 및 출력이 이루어질 수 있다.
도 5는 본 발명의 다양한 실시 예들에 따른 전자 장치의 디스플레이 형태의 예를 설명하기 위해 도시하는 도면이다.
도 5를 참조하면, 다양한 실시 예들에 따른 전자 장치(400)의 디스플레이(500)는 적어도 2개 또는 그 이상의 영역을 포함할 수 있다. 다양한 실시 예들에서는, 설명의 편의를 위하여 메인 영역(510)(예: 평면 디스플레이 영역) 및 메인 영역(510)의 좌측면과 메인 영역(510)의 우측면에 서브 영역(520; 520A, 520B)(예: 곡면 디스플레이 영역)을 갖는 디스플레이(500)의 예를 도시한다.
다양한 실시 예들에서, 전자 장치(400)의 디스플레이(500)는 기능적으로 둘 이상의 영역으로 구분될 수 있다. 예를 들면, 메인 영역(510)과 서브 영역(520)은 하나의 디스플레이 패널(display panel)이지만, 해당 영역의 기능은 구분될 수 있다. 한 실시 예에 따르면, 메인 영역(510)은 일반적인 어플리케이션(예: 메시지 어플리케이션, 일정 관리 어플리케이션, 인터넷 어플리케이션, 카메라 어플리케이션 등)이 실행되는 영역으로 구분하고, 서브 영역(520)은 자주 사용하는 어플리케이션, 통지 어플리케이션, 또는 컨텐츠(예: 이미지, 아이콘, 텍스트 등) 등이 표시되는 영역으로 구분할 수 있다.
다양한 실시 예들에서, 디스플레이(500)의 영역은 다양한 방식으로 구분될 수 있다. 예를 들면, 디스플레이(500)는 전술한 바와 같이 메인 영역과 서브 영역, 평면(flat) 영역과 곡면(curved) 영역, 전면 영역과 측면 영역, 전면 영역과 후면 영역, 시야각(viewing angle) 내에서 보이는 영역과 보이지 않는 영역 또는 위 영역들 중 셋 이상이 조합된 영역 등으로 구분될 수 있다. 또는 디스플레이(500)는 제1 영역과 제2 영역으로 구분될 수도 있다. 이하에서는, 어플리케이션 또는 컨텐츠의 전체 내용(또는 본 내용, 메인 화면)을 표시하는 영역을 메인 영역(또는 제1 영역)으로, 상대적으로 메인 영역(510)을 확장하여 부가적인 정보를 제공하는 확장된 영역을 서브 영역(또는 제2 영역, 에지 영역 등)으로 구분하여 설명한다. 이와 같은 구분은 설명의 편의를 위한 것이며, 이러한 구분이 발명의 실시 예를 한정하고자 하는 것은 아니다.
다양한 실시 예들에서, 디스플레이라는 용어는, LCD 패널에 터치스크린 패널(TSP, touch screen panel)이 결합된 애드-온 방식(add-on type), LCD 패널에 터치스크린 패널이 내장된 온-셀 방식(on-cell type), 및 LCD 패널에 터치 기능이 내장된 인-셀 방식(in-cell type) 등과 같은 다양한 방식의 터치 입력 기능을 지원하는 디스플레이를 포함하는 개념으로 이해될 수 있다.
다양한 실시 예들에서, 디스플레이(500) 상에 입력된 터치 이벤트는 프로세서(예: 프로세서(120, 210))에 의해 처리될 수 있다. 예를 들어, 터치 이벤트라 함은, 디스플레이(500)에 포함된 터치 패널의 정전 용량의 변화 등에 기반하여 입력되는 것으로써, 다운 이벤트(down event), 업 이벤트(up event), 연속된 이벤트, 또는 멀티 터치 이벤트 등을 포함할 수 있다. 다운 이벤트라 함은 사용자가 터치 패널에 손가락, 터치 펜(전자 펜) 등을 포함하는 입력 장치(input device)로 압력을 가하여(press) 입력하는 이벤트를 지칭할 수 있다. 업 이벤트라 함은 사용자가 다운 이벤트 입력 이후 터치 패널에서 입력 수단을 제거하여(release) 입력하는 이벤트로 지칭할 수 있다. 연속된 이벤트는 사용자가 다운 이벤트 입력 이후 터치 패널에 압력을 가한 상태를 유지하며 입력 장치의 위치를 변경하여 입력하는 이벤트로 지칭할 수 있다. 연속된 이벤트는 본 발명이 속하는 기술 분야에서 드래그(drag)로 표현될 수 있다. 멀티 터치 이벤트라 함은 사용자가 터치 패널의 두 개 이상의 지점(points)에 다운 이벤트를 입력하는 것으로 지칭할 수 있다. 다양한 실시 예들에서, 터치 이벤트는 디스플레이 영역에 대한 직접 터치 입력뿐만 아니라 근접 터치 입력에 의하여 발생할 수도 있다.
다양한 실시 예들에 따르면, 전자 장치(400)는 전면부에 복수개의 디스플레이 면을 갖는, 다면 디스플레이 장치일 수 있다. 예를 들어, 디스플레이(500)는 전자 장치(400)의 전면부의 평면부(515)에 위치한 제1 디스플레이, 전면부의 좌 벤딩부(525A)에 위치한 제2 디스플레이, 우 벤딩부(525B)에 위치한 제3 디스플레이를 포함할 수 있다.
다양한 실시 예들에서, 제1 디스플레이 내지 제 3 디스플레이는 각각 제1 내지 제3 방향을 향하고 있을 수 있으며, 제1 내지 제3 방향은 모두 다를 수 있다. 다양한 실시 예들에서, 제1 디스플레이에 의해 영상(예: 메인 화면)이 표시되는 영역은 메인 영역으로 정의되고, 제2 디스플레이에 의해 영상(예: 서브 화면, 확장 화면)이 표시되는 영역은 제1 서브 영역(예: 좌측 서브 영역)으로 정의되고, 제3 디스플레이에 의해 영상(예: 서브 화면, 확장 화면)이 표시되는 영역은 제2 서브 영역(예: 우측 서브 영역)으로 정의될 수 있다.
다양한 실시 예들에서, 제1 디스플레이 내지 제3 디스플레이는 연속적으로 서로 연결된 것일 수 있다. 예를 들어, 제3 디스플레이는 제1 디스플레이 또는 제2 디스플레이로부터 연장된 것일 수 있다. 따라서, 제2 서브 영역의 적어도 한 부분은 메인 영역의 주변, 또는 제1 서브 영역의 주변으로부터 연장된 것일 수 있다. 다양한 실시 예들에서, 좌 벤딩부(525A) 및 우 벤딩부(525B)에 위치한 제2 디스플레이 및 제3 디스플레이 중 적어도 하나는 곡면인 디스플레이를 포함할 수 있다.
다양한 실시 예들에 따르면, 제1 디스플레이 내지 제3 디스플레이는 프로세서의 제어 하에, 서로 독립적으로 구동되어 서로 다른 영상을 표시하거나, 하나의 영상을 서로 이어진 형태로 표시할 수 있다. 다양한 실시 예들에 따르면, 프로세서는 어플리케이션을 실행하여 디스플레이(500)를 통해 유저 인터페이스를 제공하고, 사용자 입력에 응답하여 제1 디스플레이 내지 제3 디스플레이의 적어도 일부에 기반하여 표시되는 화면을 제어할 수 있다. 이하, 다양한 실시 예들에 따라, 도 5를 참조하여, 프로세서가 제1 디스플레이 내지 제3 디스플레이에서 표시되는 화면을 제어하는 예시에 대하여 설명한다.
다양한 실시 예들에 따르면, 제1 디스플레이, 제2 디스플레이, 제3 디스플레이는 각 표시 영역(예: 메인 영역(510), 서브 영역(520; 520A, 520B))에 하나의 연결된 화면을 표시할 수 있다. 예를 들면, 제2 디스플레이의 제1 서브 영역(520A)에서 제1 디스플레이의 메인 영역(510)의 좌측 화면과 연결된 화면(예: 좌측 확장 화면)을 표시하고, 제3 디스플레이의 제2 서브 영역(520B)에서 제1 디스플레이의 메인 영역(510)의 우측 화면과 연결된 화면(예: 우측 확장 화면)을 표시할 수 있다.
다양한 실시 예들에 따르면, 제1 디스플레이와 제3 디스플레이는 각 표시 영역(예: 메인 영역(510), 제2 서브 영역(520B))에 하나의 연결된 화면을 표시할 수 있고, 제2 디스플레이는 다른 별도의 화면을 표시할 수 있다. 예를 들면, 제3 디스플레이의 제2 서브 영역(520B)에서 제1 디스플레이의 메인 영역(510)의 우측 화면과 연결된 화면(예: 우측 확장 화면)을 표시하고, 제2 디스플레이의 제1 서브 영역(520A)에서는 제1 디스플레이의 메인 영역(510)의 좌측 화면과 분리된 별도의 화면(예: 서브 화면)을 표시할 수 있다.
다양한 실시 예들에 따르면, 제1 디스플레이와 제2 디스플레이는 각 표시 영역(예: 메인 영역(510), 제1 서브 영역(520A))에 하나의 연결된 화면을 표시할 수 있고, 제3 디스플레이는 다른 별도의 화면을 표시할 수 있다. 예를 들면, 제2 디스플레이의 제1 서브 영역(520A)에서 제1 디스플레이의 메인 영역(510)의 좌측 화면과 연결된 화면(예: 좌측 확장 화면)을 표시하고, 제3 디스플레이의 제2 서브 영역(520B)에서는 제1 디스플레이의 메인 영역(510)의 우측 화면과 분리된 별도의 화면(예: 서브 화면)을 표시할 수 있다.
다양한 실시 예들에 따르면, 제1 디스플레이, 제2 디스플레이 및 제3 디스플레이는 각 표시 영역(예: 메인 영역(510), 서브 영역(520))에 분리된 각각의 화면을 표시할 수 있다. 예를 들면, 제1 디스플레이의 메인 영역(510)에서 특정 화면(예: 제1 화면)을 표시하고, 제2 디스플레이의 제1 서브 영역(520A)에서 제1 디스플레이의 메인 영역(510)의 좌측 화면과 분리된 별도의 화면(예: 제2 화면)을 표시하고, 제3 디스플레이의 제2 서브 영역(520B)에서 제1 디스플레이의 메인 영역(510)의 우측 화면과 분리된 별도의 화면(예: 제3 화면)을 표시할 수 있다.
다양한 실시 예들에 따라, 제2 디스플레이와 제3 디스플레이의 각 표시 영역(예: 제1 서브 영역(520A), 제2 서브 영역(520B))은 서로 다른 화면을 표시할 수 있다. 다양한 실시 예들에 따르면, 제2 디스플레이와 제3 디스플레이의 각 표시 영역(예: 제1 서브 영역(520A), 제2 서브 영역(520B)) 중 적어도 하나는 프로세서의 제어 또는 실행하는 어플리케이션의 종류에 따라 화면을 표시하지 않고 턴-오프(turn-off) 상태로 동작할 수도 있다.
도 6a, 도 6b, 도 6c 및 도 6d는 본 발명의 다양한 실시 예들에 따른 전자 장치의 예를 설명하기 위해 도시하는 도면들이다.
도 6a, 도 6b, 도 6c 및 도 6d는, 예를 들면, 커브드 디스플레이(또는 벤디드 디스플레이)를 갖는 전자 장치(400)의 예를 나타낼 수 있다. 다양한 실시 예들에서는, 전자 장치(400)가 커브드 디스플레이를 갖는 전자 장치인 것을 예로 설명하지만, 이에 한정하지는 않는다. 예를 들면, 다양한 실시 예들에서, 전자 장치(400)는, 베젤(bezel) 영역이 없거나, 또는 매우 협소한 구성을 가지는 전자 장치를 포함하며, 예를 들면, 플렉서블 디스플레이 또는 평면 디스플레이를 가지는 전자 장치를 포함할 수 있다.
도 6a를 참조하면, 다양한 실시 예들에 따라, 전자 장치(400)의 디스플레이(660)(예: 도 1의 디스플레이(160), 도 2의 디스플레이(260))는 전자 장치(400)의 적어도 하나의 측면(side)(예: 좌측, 우측, 상측, 하측 중 적어도 하나의 면)까지 연장되어, 커브드 디스플레이가 동작 가능한 곡률 반경(radius of curvature)(예: 곡률 반경 5cm, 1cm, 7.5mm, 5mm, 4mm 등) 이하로 접혀 하우징(670)(또는 베젤)의 측면에 체결될 수 있다. 이에 한정하지 않으며, 다양한 실시 예들에 따른 디스플레이(660)는 곡률 반경이 없는 직각 형태로 구현할 수도 있다.
다양한 실시 예들에서는, 커브드 디스플레이(660)의 전면(front)에 나타나는 영역을 메인 영역(610)이라 칭하고, 메인 영역(610)으로부터 연장되어 하우징(670)의 적어도 하나의 측면으로 구부러져서 하우징(670)의 측면에 나타나는 영역을 서브 영역(620)(예: 좌측 서브 영역(621), 우측 서브 영역(622), 후술되는 상측 서브 영역(624), 후술되는 하측 서브 영역(623))이라 할 수 있다.
다양한 실시 예들에서, 메인 영역(610)과 서브 영역(620)은 설명의 편의를 위해 구분한 것으로, 물리적으로 분리된 형태를 의미하지 않는다. 다양한 실시 예들에 따라, 메인 영역(610)과 서브 영역(620)은 적어도 하나의 끝단이 구부러진 형태를 가지며, 구부러지는 적어도 하나의 끝단이 전자 장치(400)의 적어도 하나의 측면까지 연장되는 하나의 커브드 디스플레이(660)에 의해 구현될 수 있다. 다양한 실시 예들에 따라, 전자 장치(400)의 구현 방식에 따라 구부러지는 적어도 하나의 끝단이 전자 장치(400)의 후면까지 연장되어 구현될 수도 있다.
다양한 실시 예들에서, 디스플레이(660)는 입력과 출력을 지원할 수 있으며, 메인 영역(610)과 서브 영역(620)에 의한 입력 및 출력을 동시적으로 또는 개별적으로 처리할 수 있다.
다양한 실시 예들에서, 메인 영역(610)의 적어도 일부 영역은 모방 영역(630)(또는 모방 정보 센신 영역)으로 설정할 수 있다. 예를 들면, 다양한 실시 예들에서, 전자 장치(400)의 메인 영역(610)에서, 서브 영역(620)과 메인 영역(610)의 경계부터 메인 영역(610)의 안쪽으로 일부 영역을 모방 영역(630)으로 할당할 수 있다. 다양한 실시 예들에서, 모방 영역(630)은 메인 영역(610)을 통해 표시되는 메인 화면의 본 내용에서 모사(copy) 대상이 되는 내용이 표시되는 영역을 나타낼 수 있다. 예를 들면, 다양한 실시 예들에서, 메인 화면의 본 내용의 전체 또는 일부를 모사하여 서브 영역(620)을 통해 메인 화면을 확장하여 표시할 수 있다.
다양한 실시 예들에 따르면, 메인 영역(610)은 메인 영역(610)의 바깥쪽 일부 영역(예: 메인 영역(610) 내에서 서브 영역(620)과 인접되는 바깥쪽 일부 영역(예: 좌측 일부 영역(631), 우측 일부 영역(632))을 모방 영역(630)으로 설정할 수 있다. 다양한 실시 예들에 따르면, 모방 영역(630)은, 예를 들면, 메인 영역(610)의 메인 화면에서 모사 대상이 되는 적어도 일부 내용을 기반으로 하는 모방 정보를 획득하기 위한 영역으로, 예를 들면, 모방 정보 센싱 영역으로 지칭할 수 있다. 다양한 실시 예들에서, 모방 영역(630)은 메인 영역(610)의 적어도 하나의 측면의 서브 영역(620)의 경계부터 특정 픽셀(예: 1픽셀(pixel))을 할당하여 구성할 수 있다. 다양한 실시 예들에 따라, 모방 영역(630)은 전자 장치(400)의 설정에 따라서, 특정 픽셀보다 크게(넓게), 또는 작게(좁게) 설정될 수 있다. 다양한 실시 예들에 따른 모방 영역(630)에서 모방 정보에 기반하여 확장 화면을 표시하는 동작에 대하여 후술하는 도면들을 참조하여 설명된다.
다양한 실시 예들에 따른 전자 장치(400)는, 디스플레이(660)에서 일반적인 어플리케이션이 실행되어 관련 화면을 표시하는 영역을 메인 영역(610)(예: 제1 영역)으로, 통지 컨텐츠(notification contents), 통지 컬러(notification color) 또는 프로그래스(progress)(예: 알람(alarm), 플레이어(player) 등) 등의 관련 화면을 표시하거나, 다양한 실시 예들에 따른 확장 화면을 표시하는 영역을 서브 영역(620)(예: 제2 영역), 메인 영역(610)의 본 내용에 기반하여 생성되는 모방 정보(예: 모방 이미지(copy image, imitation image))를 표시하는 메인 영역(610)의 일부 영역을 모방 영역(630)으로 구분하여 표시 동작을 수행할 수 있다.
도 6b, 도 6c 및 도 6d를 참조하면, 도 6b, 도 6c 및 도 6d 는 커브드 디스플레이(또는 플렉서블 디스플레이)를 갖는 다른 형태의 전자 장치(400)의 예를 나타낼 수 있다. 예를 들면, 도 6b, 도 6c 및 도 6d에 예시된 전자 장치(400)는 도 6a에 예시된 전자 장치(400) 보다 베젤(bezel) 영역이 보다 협소할 수 있고, 전자 장치(400)의 전면이 디스플레이(660)에 의해 구현되는 전자 장치의 예를 나타낼 수 있다. 예를 들면, 도 6b, 도 6c 및 도 6d에 도시된 전자 장치(400)는 전면 디스플레이(full front display) 형태의 전자 장치일 수 있다.
전자 장치(400)는, 디스플레이(660) 영역에 카메라(650)(예: 전면 카메라)가 위치할 수 있다. 예를 들면, 도 6b의 예시 <A>는 전자 장치(400)의 상단 중앙에 카메라(650)가 위치하는 예를 나타내고, 도 6b의 예시 <B>는 전자 장치(400)의 상단 측면부(예: 우측 상단)에 카메라(650)가 위치하는 예를 나타낼 수 있다. 이에 한정하지 않으며, 다양한 실시 예들에 따른 전자 장치(400)는 다양한 디스플레이에 의해 구현될 수 있고, 디스플레이 체결 구조에 따라 전면 카메라 등의 다른 장치의 배치가 설계될 수 있다.
도 6b 및 도 6c에 도시한 바와 같이, 전자 장치(400)는 전술한 도 6a를 참조한 설명 부분에서 설명한 바와 같이, 메인 영역(610)과 메인 영역(610)으로부터 연장되어 하우징(또는 베젤)(670)의 적어도 하나의 측면(예: 좌측, 우측, 상측, 하측)으로 구부러져서 하우징(670)의 측면에 나타나는 서브 영역(620)(또는 에지 영역)(예: 좌측 서브 영역(621), 우측 서브 영역(622), 상측 서브 영역(623), 하측 서브 영역(624))을 포함할 수 있다. 다양한 실시 예들에서, 메인 영역(610)과 서브 영역(620)은 설명의 편의를 위해 구분한 것으로, 물리적으로 분리된 형태를 의미하지 않는다.
다양한 실시 예들에서, 도 6b는 전자 장치(400)의 디스플레이(660)가 전자 장치(400)의 좌측면과 우측면까지 연장되어, 하우징(670)(또는 베젤)의 측면(예: 양쪽 측면)에 체결되는 예를 나타낼 수 있다. 예를 들면, 메인 영역(610)으로부터 양 측면에 서브 영역(620)(예: 좌측 서브 영역(621), 우측 서브 영역(622))이 구성되는 예를 나타낼 수 있다. 다양한 실시 예들에 따라, 메인 영역(610)은 전술한 도 6a의 예시와 같이, 메인 영역(610)의 좌측 또는 우측의 적어도 일부 에지 부분에 기반하여 모방 영역을 포함할 수 있다.
다양한 실시 예들에서, 도 6c는 전자 장치(400)의 디스플레이(660)가 전자 장치(400)의 좌측면, 우측면, 상측면 또는 하측면까지 연장되어, 하우징(670)(또는 베젤)의 측면(예: 상하좌우 측면)의 적어도 일부에 체결되는 예를 나타낼 수 있다. 예를 들면, 메인 영역(610)으로부터 좌우 측면으로 서브 영역(620)(예: 좌측 서브 영역(621), 우측 서브 영역(622))이 구성되고, 상하 측면으로 서브 영역(620)(예: 상측 서브 영역(623), 하측 서브 영역(624))이 구성되는 예를 나타낼 수 있다. 다양한 실시 예들에서는, 전자 장치(400)의 디스플레이(660)의 구현 형태에 따라 적어도 하나의 측면(예: 좌측, 우측, 상측 또는 하측 중 적어도 하나의 면)까지 연장하여 하나 또는 그 이상의 서브 영역(620)(예: 621, 622, 623, 624)을 구성할 수 있다. 다양한 실시 예들에 따라, 메인 영역(610)은 전술한 도 6a의 예시와 같이, 메인 영역(610)의 좌측, 우측, 상측 또는 하측의 적어도 일부 에지 부분에 기반하여 모방 영역(예: 630; 631, 632, 633, 634)을 포함할 수 있다.
다양한 실시 예들에서, 전자 장치(400)의 메인 영역(610)은 좌측, 우측, 상측 및 하측의 각 서브 영역(620; 621, 622, 623, 624)과 메인 영역(610)의 경계부터 메인 영역(610)의 안쪽으로 일부 영역을 모방 영역(630)으로 할당할 수 있다. 예를 들면, 도 6c의 예시와 같은 경우, 메인 영역(610)은 좌측, 우측, 상측 및 하측에 기반하여 4개의 모방 영역(630; 631, 632, 633, 634)을 포함할 수 있다. 다양한 실시 예들에 따르면, 메인 영역(610)은 메인 영역(610)의 바깥쪽 일부 영역(예: 메인 영역(610) 내에서 서브 영역(620)과 인접되는 바깥쪽 일부 영역(예: 좌측 일부 영역(631), 우측 일부 영역(632), 상측 일부 영역(633), 하측 일부 영역(634))을 모방 영역(630)으로 설정할 수 있다. 다양한 실시 예들에 따르면, 모방 영역(630)은, 예를 들면, 메인 영역(610)의 메인 화면에서 모방 정보를 획득하기 위한 영역으로, 메인 영역(610)의 적어도 하나의 측면의 서브 영역(620)의 경계부터 특정 픽셀(예: 1픽셀)을 할당하여 구성할 수 있다. 다양한 실시 예들에 따른 모방 영역(630)에서 모방 정보(예: 모방 이미지)에 기반하여 표시하는 동작에 대하여 후술하는 도면들을 참조하여 상세히 설명된다.
다양한 실시 예들에서, 도 6b의 예시와 같은 전면 디스플레이(full front display) 형태의 전자 장치의 경우, 기본적으로 전체 표시 영역(예: 메인 영역(610)과 서브 영역(620))을 통해, 예를 들면, 해상도 18.5:10, 18.5:11, 18.5:9, 16:10, 16:11 등과 같이 확장 화면을 사용할 수 있고, 또는 메인 영역(610)만을 통해 일반적인 해상도 16:9와 같이 일반 화면을 사용할 수도 있다.
도 6d에 도시한 바와 같이, 전자 장치(400)는 전자 장치(400)의 운영 모드(예: 가로 모드(landscape mode) 또는 세로 모드(portrait mode))에 따라, 제1 서브 영역(620)(예: 621, 622)과 제2 서브 영역(620)(예: 623, 624)을 구분하여 동작할 수 있다. 예를 들면, 도 6c와 도 6d의 전자 장치(400)는 상하좌우 플렉서블 디스플레이를 갖는 전자 장치일 수 있고, 상하좌우 측면 모두 추가 또는 확장 디스플레이(예: 서브 영역(620))를 구성하여, 베젤이 없거나 보다 좁은 형태의 전자 장치일 수 있다. 다양한 실시 예들에서는, 전자 장치(400)가 세로 모드로 동작할 시 제1 서브 영역(620)(예: 621, 622)에 기반하여 화면 확장에 의한 표시를 처리할 수 있고, 전자 장치(400)가 가로 모드로 동작할 시 제2 서브 영역(620)(예: 623, 624)에 기반하여 화면 확장에 의한 표시를 처리할 수 있다. 예를 들면, 전자 장치(400)의 운영 모드에 따라 사용자가 전자 장치(400)를 그립하는 손 모양이 다를 수 있으며, 전자 장치(400)의 운영 모드에 따라 서브 영역(620)의 활성화/비활성화를 구현할 수 있다.
다양한 실시 예들에 따르면, 전자 장치(400)의 동작 모드 변경에 따른 서브 영역(620)의 전환에 대응하여, 모방 영역(630)의 설정도 전환될 수 있다. 한 실시 예에 따르면, 도 6d의 예시 <A>와 같이 전자 장치(400)가 세로 모드로 동작할 시 제1 서브 영역(620)(예: 621, 622)에 기반하여 화면 확장에 의한 표시를 처리할 수 있고, 제1 모방 영역(630)(예: 631, 632)에 의해 획득되는 모방 정보에 기반하여 확장 화면이 구성될 수 있다. 한 실시 예에 따르면, 도 6d의 예시 <B>와 같이 전자 장치(400)가 가로 모드로 동작할 시 제2 서브 영역(620)(예: 623, 624)에 기반하여 화면 확장에 의한 표시를 처리할 수 있고, 제2 모방 영역(630)(예: 633, 634)에 의해 획득되는 모방 정보에 기반하여 확장 화면이 구성될 수 있다.
도 7은 본 발명의 다양한 실시 예들에 따른 전자 장치의 구성을 개략적으로 도시하는 도면이다.
도 7을 참조하면, 다양한 실시 예들에 따른 전자 장치(400)는, 예를 들면, 무선 통신부(710), 사용자 입력부(720), 터치스크린(730), 오디오 처리부(740), 메모리(750), 인터페이스부(760), 카메라 모듈(770), 제어부(780)(예: 프로세싱 회로(processing circuitry)를 포함하는 하나 또는 그 이상의 프로세서들(예: 프로세서(120), 프로세서(210)), 그리고 전원 공급부(790)를 포함할 수 있다. 다양한 실시 예들에서, 전자 장치(400)는 도 7에 도시된 구성들이 필수적인 것은 아니어서, 도 7에 도시된 구성들보다 많은 구성들을 가지거나, 또는 그보다 적은 구성들을 가지는 것으로 구현될 수 있다.
무선 통신부(710)는, 예를 들면, 도 2의 통신 모듈(220)과 동일 또는 유사한 구성을 가질 수 있다. 무선 통신부(710)는 전자 장치(400)와 외부 장치(예: 다른 전자 장치(102, 104), 서버(106)) 사이의 무선 통신을 가능하게 하는 하나 또는 그 이상의 모듈들을 포함할 수 있다. 예를 들어, 무선 통신부(710)는 이동통신 모듈(711), 무선 랜(WLAN, wireless local area network) 모듈(713), 근거리 통신 모듈(715), 그리고 위치 산출 모듈(717) 등을 포함하여 구성될 수 있다. 다양한 실시 예들에서 무선 통신부(710)는 주변의 외부 장치와 통신을 수행하기 위한 모듈(예: 근거리 통신 모듈, 원거리 통신 모듈 등)을 포함할 수 있다.
이동통신 모듈(711)은, 예를 들면, 도 2의 셀룰러 모듈(221)과 동일 또는 유사한 구성을 가질 수 있다. 이동통신 모듈(711)은 이동통신 네트워크 상에서 기지국, 외부 장치(예: 다른 전자 장치(104)), 그리고 다양한 서버들 중 적어도 하나와 무선 신호를 송수신할 수 있다. 무선 신호는 음성 신호, 데이터 신호 또는 다양한 형태의 제어 신호를 포함할 수 있다. 이동통신 모듈(711)은 전자 장치(400)의 동작에 필요한 다양한 데이터들을 사용자 요청에 응답하여 외부 장치(예: 서버(106) 또는 다른 전자 장치(104) 등)로 전송할 수 있다.
무선 랜 모듈(713)은, 예를 들면, 도 2의 WiFi 모듈(223)과 동일 또는 유사한 구성을 가질 수 있다. 무선 랜 모듈(713)은 무선 인터넷 접속 및 외부 장치(예: 다른 전자 장치(102) 또는 서버(106) 등)와 무선 랜 링크(link)를 형성하기 위한 모듈을 나타낼 수 있다. 무선 랜 모듈(713)은 전자 장치(400)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는, 예를 들면, WiFi, Wibro, WiMax(world interoperability for microwave access), HSDPA(high speed downlink packet access), 또는 mmWave(millimeter Wave) 등이 이용될 수 있다. 무선 랜 모듈(713)은 전자 장치(400)와 네트워크(예: 무선 인터넷 네트워크)(예: 도 1의 네트워크(162))를 통해 연결되어 있는 외부 장치(예: 다른 전자 장치(104) 등)와 연동하여, 전자 장치(400)의 다양한 데이터들을 외부로 전송하거나, 또는 외부로부터 수신할 수 있다. 무선 랜 모듈(713)은 상시 온(on) 상태를 유지하거나, 전자 장치(400)의 설정 또는 사용자 입력에 따라 턴-온(turn-on)/턴-오프(turn-off) 될 수 있다.
근거리 통신 모듈(715)은 근거리 통신(short range communication)을 수행하기 위한 모듈을 나타낼 수 있다. 근거리 통신 기술로는, 예를 들면, 블루투스, 저전력 블루투스(BLE), RFID(radio frequency identification), 적외선 통신(IrDA), UWB(ultra wideband), 지그비(Zigbee), 또는 NFC 등이 이용될 수 있다. 근거리 통신 모듈(715)은 전자 장치(400)와 네트워크(예: 근거리 통신 네트워크)를 통해 연결되어 있는 외부 장치(예: 다른 전자 장치(102) 등)와 연동하여, 전자 장치(400)의 다양한 데이터들을 외부 장치로 전송하거나 수신 받을 수 있다. 근거리 통신 모듈(415)은 상시 온 상태를 유지하거나, 전자 장치(400)의 설정 또는 사용자 입력에 따라 턴-온/턴-오프 될 수 있다.
위치 산출 모듈(717)은, 예를 들면, 도 2의 GNSS 모듈(227)과 동일 또는 유사한 구성을 가질 수 있다. 위치 산출 모듈(717)은 전자 장치(400)의 위치를 획득하기 위한 모듈로서, 대표적인 예로는 GPS(global position system) 모듈을 포함할 수 있다. 위치 산출 모듈(717)은 삼각 측량의 원리로 전자 장치(400)의 위치를 측정할 수 있다.
사용자 입력부(720)는 전자 장치(400)의 동작 제어를 위한 입력 데이터를 사용자 입력에 응답하여 발생할 수 있다. 사용자 입력부(720)는 사용자의 다양한 입력을 검출하기 위한 적어도 하나의 입력 장치(input device)를 포함할 수 있다. 예를 들어, 사용자 입력부(720)는 키패드(key pad), 돔 스위치(dome switch), 물리 버튼, 터치패드(정압/정전), 조그셔틀(jog & shuttle), 그리고 센서(예: 도 2의 센서 모듈(240)) 등을 포함할 수 있다.
사용자 입력부(720)는 일부가 전자 장치(400)의 외부에 버튼 형태로 구현될 수 있으며, 일부 또는 전체가 터치 패널(touch panel)로 구현될 수도 있다. 사용자 입력부(720)는 전자 장치(400)의 다양한 동작(예: 화면 확장 기능, 어플리케이션 실행 기능, 촬영 기능, 데이터 생성 기능, 데이터 재생 기능 등)을 개시(initiation)하기 위한 사용자 입력을 수신할 수 있고, 사용자 입력에 따른 입력 신호를 발생할 수 있다.
터치스크린(730)은 입력 기능과 표시 기능을 동시에 수행할 수 있는 입출력 장치를 나타낼 수 있다. 다양한 실시 예들에 따라, 터치스크린(730)은 디스플레이(731)(예: 도 1 또는 도 2의 디스플레이(160, 260))와 터치감지부(733)를 포함할 수 있다. 터치스크린(730)은 전자 장치(400)와 사용자 사이에 입출력 인터페이스를 제공할 수 있다. 예를 들면, 터치스크린(730)은 사용자의 터치 입력을 전자 장치(400)에게 전달할 수 있고, 또한 전자 장치(400)로부터의 출력을 사용자에게 보여주는 매개체 역할을 포함할 수 있다. 터치스크린(730)은 사용자에게 시각적인 출력(visual output)을 보여줄 수 있다. 시각적인 출력은 텍스트(text), 그래픽(graphic), 비디오(video)와 이들의 조합의 형태로 나타날 수 있다.
디스플레이(731)는 전자 장치(400)에서 처리되는 다양한 정보를 표시(출력)할 수 있다. 예를 들어, 디스플레이(731)는 전자 장치(400)의 사용과 관련된 다양한 유저 인터페이스(UI, user interface) 또는 그래픽 유저 인터페이스(GUI, graphical UI)를 표시 할 수 있다. 다양한 실시 예들에 따라, 디스플레이(731)는 메인 영역과 서브 영역 운영에 따른 다양한 화면 구성을 제공할 수 있다. 디스플레이(731)는 다양한 디스플레이(예: 도 1의 디스플레이(160))가 사용될 수 있다. 다양한 실시 예들에서 디스플레이(731)는 커브드 디스플레이가 사용될 수 있다.
다양한 실시 예들에 따르면, 디스플레이(731)는 디스플레이 패널(미도시)에 전기적 신호(예: MHVL(multi high voltage level) signal)로 제공하는 디스플레이 제어회로(예: DDI, display driver IC)(미도시)를 포함할 수 있다. 다양한 실시 예들에서, 디스플레이 제어회로는 디스플레이(731)의 구동에 필수적인 핵심 구성 요소일 수 있다. 다양한 실시 예들에서, 디스플레이 제어회로는, 화면에 이미지(예: 텍스트, 그림, 정지영상, 동영상 등)가 표시되도록 구동 신호 및 데이터를 디스플레이(731)에 전기적 신호(예: MHVL 신호)로 제공하는 IC로서, 디스플레이를 구동하는 회로를 나타낼 수 있다. 다양한 실시 예들에 따라, 디스플레이 제어회로는 확장 화면 모듈로 지칭될 수 있고, 소프트웨어적으로 및/또는 하드웨어적으로 구현될 수 있다. 예를 들면, 다양한 실시 예들에서, 디스플레이 제어회로는 소프트웨어 DDI 및/또는 하드웨어 DDI로 지칭될 수 있고, 디스플레이(731)의 서브 영역을 이용한 표시에 관련된 동작을 처리할 수 있다.
터치감지부(733)는 디스플레이(731)에 안착될 수 있으며, 터치스크린(730) 표면에 접촉 또는 근접하는 사용자 입력을 감지할 수 있다. 사용자 입력은 싱글터치(single-touch), 멀티터치(multi-touch), 호버링(hovering), 또는 에어 제스처(air gesture) 중 적어도 하나에 기반하여 입력되는 터치 입력 또는 근접 입력을 포함할 수 있다. 터치감지부(733)는 다양한 실시 예들에서 전자 장치(400)의 사용과 관련된 다양한 동작을 개시하기 위한 사용자 입력을 수신할 수 있고, 사용자 입력에 따른 입력 신호를 발생할 수 있다.
오디오 처리부(740)는, 예를 들면, 도 2의 오디오 모듈(280)과 동일 또는 유사한 구성을 가질 수 있다. 오디오 처리부(740)는 제어부(780)로부터 입력 받은 오디오 신호를 스피커(SPK, speaker)(741)로 전송하고, 마이크(MIC, microphone)(743)로부터 입력 받은 음성 등의 오디오 신호를 제어부(780)에 전달하는 기능을 수행할 수 있다. 오디오 처리부(740)는 음성/음향 데이터를 제어부(780)의 제어에 따라 스피커(741)를 통해 가청음으로 변환하여 출력하고, 마이크(743)로부터 수신되는 음성 등의 오디오 신호를 디지털 신호로 변환하여 제어부(780)에게 전달할 수 있다.
스피커(741)는 무선 통신부(710)로부터 수신되거나, 또는 메모리(750)에 저장된 오디오 데이터를 출력할 수 있다. 스피커(741)는 전자 장치(400)에서 수행되는 다양한 동작(기능)과 관련된 음향 신호를 출력할 수도 있다.
마이크(743)는 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리할 수 있다. 마이크(743)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘(noise reduction algorithm)이 구현될 수 있다. 마이크(743)는 음성 명령(예: 화면 확장 기능 등의 활성화/비활성화를 제어하기 위한 음성 명령 등) 등과 같은 오디오 스트리밍(audio streaming)의 입력을 담당할 수 있다.
메모리(750)(예: 도 1 또는 도 2의 메모리(130, 230))는 제어부(780)에 의해 실행되는 하나 또는 그 이상의 프로그램들(one or more programs)을 저장할 수 있고, 입/출력되는 데이터들의 임시 저장(예: 버퍼링(buffering))을 위한 기능을 수행할 수도 있다. 입/출력되는 데이터들은, 예를 들면, 동영상, 이미지, 사진, 또는 오디오 등을 포함할 수 있다. 메모리(750)는 획득된 데이터를 저장하는 역할을 담당하며, 실시간으로 획득된 데이터는 일시적인 저장 장치(예: 버퍼)에 저장할 수 있고, 저장하기로 확정된 데이터는 오래 보관 가능한 저장 장치에 저장할 수 있다.
메모리(750)는 전자 장치(400)의 디스플레이(731)의 메인 영역과 서브 영역 구분에 의한 화면을 표시하는 기능과, 모방 영역을 통해 센싱(획득)된 모방 정보를 기반으로 확장 화면을 표시하는 기능 등을 실행하는 것과 관련되는 하나 또는 그 이상의 프로그램들과 데이터를 저장할 수 있다. 다양한 실시 예들에 따라, 메모리(750)는 제어부(780)(예: 프로세서)가, 메인 영역의 적어도 일부 영역을 센싱하고, 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하고, 모방 정보에 기반하여 메인 영역의 메인 화면에 연관되게 확장 화면을 서브 영역에 표시하도록 하는 것과 관련되는 하나 또는 그 이상의 프로그램들, 데이터 또는 인스트럭션들(instructions)을 저장할 수 있다. 다양한 실시 예들에 따라, 메모리(750)는 제어부(780)(예: 프로세서)가, 서브 영역을 통해 표시되는 확장 화면의 드로우(draw)를 위한 제1 캔버스를 생성하고, 메인 영역을 통해 표시되는 메인 화면의 드로우를 위한 제2 캔버스를 생성하고, 메인 화면의 뷰(view)의 크기와 위치를 계산하고, 뷰에 따라 모방 정보를 획득하고, 뷰를 제2 캔버스에 드로우 하고, 모방 정보를 제1 캔버스에 드로우 하고, 제1 캔버스와 제2 캔버스를 메모리에 드로우 하고, 제2 캔버스를 메인 영역에 표시하는 시점에, 제1 캔버스를 서브 영역에 표시하도록 하는 것과 관련되는 하나 또는 그 이상의 프로그램들, 데이터 또는 인스트럭션들을 저장할 수 있다.
메모리(750)는 확장 메모리(예: 도 2의 외장 메모리(234)) 또는 내부 메모리(예: 도 2의 내장 메모리(232))를 포함할 수 있다. 전자 장치(400)는 인터넷 상에서 메모리(750)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
메모리(750)는 하나 또는 그 이상의 소프트웨어(또는 소프트웨어 모듈)를 저장할 수 있다. 예를 들어, 소프트웨어 구성요소는 운영 체제(operating system) 소프트웨어 모듈, 통신 소프트웨어 모듈, 그래픽 소프트웨어 모듈, 유저 인터페이스 소프트웨어 모듈, MPEG(moving picture experts group) 모듈, 카메라 소프트웨어 모듈, 또는 하나 이상의 어플리케이션 소프트웨어 모듈 등을 포함할 수 있다. 또한 소프트웨어 구성요소인 모듈은 명령어들의 집합으로 표현할 수 있으므로, 모듈을 명령어 세트(instruction set)라고 표현하기도 한다. 모듈은 또한 프로그램으로 표현하기도 한다. 다양한 실시 예들에서, 메모리(230)는 앞서 기술한 모듈 이외에 추가적인 모듈(명령어들)을 포함할 수 있다. 또는 필요에 따라, 일부의 모듈(명령어들)을 사용하지 않을 수도 있다.
운영 체제 소프트웨어 모듈은 일반적인 시스템 동작(system operation)을 제어하는 여러 가지의 소프트웨어 구성요소를 포함할 수 있다. 일반적인 시스템 작동의 제어는, 예를 들면, 메모리 관리 및 제어, 저장 하드웨어(장치) 제어 및 관리, 또는 전력 제어 및 관리 등을 의미할 수 있다. 또한 운영 체제 소프트웨어 모듈은 여러 가지의 하드웨어(장치)와 소프트웨어 구성요소(모듈) 사이의 통신을 원활하게 하는 기능도 수행할 수 있다.
통신 소프트웨어 모듈은 통신 모듈(예: 무선 통신부(710), 통신 모듈(220)) 또는 인터페이스(예: 인터페이스부(760), 인터페이스(270))를 통해 웨어러블 장치, 스마트폰, 컴퓨터, 서버, 텔레비전, 모니터 또는 휴대용 단말기 등 다른 전자 장치와 통신을 가능하게 할 수 있다. 그리고, 통신 소프트웨어 모듈은 해당 통신 방식에 해당하는 프로토콜 구조로 구성될 수 있다.
그래픽 소프트웨어 모듈은 디스플레이(예: 디스플레이(731), 디스플레이(260)) 상에 그래픽(graphics)을 제공하고 표시하기 위한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 다양한 실시 예들에서, 그래픽이란 용어는 텍스트(text), 웹 페이지(web page), 아이콘(icon), 디지털 이미지(digital image), 비디오(video), 애니메이션(animation) 등을 포함하는 의미로 사용될 수 있다.
유저 인터페이스 소프트웨어 모듈은 유저 인터페이스(UI)에 관련한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 예를 들어, 유저 인터페이스의 상태가 어떻게 변경되는지 또는 유저 인터페이스 상태의 변경이 어떤 조건에서 이루어지는지 등에 대한 내용을 포함할 수 있다.
MPEG 모듈은 디지털 콘텐츠(예: 비디오, 오디오) 관련 프로세스 및 기능들(예: 콘텐츠의 생성, 재생, 배포 및 전송 등)을 가능하게 하는 소프트웨어 구성요소를 포함할 수 있다.
카메라 소프트웨어 모듈은 카메라 관련 프로세스 및 기능들을 가능하게 하는 카메라 관련 소프트웨어 구성요소를 포함할 수 있다.
어플리케이션 모듈은 렌더링 엔진(rendering engine)을 포함하는 웹브라우저(web browser), 이메일(email), 즉석 메시지(instant message), 워드 프로세싱(word processing), 키보드 에뮬레이션(keyboard emulation), 어드레스 북(address book), 터치 리스트(touch list), 위젯(widget), 디지털 저작권 관리(DRM, digital right management), 홍채 인식(iris scan), 상황 인지(context cognition), 음성 인식(voice recognition), 위치 결정 기능(position determining function), 위치기반 서비스(location based service) 등을 포함할 수 있다.
메모리(750)는, 다양한 실시 예들에 따른 방법을 프로세서(예: 제어부(780))에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
다양한 실시 예들에 따라, 컴퓨터로 판독 가능한 기록 매체는, 예를 들면, 디스플레이(731)에 화면을 표시할 때, 디스플레이(731)에 구분된 메인 영역의 적어도 일부 영역을 센싱하는 동작, 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하는 동작, 모방 정보에 기반하여 메인 영역의 메인 화면에 연관되게 확장 화면을 디스플레이(731)에 구분된 서브 영역에 표시하는 동작을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
인터페이스부(760)는, 예를 들면, 도 2의 인터페이스(270)와 동일 또는 유사한 구성을 가질 수 있다. 인터페이스부(760)는 다른 전자 장치로부터 데이터를 전송 받거나, 전원을 공급받아 전자 장치(400) 내부의 각 구성들에 전달할 수 있다. 인터페이스부(760)는 전자 장치(400) 내부의 데이터가 다른 전자 장치로 전송되도록 할 수 있다. 예를 들어, 유/무선 헤드폰 포트(port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 오디오 입/출력(input/output) 포트, 비디오 입/출력 포트, 이어폰 포트 등이 인터페이스부(760)에 포함될 수 있다.
카메라 모듈(770)(예: 도 2의 카메라 모듈(291))은 전자 장치(400)의 촬영 기능을 지원하는 구성을 나타낸다. 카메라 모듈(770)은 제어부(780)의 제어에 따라 임의의 피사체를 촬영하고, 촬영된 데이터(예: 이미지)를 디스플레이(731) 및 제어부(780)에 전달할 수 있다.
다양한 실시 예들에 따라, 카메라 모듈(770)은, 예를 들면, 칼라 정보를 획득하기 위한 제1 카메라(예: 칼라(RGB) 카메라)와 깊이 정보(depth information)(예: 피사체의 위치 정보, 거리 정보)를 획득하기 위한 제2 카메라(예: 적외선(IR, infrared) 카메라)를 포함할 수 있다. 카메라 모듈(770)은 이미지 센서를 포함할 수 있다. 이미지 센서는 CCD(charged coupled device) 또는 CMOS(complementary metal-oxide semiconductor)로 구현될 수 있다. 한 실시 예에 따라, 제1 카메라는 전자 장치(400)의 전면에 구비되는 전면 카메라일 수 있다. 다양한 실시 예들에 따라, 전면 카메라는 제2 카메라에 의해 대체될 수 있고, 전자 장치(400)의 전면에서 구비되지 않을 수 있다. 다양한 실시 예들에 따라, 제1 카메라는 제2 카메라와 함께 전자 장치(400)의 전면에 함께 배치될 수 있다. 한 실시 예에 따라, 제1 카메라는 전자 장치(400)의 후면에 구비되는 후면 카메라일 수 있다. 한 실시 예에 따라, 제1 카메라는 전자 장치(400)의 전면과 후면에 각각 구비되는 전면 카메라 및 후면 카메라를 모두 포함하는 형태일 수 있다.
제어부(780)(예: 프로세서, 제어 회로)는 전자 장치(400)의 전반적인 동작을 제어할 수 있다. 다양한 실시 예들에서 제어부(780)는, 예를 들면, 도 2의 프로세서(210)와 동일 또는 유사한 구성을 가질 수 있다.
다양한 실시 예들에 따라, 제어부(780)는 디스플레이(731)에 화면을 표시할 때, 디스플레이(731)에 구분된 메인 영역의 적어도 일부 영역을 센싱하는 동작, 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하는 동작, 모방 정보에 기반하여 메인 영역의 메인 화면에 연관되게 확장 화면을 디스플레이(731)에 구분된 서브 영역에 표시하는 동작을 처리할 수 있다. 다양한 실시 예들에 따르면, 제어부(780)는 서브 영역을 통해 표시되는 확장 화면의 드로우(draw)를 위한 제1 캔버스를 생성하는 동작, 메인 영역을 통해 표시되는 메인 화면의 드로우를 위한 제2 캔버스를 생성하는 동작, 메인 화면의 뷰의 크기와 위치를 계산하는 동작, 뷰에 따라 모방 정보를 획득하는 동작, 뷰를 제2 캔버스에 드로우 하는 동작, 모방 정보를 제1 캔버스에 드로우 하는 동작, 제1 캔버스와 상기 제2 캔버스를 상기 메모리에 드로우 하는 동작, 및 제2 캔버스를 메인 영역에 표시하는 시점에, 제1 캔버스를 서브 영역에 표시하는 동작을 처리할 수 있다.
제어부(780)는 전자 장치(400)의 동작을 제어하기 위한 하나 또는 그 이상의 프로세서들을 포함할 수 있다. 예를 들면, 제어부(780)는 커뮤니케이션 프로세서(CP), 어플리케이션 프로세서(AP), 인터페이스(예: GPIO, general purpose input/output), 또는 내부 메모리 등을 별개의 구성요소로 포함하거나, 또는 하나 이상의 집적화된 회로에 집적화될 수 있다. 한 실시 예에 따라, 어플리케이션 프로세서는 여러 가지의 소프트웨어 프로그램(software program)을 실행하여 전자 장치(400)를 위한 여러 기능을 수행할 수 있고, 커뮤니케이션 프로세서는 음성 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 제어부(780)는 메모리(750)에 저장되어 있는 특정한 소프트웨어 모듈(예: 명령어 세트(instruction set))을 실행하여 그 모듈에 대응하는 특정한 여러 가지의 기능을 수행하는 역할을 담당할 수 있다.
다양한 실시 예들에서 제어부(780)는 오디오 처리부(740), 인터페이스부(760), 디스플레이(731), 카메라 모듈(770) 등의 하드웨어적 모듈의 동작을 제어할 수 있다. 본 발명의 다양한 실시 예들에 따른 제어부(780)의 제어(또는 처리) 동작은 후술하는 도면들을 참조하여 구체적으로 설명된다. 본 발명의 다양한 실시 예들에 따르면, 제어부(780)는 메모리(750)에 저장되는 하나 또는 그 이상의 프로그램들을 실행하여 본 발명의 다양한 실시 예들에 따른 전자 장치(400)의 동작을 제어하는 하나 또는 그 이상의 프로세서들(one or more processors)로 구현될 수 있다. 다양한 실시 예들에 따라, 제어부(780)는 전자 장치(400)의 디스플레이(731) 및 메모리(750)와 전기적으로 또는 기능적으로 연결될 수 있다.
전원 공급부(790)는 제어부(780)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성 요소들의 동작에 필요한 전원을 공급할 수 있다. 다양한 실시 예들에서 전원 공급부(790)는 제어부(780)의 제어에 의해 무선 통신부(710), 디스플레이(731), 카메라 모듈(770) 등에 전원을 공급 또는 차단(on/off)할 수 있다. 다양한 실시 예들에 따라, 전원 공급부(790)는, 예를 들면, 배터리 제어 회로를 포함할 수 있다. 예를 들면, 전원 공급부(790)는 배터리(예: 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)), 배터리 잔량 측정 회로(예: fuel gauge), 전력관리 집적회로(예: PMIC, power management integrated circuit), 충전 회로, 승압 회로(예: booster circuit) 등을 포함하여 구성할 수 있다.
도 8은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시를 처리하기 위한 전자 장치의 구성을 개략적으로 도시하는 도면이다. 도 9는 다양한 실시 예들에 따른 전자 장치에서 어플리케이션 레이어의 계층 구조의 예를 도시하는 도면이다.
이하, 도 8을 참조하여, 다양한 실시 예들에 따른 전자 장치(400)에서, 제1 프로세서(810)와 제2 프로세서(820)를 통해, 디스플레이(830)의 메인 영역과 적어도 하나의 서브 영역을 위한 이미지 처리를 분담하여 처리하는 동작 예가 설명된다.
도 8을 참조하면, 다양한 실시 예들에 따른 전자 장치(400)는 제1 프로세서(810), 제2 프로세서(820), 디스플레이(830), 그리고 메모리(840)를 포함할 수 있다.
다양한 실시 예들에서, 디스플레이(830)는 전자 장치(400)의 하우징(예: 도 4의 하우징(450))의 일면에 노출되고, 편평한 메인 영역, 및 메인 영역으로부터 적어도 일부가 휘어지도록 연장된 서브 영역을 포함할 수 있다. 다양한 실시 예들에서, 디스플레이(830)는 메인 영역과 서브 영역을 구분하여 화면을 표시할 수 있다. 다양한 실시 예들에서, 서브 영역은 커브드 디스플레이의 에지 부분, 플렉서블 디스플레이에서 접히는 면, 또는 평면 디스플레이에서 구분되는 영역을 사용할 수 있다.
다양한 실시 예들에서, 제1 프로세서(810)는, 도 2의 프로세서(210) 또는 도 7의 제어부(780)와 동일 또는 유사한 구성을 가질 수 있다. 예를 들면, 제1 프로세서(810)는 어플리케이션 프로세서(AP)로 구현할 수 있다.
다양한 실시 예들에서, 제1 프로세서(810)는 전자 장치(400)의 설정에 대응하여 디스플레이(830)의 메인 영역, 또는 디스플레이(830)의 메인 영역 및 서브 영역에 화면을 표시하도록 처리할 수 있다. 한 실시 예에 따르면, 제1 프로세서(810)는 사용자에 의한 디스플레이(830)의 사용 설정(예: 디스플레이(830)의 적어도 하나의 서브 영역 사용 여부)에 기반하여 디스플레이(830)의 표시 방식을 결정할 수 있다. 제1 프로세서(810)는 메인 영역 사용을 결정하는 경우 메인 영역에 대응하는 표시를 위한 이미지 처리를 수행하고, 그에 따른 제어 정보를 생성할 수 있다. 제1 프로세서(810)는 메인 영역과 서브 영역 사용을 결정하는 경우 메인 영역과 서브 영역에 대응하는 표시를 위한 이미지 처리를 수행하고, 그에 따른 제어 정보를 생성할 수 있다.
다양한 실시 예들에서, 제1 프로세서(810)는 전자 장치(400)의 설정에 대응하여 디스플레이(830)의 메인 영역에 모방 영역을 설정할 수 있고, 모방 영역을 통해 획득하는 모방 정보에 기반하여 메인 영역의 메인 화면을 서브 영역을 통해 확장된 화면을 표시하도록 처리할 수 있다. 한 실시 예에 따르면, 제1 프로세서(810)는 화면 확장 기능 설정에 기반하여 디스플레이(830)의 표시 방식(예: 화면 확장 여부)을 결정할 수 있다. 한 실시 예에 따르면, 제1 프로세서(810)는 전자 장치(400)의 상태(예: 놓여진 상태, 파지 상태)에 기반하여 디스플레이(830)의 표시 방식(예: 화면 확장 여부)을 결정할 수 있다. 제1 프로세서(810)는 화면 확장 기능 사용을 결정하는 경우 메인 영역의 모방 영역(예: 모방 정보 센싱 영역)에 기반하여 모방 정보(예: 메인 화면에서 모방 영역의 내용)를 획득하고, 획득된 모방 정보에 기반하여 확장 화면을 표시하기 위한 이미지 처리를 수행하고, 그에 따른 제어 정보를 생성할 수 있다.
다양한 실시 예들에 따라, 제1 프로세서(810)는 처리된 이미지와 제어 정보를 제2 프로세서(820)에 전달할 수 있다. 다양한 실시 예들에서, 제1 프로세서(810)는 메인 영역에 의한 표시, 메인 영역 및 서브 영역에 의한 표시 여부를 결정 및 처리하거나, 또는 모방 영역을 이용한 화면 확장 기능에 의한 표시 여부를 결정 및 처리하는 화면 표시 처리부(850)를 더 포함할 수 있다. 다양한 실시 예들에 따라, 화면 표시 처리부(850)의 전체 또는 일부는 소프트웨어로 구현할 수 있다.
다양한 실시 예들에서, 화면 표시 처리부(850)(또는 제1 프로세서(810))는, 서브 영역에 가상 이미지 및/또는 모방 이미지를 표시하는 것과 관련된 다양한 운영을 처리하는 모듈을 포함할 수 있다. 예를 들면, 화면 표시 처리부(850)는 분석 모듈(851), 가공 모듈(852), 표시 제어 모듈(853), 가상 이미지 처리 모듈(854), 그리고 확장 화면 표시 모듈(855) 등을 포함하여 구현할 수 있다.
다양한 실시 예들에 따르면, 화면 표시 처리부(850)(또는 제1 프로세서(810))는, 다양한 실시 예들에서, 모방 정보에 기반하여 확장 화면(예: 모방 이미지)을 표시하는 것에 관련된 동작과, 서브 영역의 가상 이미지를 확장 화면(예: 모방 이미지)과 함께 표시하는 것에 관련된 동작을 처리할 수 있다.
다양한 실시 예들에 따라, 분석 모듈(851)은 메인 영역의 내용(또는 메인 화면)을 분석하는 모듈을 포함할 수 있다. 예를 들면, 분석 모듈(851)은 메인 영역에 표시된 내용의 계층(layer) 구조를 파악하여, 주요 내용이 표시되는 뷰(view)의 특징 정보를 추출할 수 있다. 분석 모듈(851)은 특징 정보에 기반하여 내용을 분석하고, 분석된 내용을 분석 정보로서 가공 모듈(852)에 제공할 수 있다. 분석 정보는, 예를 들면, 확장 화면 표시에 적절한 보정 방식을 결정하기 위한 정보를 포함할 수 있다. 다양한 실시 예들에 따른 계층 구조(예: 어플리케이션 레이어)의 예가 도 9에 도시된다.
도 9에 도시한 바와 같이, 도 9는 어플리케이션 레이어(950)의 블록 예로, 뷰의 계층 구조를 설명하기 위해 도시하는 도면이다. 예를 들면, 도 9는 어플리케이션 레이어(950)의 각 어플리케이션의 컴포넌트(component)(예: window, view)의 예를 나타낼 수 있다. 도 9를 참조하면, 어플리케이션은 복수의 윈도우들(951, 952, 953)을 통해 제공될 수 있다. 윈도우들(951, 952, 953)은 Z-order에 따라 서로 중첩(overlapping)될 수 있다. 윈도우들(951, 952, 953) 각각은, 하나 또는 그 이상의 뷰들(971, 972, 973)을 포함할 수 있다.
다양한 실시 예들에 따라, 가공 모듈(852)은 분석 모듈(851)에 의해 분석된 내용(분석 정보)에 기반하여 서브 영역에 확장 화면을 표시하기 위한 정보로 가공하는 모듈을 포함할 수 있다. 예를 들면, 가공 모듈(852)은 분석 모듈(851)이 제공한 분석 정보를 바탕으로 메인 영역의 내용을 변조하는 모듈을 나타낼 수 있다. 한 실시 예에 따르면, 가공 모듈(852)은 메인 영역의 전체 계층을 확장하여 표시하는 정보 또는 메인 영역의 계층 중 배경 정보를 추출하여 이를 서브 영역을 이용한 확장 화면을 위한 가공 정보로 제공할 수 있다. 다양한 실시 예들에 따라, 가공 모듈(852)은 분석 정보에 기반하여 결정된 적어도 하나의 뷰가 제공되는 메인 영역에서, 설정된 모방 영역에 기반하여 모방 정보를 센싱(획득)할 수 있고, 모방 정보에 기반하여 서브 영역을 통한 확장 화면을 위한 가공 정보(예: 모방 이미지)를 제공할 수 있다.
다양한 실시 예들에 따라, 표시 제어 모듈(853)은 가공 모듈(852)에 의해 가공된 가공 정보(예: 모방 이미지)에 기반하여 서브 영역에 확장 화면을 표시하기 위한 이미지 처리를 수행하는 모듈을 포함할 수 있다. 표시 제어 모듈(853)은 분석 정보와 가공 정보에 적어도 일부 기반하여, 확장 화면을 서브 영역에 소프트웨어적 또는 하드웨어적으로 표시하도록 제어할 수 있다. 한 실시 예에 따르면, 표시 제어 모듈(853)은 소프트웨어 DDI 또는 하드웨어 DDI에 의해 확장 화면을 표시하도록 제어할 수 있다. 표시 제어 모듈(853)은 소프트웨어적으로 확장 화면 표시를 결정할 시 소프트웨어 DDI(예: 확장 화면 표시 모듈(855))에 의한 동작을 제어할 수 있고, 하드웨어적으로 확장 화면 표시를 결정할 시 하드웨어적 DDI(예: 제2 프로세서(820)(예: 디스플레이 제어회로))에 의한 동작을 제어할 수 있다. 다양한 실시 예들에 따르면, 표시 제어 모듈(853)은 메인 영역의 메인 화면과 서브 영역의 확장 화면 간, 및/또는 서브 영역의 서브 화면과 확장 화면 간의 이질감을 감소시키기 위한 효과를 제공하며 이를 연속적으로 표시할 수 있다.
다양한 실시 예들에 따라, 가상 이미지 표시 모듈(854)은 사용자에 의해 서브 영역이 사용되는 경우, 예를 들면, 서브 영역에 의한 사용자 입력(예: 터치)을 통해서 관련 서브 화면(예: 가상 이미지)(예: 통지 컨텐츠, 통지 컬러, 프로그래스 등)가 자연스럽게 나타나도록 제어할 수 있다.
다양한 실시 예들에 따라, 확장 화면 표시 모듈(855)은, 예를 들면, 소프트웨어 DDI를 포함할 수 있고, 서브 영역의 표시를 위한 소프트웨어적 이미지 처리를 수행할 수 있다. 다양한 실시 예들에 따라, 확장 화면 표시 모듈(855)은, 예를 들면, 제2 프로세서(820)에 대응하는 기능을 소프트웨어적으로 수행할 수 있다.
다양한 실시 예들에서, 제2 프로세서(820)는, 예를 들면, 디스플레이 드라이버 집적회로(DDI, display driver integrated circuit)로 구현할 수 있다. 다양한 실시 예들에서, 제2 프로세서(820)는 제1 프로세서(810)로부터 이미지와 표시 처리를 위한 제어 정보를 수신할 수 있다. 제2 프로세서(820)는 수신된 제어 정보에 기초하여 표시 방식을 결정할 수 있다.
다양한 실시 예들에 따라, 제2 프로세서(820)는 제어 정보에 기초하여 디스플레이(830)의 메인 영역 및 서브 영역에 의한 표시를 결정하는 경우, 수신된 이미지를 그대로 디스플레이(830)에 전달할 수 있다.
다양한 실시 예들에 따라, 제2 프로세서(820)는 제어 정보에 기초하여 디스플레이(830)의 서브 영역에 의한 표시(예: 서브 영역의 독립적인 표시, 메인 영역의 확장(또는 연장) 화면 표시 등)를 결정하는 경우, 제어 정보에 기초하여 서브 영역을 위한 특정 처리(예: 픽셀 확장(pixel extension), 그라데이션(gradation), 블랙(black) 또는 블러(blur) 처리 등)에 의해 가상 이미지를 생성할 수 있다. 제2 프로세서(820)는 제1 프로세서(810)로부터 수신된 메인 영역을 위한 이미지(예: 메인 화면), 특정 처리된 가상 이미지 및/또는 특정 처리된 모방 이미지를 디스플레이(830)에 전달할 수 있다.
다양한 실시 예들에서, 제2 프로세서(820)는 인터페이스(821), 메모리(822), 디코더(823), 화질 보정부(824), 밝기 보정부(825), 화면 보정부(826) 등을 포함하여 구현할 수 있다.
인터페이스(821)는, 예를 들면, 시리얼 인터페이스(serial interface)(예: MIPI DSI, mobile industry processor interface display serial interface)를 포함할 수 있다. 다양한 실시 예들에 따라, 인터페이스(821)는 제1 프로세서(810)(예: 화면 표시 처리부(850))와의 명령어(예: 제어 정보)와 데이터(예: 이미지)의 전송을 처리할 수 있다.
메모리(822)는, 예를 들면, 프레임 버퍼(frame buffer)를 포함할 수 있다. 다양한 실시 예들에 따라, 메모리(822)는 인터페이스(821)를 통해 전달되는 이미지를 기록(예: 버퍼링)(예: 화면 표시 영역 기록)할 수 있고, 비디오 버퍼(video buffer), 비디오 메모리(video memory), 비디오 램(video RAM) 등의 용어로 사용될 수 있다.
디코더(decoder)(823)는, 예를 들면, 코드화된 이미지를 원래의 형태로 변환할 수 있다.
화질 보정부(824), 밝기 보정부(825), 화면 보정부(826)는 디스플레이(830)를 통해 표시할 이미지에 대한 화질, 밝기 또는 화면 보정을 처리할 수 있다.
다양한 실시 예들에서, 메모리(840)는, 도 2의 메모리(230) 또는 도 7의 메모리(750)와 동일 또는 유사한 구성을 가질 수 있다. 다양한 실시 예들에 따라, 메모리(840)는 적어도 두 개의 프로세서들(예: 제1 프로세서(810) 및 제2 프로세서(820)) 중 적어도 하나(예: 제1 프로세서(810))와 전기적으로 연결되는 적어도 하나의 메모리로 구현할 수 있다.
도 10은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시 동작을 설명하기 위해 도시하는 도면이다.
다양한 실시 예들에 따라, 도 10의 예시에서는, 전자 장치(400)가 풀 해상도(예: 2560*1600)를 지원하고, 전면(front)의 메인 영역(1010)이 해상도 2560*1440을 지원하고, 양 측면의 서브 영역(1020) 각각이 해상도 2560*80을 지원하며, 메인 영역(1010)의 해상도와 서브 영역(1020)의 해상도의 합이 풀 해상도(예: 2560*1600)에 대응하는 경우를 예시로 도시한다. 다양한 실시 예들에서, 해상도의 수치는 단지 특정한 실시 예를 설명하기 위해 또는 설명의 편의를 위해 사용된 것으로 고정된 것은 아니며, 디스플레이(830) 혹은 전자 장치(400)의 특성에 따라 다양하게 구현할 수 있다.
도 10을 참조하면, 커브드 디스플레이(830)가 적용된 전자 장치(400)는 가로 또는 세로 모드 사용 시 서브 영역(1020)을 이용하여 화면을 보다 크게 보이게 할 수 있다. 예를 들어, 전면의 메인 영역(1010)을 통해 2560*1440 해상도를 지원한다고 가정할 시, 양쪽 측면의 서브 영역(1020)을 통해 2560*80 해상도를 각각 확장하여 전체 2560*1600(예: 2056*(1440+80+80))을 지원할 수 있다. 예를 들어, 양쪽 측면의 서브 영역(1020)을 모두 사용하여 160 픽셀(pixel)을 확장하거나, 어느 한 측면의 서브 영역(1020)을 사용하여 80 픽셀을 확장할 수 있다.
다양한 실시 예들에 따르면, 메인 영역(1010)에 대한 표시는 제1 프로세서(810)에서 처리하고, 서브 영역(1020)에 대한 표시는 제2 프로세서(820)(예: DDI, display driver IC)에서 처리할 수 있다.
다양한 실시 예들에 따르면, 제1 프로세서(810)가 서브 영역(1020)에 대한 표시를 적어도 일부 처리하고, 제2 프로세서(820)가 서브 영역(1020)에 대한 표시를 적어도 일부 처리하도록 구현할 수도 있다. 예를 들면, 서브 영역(1020)에 대한 표시를 위한 처리 작업은 제1 프로세서(810)와 제2 프로세서(820)에 적응적으로 분배(할당)될 수 있고, 제2 프로세서(820)는 서브 영역(1020)에 대한 표시 처리를 부분적으로 수행할 수 있다.
도 10을 예시로 살펴보면, 제1 프로세서(810)에서는 표시를 위한 이미지에 대해 풀 해상도 2560*1600에 대한 이미지 프로세싱이 아닌, 전면의 메인 영역(1010)의 해상도 2560*1440에 대한 이미지 프로세싱을 수행하고, 이미지 프로세싱에 따른 제1 이미지(예: 2560*1440 해상도의 이미지)를 제2 프로세서(820)에 전달할 수 있다. 제2 프로세서(820)에서는 제1 프로세서(810)로부터 메인 영역(1010)의 해상도 2560*1440에 대응하는 제1 이미지가 전달되면, 전달된 제1 이미지에 기반하여 서브 영역(1020)을 통해 표시하기 위한 제2 이미지(예: 가상 이미지, 모방 이미지; 적어도 하나의 2560*80 이미지)를 처리할 수 있다. 예를 들면, 제2 프로세서(820)는 서브 영역(1020)에 대한 특정 처리를 통해 화면을 보다 크게 보이게 할 수 있다. 한 실시 예에 따르면, 제2 프로세서(820)는 제1 이미지에 기반하여 픽셀 확장(pixel extension), 그라데이션(gradation), 블랙(black), 또는 블러(blur) 등과 같은 특정 처리를 통해 서브 영역(1020)에 제2 이미지를 표시할 수 있다. 다양한 실시 예들에 따라, 제2 이미지는 서브 영역을 위한 가상 이미지, 메인 영역이 연장된 모방 이미지, 또는 가상 이미지와 모방 이미지를 포함하는 이미지일 수 있다.
다양한 실시 예들에 따르면, 전자 장치(400)는 락 스크린(lock screen), 인터넷, 특정 이미지를 표시하는 경우, 커브드 디스플레이(예: 메인 영역(1010), 서브 영역(1020))에 대한 사용 시나리오에 대응하여, 메인 영역(1010)과 서브 영역(1020)에 대한 이미지 처리를 제1 프로세서(810)와 제2 프로세서(820)에서 구분하여 독립적으로 처리할 수 있다.
다양한 실시 예들에 따라, 제1 프로세서(810)는 풀 해상도의 이미지로 디스플레이 방식을 결정하는 경우, 풀 해상도 이미지(예: 2560*1600 이미지)를 제2 프로세서(820)에 전달할 수 있고, 제2 프로세서(820)는 제1 프로세서(810)로부터 풀 해상도 이미지가 전달되면, 서브 영역(1020)을 위한 이미지 프로세싱 동작 없이 풀 해상도 이미지를 그대로 디스플레이(830)에 전달할 수 있다.
다양한 실시 예들에 따르면, 디스플레이(830)는 제2 프로세서(820)에서 전달되는 이미지를 메인 영역(1010) 또는 메인 영역(1010)과 적어도 하나의 서브 영역(1020)을 통해 표시할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 다양한 실시 예들에 따른 전자 장치는, 전면의 메인 영역과 상기 메인 영역으로부터 연장되는 적어도 하나의 측면의 서브 영역을 포함하고, 이미지를 상기 메인 영역 및 상기 서브 영역 중 적어도 일부에 기반하여 표시하는 디스플레이(731, 830), 메모리(750, 840, 822), 및 상기 디스플레이(731, 830) 및 상기 메모리(750, 840, 822)와 기능적으로 연결된 프로세서(예: 제어부(780), 제1 프로세서(810))를 포함하고, 상기 프로세서(예: 제어부(780), 제1 프로세서(810))는, 상기 메인 영역의 적어도 일부 영역을 센싱하고, 상기 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하고, 및 상기 모방 정보에 기반하여 상기 메인 영역의 메인 화면에 연관되게 확장 화면을 상기 서브 영역에 표시하도록 구성할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서는, 상기 메인 영역의 적어도 일부 영역을 모방 영역으로 설정하고, 및 상기 모방 영역의 전체 또는 일부를 모사하여 상기 모방 정보를 생성하도록 구성할 수 있다.
다양한 실시 예들에 따라, 상기 모방 영역은, 상기 메인 영역과 상기 서브 영역의 경계부터 일정 크기로 설정할 수 있다.
다양한 실시 예들에 따라, 상기 모방 영역은, 상기 메인 영역에서 1 픽셀(pixel)을 할당할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서는, 상기 서브 영역에 할당된 가상 이미지와 상기 모방 정보에 따른 모방 이미지를, 상기 서브 영역에 함께 표시하도록 구성할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서는, 상기 모방 정보의 표시 방식을 결정하고, 및 상기 결정된 표시 방식에 기반하여 상기 확장 화면의 표시를 처리하도록 구성할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서는, 상기 모방 정보를, 하드웨어 픽셀 확장(H/W pixel extension) 방식, 백그라운드 확장(back extension) 방식, 또는 블랙 확장(black extension) 방식에 적어도 일부 기반하여 상기 확장 화면의 표시를 처리하도록 구성할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서는, 상기 서브 영역을 통해 표시되는 상기 확장 화면의 드로우(draw)를 위한 제1 캔버스를 생성하고, 상기 메인 영역을 통해 표시되는 상기 메인 화면의 드로우를 위한 제2 캔버스를 생성하고, 상기 메인 화면의 뷰의 크기와 위치를 계산하고, 상기 뷰에 따라 상기 모방 정보를 획득하고, 상기 뷰를 상기 제2 캔버스에 드로우 하고, 상기 모방 정보를 상기 제1 캔버스에 드로우 하고, 상기 제1 캔버스와 상기 제2 캔버스를 상기 메모리에 드로우 하고, 및 상기 제2 캔버스를 상기 메인 영역에 표시하는 시점에, 상기 제1 캔버스를 상기 서브 영역에 표시하도록 구성할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서는, 상기 서브 영역에 대응하여 하나 또는 그 이상의 상기 제2 캔버스들을 생성하도록 구성할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서는, 전자 장치의 사용을 감지하고, 상기 전자 장치의 사용 감지에 응답하여 상기 전자 장치의 상태를 모니터링 하고, 상기 전자 장치의 상태가 파지 상태이면, 확장 기능을 비활성화 설정하고, 상기 확장 기능 비활성화에 대응하여 화면 표시를 처리하고, 및 상기 전자 장치의 상태가 고정 상태이면, 확장 기능에 기반하여 모방 정보를 센싱하고, 상기 모방 정보를 포함하여 화면 표시를 처리하도록 구성할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서는, 어플리케이션 프로세서, 및 디스플레이 드라이버 집적회로(DDI, display driver integrated circuit)를 포함하도록 구성할 수 있다.
도 11은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시를 처리하는 방법을 도시하는 흐름도이다. 도 12는 다양한 실시 예들에 따른 전자 장치에서 블랙 리스트를 관리하는 예를 설명하기 위해 도시하는 도면이다.
도 11에 도시한 바와 같이, 도 11은 서브 영역을 통해 확장 화면을 표시하는 방법으로, 예를 들면, 서브 영역에 가상 이미지와 확장 화면에 관련된 모방 이미지를 함께 표시하는 동작 예를 도시한다.
도 11을 참조하면, 동작 1101에서, 전자 장치(400)의 제어부(780)(예: 도 8의 제1 프로세서(810))는 화면을 표시할 때, 디스플레이(830) 상에 표시되는 화면을 분석할 수 있다. 예를 들면, 전술한 도 9의 예시와 같이, 전자 장치(400)의 화면은 다양한 뷰들(971, 972, 973)의 계층 구조로 이루어질 수 있다. 한 실시 예에 따라, 뷰들(971, 972, 973)을 디스플레이(830)를 통해 보여주기 위해서는, 각각 뷰들(971, 972, 973)의 크기 결정, 위치 결정 및 드로우(draw) 과정을 수행할 수 있다. 한 실시 예에 따르면, 뷰들(971, 972, 973)의 크기와 위치가 결정되었을 때, 특정 뷰의 x/width 좌표가 화면 x축의 첫좌표/끝좌표에 위치하게 될 경우, 해당 뷰는 가장 자리에 있는 뷰로 판별될 수 있다. 한 실시 예에 따르면, 뷰들(971, 972, 973)의 크기와 위치가 결정되었을 때, 특정 뷰의 y/height 좌표가 화면 y 축의 첫좌표/끝좌표에 위치할 경우 해당 뷰는 가장 자리에 있는 뷰로 판별될 수 있다.
동작 1103에서, 제어부(480)는 모방 정보를 생성할 수 있다. 예를 들면, 제어부(780)는 메인 영역을 통해 표시된 메인 화면의 내용의 전체 또는 일부를 모사하여 모방 정보를 생성할 수 있다. 한 실시 예에 따르면, 제어부(480)는 화면 분석의 결과에 기반하여 가장 자리의 뷰에 기반하여 모방 정보를 생성할 수 있다. 다양한 실시 예들에 따라, 제어부(480)는 메인 영역의 모방 영역을 센싱할 수 있고, 센싱하는 결과에 기반하여 모방 정보를 생성할 수 있다.
동작 1105에서, 제어부(480)는 뷰에서 객체의 포함 여부에 따라, 모방 정보의 표시 방식을 결정할 수 있다. 한 실시 예에 따르면, 제어부(780)는 가장 자리에 위치하는 해당 뷰가 객체(예: 이미지)를 포함하지 않으면, 하드웨어를 통한 확장 화면 표시(예: 하드웨어 픽셀 확장(H/W pixel extension) 방식)를 결정할 수 있다. 예를 들면, 제어부(780)는 픽셀 확장(pixel extension)을 수행하도록 결정할 수 있다. 한 실시 예에 따르면, 제어부(780)는 가장 자리에 위치하는 해당 뷰가 객체(예: 이미지)를 포함하면, 하드웨어를 통한 확장 화면 표시를 수행하지 않도록 결정할 수 있다. 예를 들면, 픽셀 확장(pixel extension)을 수행하지 않도록 하고 백그라운드 확장(background extension)을 수행하도록 결정할 수 있다. 다양한 실시 예들에서, 해당 뷰에서 객체(예: 이미지)의 포함 여부는 전자 장치(400)의 각 운영체제(OS)가 제공하는 방법을 따를 수 있다. 예를 들면, 객체가 이미지를 위한 객체인 경우 이미지가 있다고 판단할 수 있다.
다양한 실시 예들에 따라, 만약 백그라운드 확장의 적용이 불가능한 상황(예: 한 장의 이미지 컨텐츠(image contents))의 경우에는, 서브 영역을 블랙(black) 처리(예: 블랙 확장(black extension) 방식)하도록 결정할 수 있다. 다양한 실시 예들에 따라, 예외적인 상황, 예를 들면, 이미지 컨텐츠를 백그라운드에 설정하는 경우에는 블랙 리스트(black-list)를 관리하여 블랙 처리할 수 있다. 다양한 실시 예들에 따르면, 상기의 방법들은 사용자 선택에 의해서 다양한 방식으로 설정이 가능하다. 다양한 실시 예들에 따라, 블랙 리스트를 관리하는 예가 도 12에 도시된다.
도 12에 도시한 바와 같이, 전자 장치(400)는 블랙 리스트를 관리하는 블랙 리스트 서비스(1200)(또는 블랙 리스트 관리 어플리케이션)을 통해, 블랙 리스트를 저장 및 관리하는 서버(1250)(예: 블랙 리스트 관리 서버)로부터 블랙 리스트를 요청 및 획득할 수 있다. 전자 장치(400)는 블랙 리스트 서비스(1200)에 의해, 서버(1250)로부터 획득하는 블랙 리스트를 메모리(840)에 저장할 수 있다. 전자 장치(400)는 전술한 바와 같이 블랙 처리가 필요한 경우, 분석 모듈(851)에 의해, 메모리(840)에 저장된 블랙 리스트를 리드(read)하고, 리드된 블랙 리스트에 기반하여 서브 영역에 대한 화면 표시 처리(예: 블랙(black) 처리)를 수행할 수 있다.
동작 1107에서, 제어부(780)는 결정된 표시 방식에 대응하여 화면 표시를 처리할 수 있다. 예를 들면, 제어부(780)는 메인 영역을 통한 메인 화면 표시, 모방 정보에 기반하여 서브 영역에 확장 화면 표시, 서버 영역에 서브 화면 표시 등을 처리할 수 있다. 다양한 실시 예들에 따라, 메인 영역과 서브 영역에 대한 화면 표시 처리는 전술한 바와 같이, 제1 프로세서와 제2 프로세서를 통해 분산하여 처리할 수도 있다.
다양한 실시 예들에서, 모방 정보에 기반하여 서브 영역에 화면 표시를 처리하는 방법은, 전술한 바와 같이, 생성된 모방 정보를, 하드웨어를 통한 화면 확장 적용 방식(예: 하드웨어 픽셀 확장(H/W pixel extension) 방식), 백그라운드 확장(back extension) 적용 방식, 또는 블랙 확장(black extension) 방식 등에 기반하여 구현될 수 있다.
다양한 실시 예들에 따라, 픽셀 확장 방식에 의한 모방 정보 표시는, 예를 들면, 드로우(draw) 시에, 하드웨어에서 메인 영역의 가장 자리의 1 픽셀(예: 모방 영역)을 화면 알파 채널(alpha channel)(또는 알파 영역)에 드로우 할 수 있다. 다양한 실시 예들에 따라, 알파 채널은, 이미지 처리 작업을 보다 간편하고 효과적으로 처리하기 위해 기본 영역(또는 기본 채널)에 추가로 설정된 채널을 나타낼 수 있다. 예를 들면, 일반적인 화면은 3개의 채널로 구성되는 데, 예를 들면, R(red), G(green), B(blue)의 3개의 빛을 합성하여 이미지가 생성될 수 있으며, 이러한 3개의 채널 외에 4번째 채널을 알파 채널이라 하며, 다른 이미지와 합성하는 채널로 흑, 백으로 구성되어 있다. 예를 들면, 알파 채널은 그래픽 상의 한 픽셀의 색이 다른 픽셀의 색과 겹쳐서 나타날 때 두 색을 효과적으로 융합하도록 해주며 애니메이션(animation) 작업 등에 효과적일 수 있다. 한 실시 예에 따르면, 알파 채널이 가진 이미지를 A, 합성될 화면을 B라고 하면, A 화면이 가지는 알파 채널의 흰색 부분은 A의 이미지가 나타날 수 있고, 검은 부분은 투명하게 되어 뒤 배경에 해당하는 B의 이미지가 나타날 수 있다.
다양한 실시 예들에 따라, 백그라운드 확장 적용 방식에 의한 모방 정보 표시는, 예를 들면, 뷰 계층 구조를 분석하기 이전에 서브 영역(예: 양쪽 서브 영역들)을 위한 캔버스(canvas)(예: 1xHeight Canvas)를 생성할 수 있다. 각 뷰들이 드로우 시점에 서브 영역(예: 에지 부분)에 위치할 경우 백그라운드 이미지(background image)를 캔버스에 1 픽셀(예: 모방 영역에 대응하는 픽셀)을 드로우 할 수 있다. 이후, 최종 뷰의 드로우가 끝나면, 생성된 캔버스를, 메인 화면이 표시 될 때 가장 자리에 드로우 하고, 드로우된 캔버스를 하드웨어를 통해서 알파 채널에 드로우 함으로써, 메인 화면과 동일한 시점에 확장 화면을 드로우 할 수 있다. 다양한 실시 예들에 따라, 백그라운드 확장 적용 방식은, 후술하는 바와 같이 하드웨어와 소프트웨어의 결합으로 구현할 수 있다. 이에 대하여, 후술하는 도면들을 참조하여 설명된다.
다양한 실시 예들에 따라, 블랙 확장 방식에 의한 모방 정보 표시는, 예를 들면, 블랙 확장 방식의 경우에는 알파 채널의 프레임 버퍼(frame buffer)(예: 도 8의 메모리(822))를 설정(setting)하지 않는 방법도 가능할 수 있다. 하지만, 이는 애니메이션 문제가 있을 수 있기 때문에, 화면 간 자연스러운 애니메이션을 위해서 백그라운드 이미지(background image)를 블랙 컬러(black color)로 설정할 수 있다.
이상에서와 같이, 다양한 방법을 통해서 서브 영역에 확장 화면을 위한 모방 정보를 생성 및 표시할 수 있다. 한편, 서브 영역에 모방 정보(예: 모방 이미지)를 실질적으로 보여주는 동작을 수행할 경우 서브 영역에 할당된 가상 이미지와 확장 화면에 대응하는 모방 정보(예: 모방 이미지)의 겹침이 발생할 수 있고, 이러한 경우 부자연스러운 애니메이션이 나타날 수 있다. 이의 예가 도 13에 도시된다.
도 13은 다양한 실시 예들에 따른 전자 장치에서 서브 영역의 표시 예를 도시하는 도면이다.
도 13을 참조하면, 예시 (A)에 도시한 바와 같이, 사용자는 서브 영역(1320)에 사용자 입력(예: 터치 또는 터치앤드래그(touch & drag) 등)에 기반하여, 서브 영역(1320)을 통해 특정 화면(예: 통지 컨텐츠, 통지 컬러 또는 프로그래스(예: 알람, 플레이어 등) 등의 관련 화면)을 표시하는 동작을 수행할 수 있다. 전자 장치(400)는 사용자 입력에 응답하여 서브 영역(1320)을 통해 서브 화면에 대응하는 가상 이미지를 표시할 수 있다. 이때, 전자 장치(400)는 전술한 바와 같이, 서브 영역(1320)을 통해 모방 정보(예: 모방 영역(1310)에 기반하여 모사된 모방 이미지)를 표시하는 동작을 함께 수행할 수 있다. 이러한 경우, 예시 (B)에 도시한 바와 같이, 서브 영역(1320)에 할당된 서브 화면의 가상 이미지와 확장 화면을 위한 모방 정보(예: 모방 이미지)의 겹침이 발생되어, 부자연스러운 애니메이션으로 나타날 수 있다.
이하에서는, 다양한 실시 예들에 따라, 전자 장치(400)의 서브 영역에서 부자연스러운 애니메이션을 개선하기 위한 구체적인 방법에 대하여 설명하기로 한다.
도 14는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시를 처리하는 방법을 도시하는 흐름도이다.
도 14를 참조하면, 동작 1401에서, 전자 장치(400)의 제어부(780)(예: 도 8의 제1 프로세서(810))는 서브 영역을 위한 캔버스(canvas)(예: 제1 캔버스)를 생성할 수 있다. 예를 들면, 제어부(780)는 서브 영역을 통해 표시되는 확장 화면(예: 모방 영역의 1 픽셀에 대응하는 이미지)의 드로우를 위한 캔버스를 생성할 수 있다. 다양한 실시 예들에 따라, 제어부(780)는 어느 하나의 측면의 서브 영역을 위한 적어도 하나의 캔버스를 생성할 수 있다. 예를 들면, 제어부(780)는 서브 영역의 운영(또는 구성되는 서브 영역의 수)에 대응하여 하나 또는 그 이상의 캔버스들을 생성할 수 있다. 한 실시 예에 따르면, 제어부(780)는 좌측 및 우측의 서브 영역이 사용되는 경우 좌측 및 우측의 서브 영역을 위한 2개의 캔버스들을 생성할 수 있다. 한 실시 예에 따르면, 제어부(780)는 상측 및 하측의 서브 영역이 사용되는 경우 상측 및 하측의 서브 영역을 위한 2개의 캔버스들을 생성할 수 있다. 한 실시 예에 따르면, 제어부(780)는 좌측, 우측, 상측 및 하측의 서브 영역이 사용되는 경우 좌측, 우측, 상측 및 하측의 서브 영역을 위한 4개의 캔버스들을 생성할 수 있다. 한 실시 예에 따르면, 제어부(780)는 어느 하나의 측면만 사용되는 경우 해당 서브 영역을 위한 1개의 캔버스를 생성할 수도 있다. 다양한 실시 예들에 따라, 제어부(780)는 캔버스를 생성할 때, 해당 서브 영역의 대응하는 특정 높이(예: 1xHeight)를 가지도록 캔버스를 생성할 수 있다.
동작 1403에서, 제어부(780)는 메인 영역을 위한 캔버스(예: 제2 캔버스)를 생성할 수 있다. 예를 들면, 제어부(780)는 메인 영역을 통해 표시되는 메인 화면의 드로우를 위한 캔버스를 생성할 수 있다.
동작 1405에서, 제어부(780)는 계층 구조에 따른 뷰의 크기와 위치를 계산할 수 있다. 예를 들면, 전자 장치(400)의 화면은 다양한 뷰들의 계층 구조로 이루어질 수 있고, 제어부(780)는 메인 화면의 다양한 뷰들의 크기와 위치를 계산하고, 모방 정보를 센싱(또는 획득)하기 위한 뷰를 결정할 수 있다.
동작 1407에서, 제어부(780)는 뷰에 따라 모방 정보를 획득할 수 있다. 예를 들면, 제어부(780)는 모방 정보의 패턴을 결정할 수 있다. 한 실시 예에 따르면, 제어부(780)는 메인 영역에서 할당된 특정 픽셀(예: 1 픽셀)의 모방 영역의 내용을 모사하여, 모방 영역에 표시되는 이미지에 대응하는 모방 이미지를 획득할 수 있고, 획득된 모방 이미지의 패턴을 분석할 수 있다.
동작 1409에서, 제어부(780)는 각 뷰들을 제2 캔버스에 드로우 할 수 있다. 예를 들면, 제어부(780)는 메인 영역을 통해 표시되는 메인 화면의 뷰들을 메인 영역을 위한 캔버스에 드로우 할 수 있다.
동작 1411에서, 제어부(780)는 모방 정보를 제1 캔버스에 드로우 할 수 있다. 예를 들면, 제어부(780)는 서브 영역을 통해 표시되는 확장 화면을 위한 모방 정보(예: 모방 이미지)를 서브 영역을 위한 캔버스에 드로우 할 수 있다.
동작 1413에서, 제어부(780)는 제1 캔버스를 프레임 버퍼에 드로우 할 수 있다.
동작 1415에서, 제어부(780)는 제2 캔버스를 프레임 버퍼에 드로우 할 수 있다.
이후, 제어부(780)는 제2 캔버스를 상기 메인 영역을 통해 표시하는 시점에, 제1 캔버스를 서브 영역을 통해 확장 화면으로 표시할 수 있다.
도 15는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 서브 영역을 운용하는 예를 설명하기 위해 도시하는 도면이다.
도 15에 도시한 바와 같이, 전자 장치(400)는 시스템(System)(1510), 에지 매니저(Edge Manager)(1520)(예: 서브 영역 관리자), 하드웨어 DDI(1530), 소프트웨어 DDI(1540), 에지 서비스(Edge Service)(1550)을 포함할 수 있다.
도 15를 참조하면, 동작 1501에서, 시스템(1510)은 가상 디스플레이의 오픈(open)을 에지 매니저(1520)에 전달(통지)할 수 있다.
동작 1503 및 동작 1505에서, 에지 매니저(1520)는 가상 디스플레이 오픈에 대응하여 소프트웨어 DDI(1540)를 턴-온(turn-on) 하고, 하드웨어 DDI(1530)을 턴-오프(turn-off) 할 수 있다.
동작 1507에서, 에지 매니저(1520)는 컨텐츠를 오픈하고, 에지 서비스(1550)에 전달할 수 있다.
동작 1509에서, 에지 서비스(1550)는 컨텐츠에 대응하는 애니메이션을 시작할 수 있다.
도 15에 도시한 바와 같이, 전자 장치(400)는 서브 영역을 위한 이미지(예: 가상 이미지, 모방 이미지)를 오픈할 수 있다. 예를 들면, 전자 장치(400)는 하드웨어 모듈을 사용하기 때문에, 디스플레이(예: 도 8의 디스플레이(830))의 메인 영역에서 서브 영역에 관련된 이미지(예: 가상 이미지, 모방 이미지)가 나타날 수 있다. 이와 같이, 서브 영역에서 표시되어야 할 이미지가 메인 영역에서 나타나는 경우, 사용자에게 이질감을 줄 수 있다. 따라서, 다양한 실시 예들에서는, 이미지가 나타나기 이전에, Z-order를 지원하는 소프트웨어 DDI(1540)(예: 도 8에서 소프트웨어적으로 동작하는 확장 화면 표시 모듈(855))를 구성하여, 하드웨어 DDI(1530)(예: 도 8에서 하드웨어적으로 동작하는 확장 화면 표시 모듈(855) 또는 제2 프로세서(820))를 오프(off) 한 후, 소프트웨어 DDI(1540)를 온(on) 할 수 있다. 이후, 전자 장치(400)는 소프트웨어 DDI(1540)에 의한 이미지 처리를 통해 이미지(예: 가상 이미지, 모방 이미지)를 서브 영역에 자연스럽게 표시할 수 있다.
도 16은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 서브 영역을 운용하는 다른 예를 설명하기 위해 도시하는 도면이다.
다양한 실시 예들에 따르면, 전자 장치(400)는 서브 영역을 위한 이미지(예: 가상 이미지, 모방 이미지)를 표시할 때, 도 15의 예시와 달리, 소프트웨어 DDI(1540)를 구성하지 않고, 서브 영역만큼 이미지를 먼저 표시한 이후에, 하드웨어 DDI(1530)를 오프 할 수 있다. 이후, 전자 장치(400)는 가속도에 따라 이미지를 표시할 수 있다. 한 실시 예에 따르면, 도 16의 예시 <A>와 예시 <B>에 도시한 바와 같이, 처음에는 애니메이션이 없이 서브 영역을 통해 확장 화면이 표시될 수 있고, 이후, 예시 <C>에 도시한 바와 같이, 애니메이션과 함께 서브 영역에 확장 화면이 표시될 수 있다. 다양한 실시 예들에 따르면, 서브 영역이 작을 경우(예: 서브 영역의 폭이 좁은 경우)에는, 가속도에 의해서 확장 화면이 보다 자연스럽게 표시될 수 있다.
이상에서, 본원발명의 서브 영역이 좌측 및 우측에 구현된 것을 예시로 하여 그의 동작을 설명하였으나, 다양한 실시 예들에 이에 한정하는 것은 아니며, 서브 영역이 상측 및 하측에 구현된 경우에서도 상측 및 하측의 서브 영역을 확장 화면 영역으로 사용하여 전술한 바와 같은 동일한 방식으로 확장 화면을 구현할 수 있다.
도 17은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이의 표시를 처리하는 예를 도시하는 흐름도이다.
도 17을 참조하면, 동작 1701에서, 전자 장치(400)의 제어부(780)는 전자 장치(400)의 사용을 감지할 수 있다. 한 실시 예에 따르면, 사용자는 전자 장치(400)를 조작하여 디스플레이를 턴-온할 수 있다. 한 실시 예에 따르면, 전자 장치(400)는 외부 장치 또는 서버로부터 다양한 데이터를 수신할 수 있다. 다양한 실시 예들에 따르면, 사용자에 의한 전자 장치(400) 사용, 외부로부터의 데이터 수신 등을 전자 장치(400)의 사용을 위한 트리거(trigger)로 설정할 수 있다.
동작 1703에서, 제어부(780)는 전자 장치(400)의 상태를 모니터링(또는 판단) 할 수 있다. 예를 들면, 제어부(780)는 전자 장치(400)의 적어도 하나의 센서(예: 도 2의 센서 모듈(240))을 이용하여, 전자 장치(400)의 상태(예: 전자 장치(400)의 자세, 가속도, 기울기, 파지에 따른 터치 또는 압력, 충전 중 등의 다양한 상태)를 판단할 수 있다.
동작 1705에서, 제어부(780)는 동작 1703의 모니터링의 결과에 기반하여, 전자 장치(400)가 사용자에 의한 파지 상태인지 또는 전자 장치(400)가 바닥(또는 무선 충전 패드) 등에 놓여진 고정 상태인지 여부를 판단할 수 있다.
동작 1705에서, 제어부(780)는 전자 장치(400)의 상태가 파지 상태인 것으로 판단하면(동작 1705의 예), 동작 1707에서, 확장 기능을 비활성화(또는 오프) 설정할 수 있다.
동작 1709에서, 제어부(780)는 확장 기능 비활성화에 대응하여 화면 표시를 처리할 수 있다. 예를 들면, 제어부(780)는 서브 영역의 사용을 제한하고, 메인 영역에 기반하여 화면 표시 및 터치 입력을 수신하도록 처리할 수 있다.
동작 1705에서, 제어부(780)는 전자 장치(400)의 상태가 파지 상태가 아닌 것으로 판단, 예를 들면, 전자 장치(400)의 상태가 고정 상태인 것으로 판단하면(동작 1705의 아니오), 동작 1711에서, 확장 기능에 기반하여 모방 정보를 센싱할 수 있다. 예를 들면, 제어부(780)는 전술한 바와 같이, 메인 영역의 모방 영역을 모사하여 확장 화면을 위한 모방 정보를 생성할 수 있다.
동작 1713에서, 제어부(780)는 모방 정보를 포함하여 화면 표시를 처리할 수 있다. 예를 들면, 제어부(780)는 서브 영역에 할당된 가상 이미지와 모방 정보에 따른 확장 화면을 포함하여 함께 표시할 수 있다.
도 18은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 확장 화면이 제공되는 예를 설명하기 위해 도시하는 도면이다.
도 18에 도시한 바와 같이, 도 18의 예시 <A>와 예시 <B>는 다양한 실시 예들에 따른 확장 화면의 운영 예를 나타낸다.
도 18을 참조하면, 예시 <A>에 도시한 바와 같이, 서브 영역을 이용한 확장 화면을 운영함에 있어서, 사용자의 전자 장치의 조작 중에 메인 화면의 사용자 집중도를 향상하기 위하여, 확장 화면을 축소하여 가장 자리에 배치하여 표시할 수 있다. 예를 들면, 서브 영역의 폭을 좁게 운영할 수 있다. 이러한 경우, 예시 <A>에 도시한 바와 같이, 서브 영역의 확장 화면이 메인 영역의 메인 화면과는 무관한 내용의 베젤 형태로 표시될 수 있고, 이로 인해 메인 화면과 확장 화면 간의 이질감을 유발할 수 있다.
이에 반하여, 다양한 실시 예들에서는, 예시 <B>에 도시한 바와 같이, 서브 영역을 이용한 확장 화면을 운영함에 있어서, 메인 화면의 내용을 참조 가공하여 확장 화면을 표시할 수 있다. 이를 통해, 예시 <B>의 경우, 예시 <A>에 비해 메인 화면과 확장 화면 간의 단절된 이질감을 감소시킬 수 있다. 다양한 실시 예들에 따르면, 메인 화면의 내용을 참조 가공하여 확장 화면을 구현함에 따라, 메인 화면의 왜곡 현상을 회피할 수 있다. 다양한 실시 예들에서, 예시 <B>는 하드웨어 픽셀 확장 방식으로 구현되는 예를 나타낼 수 있다.
도 19a, 도 19b, 도 19c, 도 19d 및 도 19e는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 다양한 방식의 확장 화면이 제공되는 예를 도시하는 도면들이다.
도 19a 및 도 19b를 참조하면, 도 19a 및 도 19b는 다양한 실시 예들에 따라 전술한 도 18의 예시 <B>와 같이 하드웨어 픽셀 확장 방식으로 확장 화면(1920, 1940)이 구현되는 예를 나타낼 수 있다. 예를 들면, 드로우 시에 메인 영역(예: 컨텐츠 영역)의 가장 자리의 1 픽셀(예: 모방 영역)을 화면 알파 채널(또는 알파 영역)에 드로우 할 수 있다. 다양한 실시 예들에 따르면, 메인 영역의 메인 화면(1910, 1930)의 내용을 참조 가공하여 양쪽 서브 영역에서 확장 화면(1920, 1940)을 구현함에 따라, 메인 화면(1910, 1930)의 왜곡 현상을 회피하고 메인 영역과 서브 영역 간의 화장 화면(1920, 1940)에 의한 이질감을 감소할 수 있다.
도 19c 및 도 19d를 참조하면, 도 19c 및 도 19d는 다양한 실시 예들에 따라 백그라운드 확장 방식으로 확장 화면(1950, 1970)이 구현되는 예를 나타낼 수 있다. 예를 들면, 다양한 실시 예들에 따라, 전자 장치(400)는 뷰 계층 구조를 분석하기 이전에 서브 영역을 위한 캔버스를 생성할 수 있다. 전자 장치(400)는 각 뷰들이, 드로우 시점에 서브 영역(예: 에지 부분)에 위치할 경우 백그라운드 이미지를 캔버스에 1 픽셀을 드로우 할 수 있다. 이후, 최종 뷰의 드로우가 끝나면, 생성된 캔버스를 메인 화면(1950, 1970)이 표시 될 때 가장 자리에 드로우 하고, 드로우된 캔버스를 하드웨어를 통해서 알파 채널에 드로우 함으로써, 메인 화면과 동일한 시점에 확장 화면(1960, 1980)을 드로우 할 수 있다.
도 19e를 참조하면, 도 19e는 다양한 실시 예들에 따라, 블랙 확장 방식으로 확장 화면(1990)이 구현되는 예를 나타낼 수 있다. 예를 들면, 블랙 확장 방식의 경우 백그라운드 이미지를 블랙 컬러(black color)로 설정하여 제공할 수 있다.
이상에서 살펴본 바와 같이, 다양한 실시 예들에 따른 전자 장치의 동작 방법은, 디스플레이(731, 830)에 화면을 표시할 때, 상기 디스플레이(731, 830)에 구분된 메인 영역의 적어도 일부 영역을 센싱하는 동작, 상기 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하는 동작, 및 상기 모방 정보에 기반하여 상기 메인 영역의 메인 화면에 연관되게 상기 확장 화면을 상기 디스플레이에 구분된 서브 영역에 표시하는 동작을 포함하고, 상기 디스플레이(731, 830)는, 전면의 상기 메인 영역과 상기 메인 영역으로부터 연장되는 적어도 하나의 측면의 상기 서브 영역을 포함하고, 이미지를 상기 메인 영역 및 상기 서브 영역 중 적어도 일부에 기반하여 표시하는 디스플레이를 포함할 수 있다.
다양한 실시 예들에 따라, 상기 생성하는 동작은, 상기 메인 영역의 적어도 일부 영역을 모방 영역으로 설정하는 동작, 및 상기 모방 영역의 전체 또는 일부를 모사하여 상기 모방 정보를 생성하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 설정하는 동작은, 상기 메인 영역과 상기 서브 영역의 경계부터 일정 크기로 설정하는 것을 포함하고, 상기 일정 크기는, 상기 메인 영역에서 1 픽셀(pixel)을 할당하는 것을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 표시하는 동작은, 상기 서브 영역에 할당된 가상 이미지와 상기 모방 정보에 따른 모방 이미지를, 상기 서브 영역에 함께 표시하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 표시하는 동작은, 상기 모방 정보의 표시 방식을 결정하는 동작, 및 상기 결정된 표시 방식에 기반하여 상기 확장 화면의 표시를 처리하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 확장 화면의 표시를 처리하는 동작은, 상기 모방 정보를, 하드웨어 픽셀 확장(H/W pixel extension) 방식, 백그라운드 확장(back extension) 방식, 또는 블랙 확장(black extension) 방식에 적어도 일부 기반하여 상기 확장 화면의 표시를 처리하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 서브 영역을 통해 표시되는 상기 확장 화면의 드로우(draw)를 위한 제1 캔버스를 생성하는 동작, 상기 메인 영역을 통해 표시되는 상기 메인 화면의 드로우를 위한 제2 캔버스를 생성하는 동작, 상기 메인 화면의 뷰의 크기와 위치를 계산하는 동작, 상기 뷰에 따라 상기 모방 정보를 획득하는 동작, 상기 뷰를 상기 제2 캔버스에 드로우 하는 동작, 상기 모방 정보를 상기 제1 캔버스에 드로우 하는 동작, 상기 제1 캔버스와 상기 제2 캔버스를 상기 메모리에 드로우 하는 동작, 및 상기 제2 캔버스를 상기 메인 영역에 표시하는 시점에, 상기 제1 캔버스를 상기 서브 영역에 표시하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 제1 캔버스를 생성하는 동작은, 상기 서브 영역에 대응하여 하나 또는 그 이상의 상기 제1 캔버스들을 생성하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 전자 장치의 사용을 감지하는 동작, 상기 전자 장치의 사용 감지에 응답하여 상기 전자 장치의 상태를 모니터링 하는 동작, 상기 전자 장치의 상태가 파지 상태이면, 확장 기능을 비활성화 설정하고, 상기 확장 기능 비활성화에 대응하여 화면 표시를 처리하는 동작, 및 상기 전자 장치의 상태가 고정 상태이면, 확장 기능에 기반하여 모방 정보를 센싱하고, 상기 모방 정보를 포함하여 화면 표시를 처리하는 동작을 포함할 수 있다.
본 명세서와 도면에 개시된 본 발명의 다양한 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Claims (15)
- 전자 장치에 있어서,전면의 메인 영역과 상기 메인 영역으로부터 연장되는 적어도 하나의 측면의 서브 영역을 포함하고, 이미지를 상기 메인 영역 및 상기 서브 영역 중 적어도 일부에 기반하여 표시하는 디스플레이;메모리; 및상기 디스플레이 및 상기 메모리와 기능적으로 연결된 프로세서를 포함하고, 상기 프로세서는,상기 메인 영역의 적어도 일부 영역을 센싱하고,상기 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하고,상기 모방 정보에 기반하여 상기 메인 영역의 메인 화면에 연관되게 확장 화면을 상기 서브 영역에 표시하도록 설정된 전자 장치.
- 제1항에 있어서, 상기 프로세서는,상기 메인 영역의 적어도 일부 영역을 모방 영역으로 설정하고,상기 모방 영역의 전체 또는 일부를 모사하여 상기 모방 정보를 생성하도록 설정되고,상기 모방 영역은,상기 메인 영역과 상기 서브 영역의 경계부터 일정 크기로 설정하는 것을 특징으로 하는 전자 장치.
- 제2항에 있어서, 상기 모방 영역은,상기 메인 영역에서 1 픽셀(pixel)을 할당하는 것을 특징으로 하는 전자 장치.
- 제1항에 있어서, 상기 프로세서는,상기 서브 영역에 할당된 가상 이미지와 상기 모방 정보에 따른 모방 이미지를, 상기 서브 영역에 함께 표시하도록 설정된 전자 장치.
- 제1항에 있어서, 상기 프로세서는,상기 모방 정보의 표시 방식을 결정하고,상기 결정된 표시 방식에 기반하여 상기 확장 화면의 표시를 처리하도록 설정된 전자 장치.
- 제5항에 있어서, 상기 프로세서는,상기 모방 정보를, 하드웨어 픽셀 확장(H/W pixel extension) 방식, 백그라운드 확장(back extension) 방식, 또는 블랙 확장(black extension) 방식에 적어도 일부 기반하여 상기 확장 화면의 표시를 처리하도록 설정된 전자 장치.
- 제1항에 있어서, 상기 프로세서는,상기 확장 화면의 드로우(draw)를 위한 제1 캔버스를 생성하고,상기 메인 화면의 드로우를 위한 제2 캔버스를 생성하고,상기 메인 화면의 뷰의 크기와 위치를 계산하고,상기 뷰에 따라 상기 모방 정보를 획득하고,상기 뷰를 상기 제2 캔버스에 드로우 하고,상기 모방 정보를 상기 제1 캔버스에 드로우 하고,상기 제1 캔버스와 상기 제2 캔버스를 상기 메모리에 드로우 하고,상기 제2 캔버스를 상기 메인 영역에 표시하는 시점에, 상기 제1 캔버스를 상기 서브 영역에 표시하도록 설정되고,상기 프로세서는, 상기 제1 캔버스를 생성할 때, 상기 서브 영역에 대응하여 하나 또는 그 이상의 상기 제1 캔버스들을 생성하도록 설정된 전자 장치.
- 제1항에 있어서, 상기 프로세서는,전자 장치의 사용을 감지하고,상기 전자 장치의 사용 감지에 응답하여 상기 전자 장치의 상태를 모니터링 하고,상기 전자 장치의 상태가 파지 상태이면, 확장 기능을 비활성화 설정하고, 상기 확장 기능 비활성화에 대응하여 화면 표시를 처리하고,상기 전자 장치의 상태가 고정 상태이면, 확장 기능에 기반하여 모방 정보를 센싱하고, 상기 모방 정보를 포함하여 화면 표시를 처리하도록 설정된 전자 장치.
- 제1항에 있어서, 상기 프로세서는,어플리케이션 프로세서;디스플레이 드라이버 집적회로(DDI, display driver integrated circuit)를 포함하도록 설정된 전자 장치.
- 전자 장치의 표시 방법에 있어서,디스플레이에 화면을 표시할 때, 상기 디스플레이에 구분된 메인 영역의 적어도 일부 영역을 센싱하는 동작,상기 센싱된 영역에 기반하여 확장 화면을 위한 모방 정보를 생성하는 동작,상기 모방 정보에 기반하여 상기 메인 영역의 메인 화면에 연관되게 상기 확장 화면을 상기 디스플레이에 구분된 서브 영역에 표시하는 동작을 포함하고,상기 디스플레이는, 전면의 상기 메인 영역과 상기 메인 영역으로부터 연장되는 적어도 하나의 측면의 상기 서브 영역을 포함하고, 이미지를 상기 메인 영역 및 상기 서브 영역 중 적어도 일부에 기반하여 표시하는 디스플레이를 포함하는 방법.
- 제10항에 있어서, 상기 생성하는 동작은,상기 메인 영역의 적어도 일부 영역을 모방 영역으로 설정하는 동작,상기 모방 영역의 전체 또는 일부를 모사하여 상기 모방 정보를 생성하는 동작을 포함하고,상기 설정하는 동작은,상기 메인 영역과 상기 서브 영역의 경계부터 일정 크기로 설정하는 것을 포함하고,상기 일정 크기는, 상기 메인 영역에서 1 픽셀(pixel)을 할당하는 것을 포함하는 방법.
- 제10항에 있어서, 상기 표시하는 동작은,상기 서브 영역에 할당된 가상 이미지와 상기 모방 정보에 따른 모방 이미지를, 상기 서브 영역에 함께 표시하는 동작을 포함하는 방법.
- 제10항에 있어서, 상기 표시하는 동작은,상기 모방 정보의 표시 방식을 결정하는 동작,상기 결정된 표시 방식에 기반하여 상기 확장 화면의 표시를 처리하는 동작을 포함하고,상기 확장 화면의 표시를 처리하는 동작은,상기 모방 정보를, 하드웨어 픽셀 확장(H/W pixel extension) 방식, 백그라운드 확장(back extension) 방식, 또는 블랙 확장(black extension) 방식에 적어도 일부 기반하여 상기 확장 화면의 표시를 처리하는 동작을 포함하는 방법.
- 제10항에 있어서,상기 확장 화면의 드로우(draw)를 위한 제1 캔버스를 생성하는 동작,상기 메인 화면의 드로우를 위한 제2 캔버스를 생성하는 동작,상기 메인 화면의 뷰의 크기와 위치를 계산하는 동작,상기 뷰에 따라 상기 모방 정보를 획득하는 동작,상기 뷰를 상기 제2 캔버스에 드로우 하는 동작,상기 모방 정보를 상기 제1 캔버스에 드로우 하는 동작,상기 제1 캔버스와 상기 제2 캔버스를 상기 메모리에 드로우 하는 동작,상기 제2 캔버스를 상기 메인 영역에 표시하는 시점에, 상기 제1 캔버스를 상기 서브 영역에 표시하는 동작을 포함하고,상기 제1 캔버스를 생성하는 동작은,상기 서브 영역에 대응하여 하나 또는 그 이상의 상기 제1 캔버스들을 생성하는 동작을 포함하는 방법.
- 제10항에 있어서,전자 장치의 사용을 감지하는 동작,상기 전자 장치의 사용 감지에 응답하여 상기 전자 장치의 상태를 모니터링 하는 동작,상기 전자 장치의 상태가 파지 상태이면, 확장 기능을 비활성화 설정하고, 상기 확장 기능 비활성화에 대응하여 화면 표시를 처리하는 동작,상기 전자 장치의 상태가 고정 상태이면, 확장 기능에 기반하여 모방 정보를 센싱하고, 상기 모방 정보를 포함하여 화면 표시를 처리하는 동작을 포함하는 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/475,622 US10943563B2 (en) | 2017-01-03 | 2017-10-25 | Electronic device and displaying method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170000634A KR102689503B1 (ko) | 2017-01-03 | 2017-01-03 | 전자 장치 및 그의 표시 방법 |
KR10-2017-0000634 | 2017-01-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018128253A1 true WO2018128253A1 (ko) | 2018-07-12 |
Family
ID=62791026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/011821 WO2018128253A1 (ko) | 2017-01-03 | 2017-10-25 | 전자 장치 및 그의 표시 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10943563B2 (ko) |
KR (1) | KR102689503B1 (ko) |
WO (1) | WO2018128253A1 (ko) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD817988S1 (en) * | 2016-11-17 | 2018-05-15 | Trivver, Inc. | Display screen or portion thereof with tab based graphical user interface |
USD872765S1 (en) * | 2017-10-17 | 2020-01-14 | Adobe Inc. | Display screen or portion thereof with icon |
JP7143580B2 (ja) * | 2017-11-15 | 2022-09-29 | 富士フイルムビジネスイノベーション株式会社 | 表示装置及びプログラム |
USD922343S1 (en) * | 2018-08-21 | 2021-06-15 | Lg Electronics Inc. | Mobile phone |
TWI686742B (zh) * | 2018-10-29 | 2020-03-01 | 華碩電腦股份有限公司 | 控制方法、電子裝置及非暫態電腦可讀記錄媒體裝置 |
US12079464B2 (en) * | 2019-10-01 | 2024-09-03 | Microsoft Technology Licensing, Llc | Predictive gesture optimizations for moving objects across display boundaries |
TWI736039B (zh) * | 2019-11-26 | 2021-08-11 | 和碩聯合科技股份有限公司 | 擴充控制裝置及影像控制方法 |
CN111221455B (zh) | 2020-01-06 | 2022-03-04 | 北京字节跳动网络技术有限公司 | 素材展示方法、装置、终端及存储介质 |
US10957229B1 (en) * | 2020-01-21 | 2021-03-23 | Motorola Mobility Llc | Content extension on curved glass |
US11516335B2 (en) | 2020-01-21 | 2022-11-29 | Motorola Mobility Llc | Personalizable UI component layout on curved glass |
US11176862B2 (en) | 2020-01-21 | 2021-11-16 | Motorola Mobility Llc | Managing notifications on a curved display surface |
CN111708504A (zh) * | 2020-06-16 | 2020-09-25 | 成都忆光年文化传播有限公司 | 一种扩展屏幕的显示方法 |
CN114077468A (zh) * | 2020-08-18 | 2022-02-22 | 华为技术有限公司 | 一种屏幕窗口重绘方法、电子设备和计算机可读存储介质 |
TWI761976B (zh) * | 2020-09-30 | 2022-04-21 | 幻景啟動股份有限公司 | 互動系統 |
KR102743485B1 (ko) * | 2020-10-05 | 2024-12-18 | 삼성디스플레이 주식회사 | 표시 장치 및 표시 패널의 구동 방법 |
CN115810317B (zh) * | 2021-09-13 | 2025-03-18 | 重庆康佳光电科技有限公司 | 电路背板检测装置及电路背板检测方法 |
CN114995727A (zh) * | 2022-05-23 | 2022-09-02 | Oppo广东移动通信有限公司 | 对绘画内容局部操作的方法、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140253606A1 (en) * | 2013-03-08 | 2014-09-11 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
KR20150044427A (ko) * | 2015-04-10 | 2015-04-24 | 삼성전자주식회사 | 벤디드 디스플레이를 갖는 휴대단말의 기능 운용 방법 및 장치 |
KR101580160B1 (ko) * | 2009-11-30 | 2015-12-24 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
KR101580300B1 (ko) * | 2014-12-29 | 2015-12-24 | 삼성전자주식회사 | 사용자 단말 장치 및 그의 제어 방법 |
US20160042494A1 (en) * | 2014-08-11 | 2016-02-11 | Lg Electronics Inc. | Device and control method for the device |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101422280B1 (ko) | 2007-10-02 | 2014-07-22 | 주식회사 케이티 | 이동통신단말기의 배경 이미지 여백부 색상 결정 방법 |
KR101521219B1 (ko) * | 2008-11-10 | 2015-05-18 | 엘지전자 주식회사 | 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법 |
US9152314B2 (en) | 2009-11-30 | 2015-10-06 | Lg Electronics Inc. | Mobile terminal and controlling method thereof |
KR101515623B1 (ko) * | 2012-05-14 | 2015-04-28 | 삼성전자주식회사 | 벤디드 디스플레이를 갖는 휴대단말의 기능 운용 방법 및 장치 |
US9395917B2 (en) * | 2013-03-24 | 2016-07-19 | Sergey Mavrody | Electronic display with a virtual bezel |
KR102120101B1 (ko) * | 2013-04-03 | 2020-06-09 | 엘지전자 주식회사 | 디스플레이 장치 및 그 제어 방법 |
KR101504237B1 (ko) * | 2013-11-15 | 2015-03-19 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR20150134949A (ko) * | 2014-05-23 | 2015-12-02 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
KR102264220B1 (ko) | 2014-09-02 | 2021-06-14 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 디스플레이 방법 |
KR102328823B1 (ko) | 2014-11-12 | 2021-11-19 | 삼성전자 주식회사 | 화면 내 빈 영역 활용 방법 및 장치 |
KR20160074288A (ko) | 2014-12-18 | 2016-06-28 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
WO2016108439A1 (en) | 2014-12-29 | 2016-07-07 | Samsung Electronics Co., Ltd. | Foldable device and method of controlling the same |
-
2017
- 2017-01-03 KR KR1020170000634A patent/KR102689503B1/ko active Active
- 2017-10-25 WO PCT/KR2017/011821 patent/WO2018128253A1/ko active Application Filing
- 2017-10-25 US US16/475,622 patent/US10943563B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101580160B1 (ko) * | 2009-11-30 | 2015-12-24 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US20140253606A1 (en) * | 2013-03-08 | 2014-09-11 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
US20160042494A1 (en) * | 2014-08-11 | 2016-02-11 | Lg Electronics Inc. | Device and control method for the device |
KR101580300B1 (ko) * | 2014-12-29 | 2015-12-24 | 삼성전자주식회사 | 사용자 단말 장치 및 그의 제어 방법 |
KR20150044427A (ko) * | 2015-04-10 | 2015-04-24 | 삼성전자주식회사 | 벤디드 디스플레이를 갖는 휴대단말의 기능 운용 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR102689503B1 (ko) | 2024-07-31 |
US20190325847A1 (en) | 2019-10-24 |
US10943563B2 (en) | 2021-03-09 |
KR20180079904A (ko) | 2018-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018128253A1 (ko) | 전자 장치 및 그의 표시 방법 | |
WO2018012719A1 (en) | Electronic apparatus having a hole area within screen and control method thereof | |
WO2018026102A1 (ko) | 전자 장치 및 그의 동작 방법 | |
WO2018182279A1 (en) | Method and apparatus for providing augmented reality function in electronic device | |
WO2018199537A1 (en) | Electronic device and method of controlling the electronic device based on touch input | |
WO2018070716A1 (en) | Electronic device having plurality of fingerprint sensing modes and method for controlling the same | |
WO2018131775A1 (ko) | 전자 장치 및 그의 동작 방법 | |
WO2017116024A1 (en) | Electronic device having flexible display and method for operating the electronic device | |
WO2017039321A1 (en) | Foldable electronic device including hidden display and information display method thereof | |
WO2017142293A1 (en) | Electronic device and method of application data display therefor | |
WO2017111382A1 (en) | Electronic device and method for image control thereof | |
WO2017078367A1 (ko) | 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법 | |
WO2017074078A1 (en) | Method for operating electronic device and electronic device for supporting the same | |
WO2018155893A1 (en) | Interface providing method for multitasking and electronic device implementing the same | |
WO2017026709A1 (ko) | 전자 기기의 해상도 조정 방법 및 장치 | |
WO2017191957A1 (ko) | 화면 표시 방법 및 이를 지원하는 전자 장치 | |
WO2016085253A1 (en) | Screen configuration method, electronic device, and storage medium | |
WO2016167620A1 (en) | Apparatus and method for providing information via portion of display | |
WO2016114609A1 (en) | Electronic device and method of processing information in electronic device | |
WO2017164680A1 (ko) | 디스플레이를 가진 전자 장치 | |
WO2017022971A1 (ko) | 전자 장치에서 디스플레이 방법 및 장치 | |
WO2017007217A1 (en) | Method for displaying web content and electronic device supporting the same | |
WO2018174426A1 (ko) | 전자 장치의 상태에 따른 외부 장치 제어 방법 및 장치 | |
EP3469468A1 (en) | Method and electronic device for recognizing touch | |
WO2017095203A2 (en) | Electronic device and method for displaying a notification object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17889992 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17889992 Country of ref document: EP Kind code of ref document: A1 |