[go: up one dir, main page]

KR20160061133A - 이미지 표시 방법 및 그 전자 장치 - Google Patents

이미지 표시 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20160061133A
KR20160061133A KR1020140163661A KR20140163661A KR20160061133A KR 20160061133 A KR20160061133 A KR 20160061133A KR 1020140163661 A KR1020140163661 A KR 1020140163661A KR 20140163661 A KR20140163661 A KR 20140163661A KR 20160061133 A KR20160061133 A KR 20160061133A
Authority
KR
South Korea
Prior art keywords
electronic device
scene
display
sub
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020140163661A
Other languages
English (en)
Inventor
손지형
김남호
김정민
심성호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140163661A priority Critical patent/KR20160061133A/ko
Priority to EP15194700.9A priority patent/EP3023971A3/en
Priority to US14/947,082 priority patent/US9940087B2/en
Priority to CN201510817758.9A priority patent/CN105635771A/zh
Publication of KR20160061133A publication Critical patent/KR20160061133A/ko
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/323Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections between game devices with different hardware characteristics, e.g. hand-held game devices connectable to game consoles or arcade machines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1068Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad
    • A63F2300/1075Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to detect the point of contact of the player on a surface, e.g. floor mat, touch pad using a touch screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/204Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform the platform being a handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/403Connection between platform and handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/609Methods for processing data by generating or executing the game program for unlocking hidden game elements, e.g. features, items, levels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

다양한 실시 예에 따르면, 전자 장치의 멀티 디스플레이 서비스 방법에 있어서, 연결된 상대방 전자 장치에 표시된 메인 장면과 특정 프로그램의 진행을 동기화하는 동작과, 상기 특정 프로그램으로부터 상기 메인 장면과 관련된 서브 장면을 결정하는 동작과, 상기 서브 장면을 상기 전자 장치에 표시하는 동작을 포함할 수 있다. 전자 장치의 동작 방법에 있어서 상술한 방법에 한정하지 않고 본 발명의 동일 또는 유사한 범위에서 다른 실시 예가 가능하다.

Description

이미지 표시 방법 및 그 전자 장치{METHOD FOR DISPALYING IMAGE AND ELECTRONIC DEVICE THEREOF}
본 발명의 다양한 실시 예는 전자 장치에서 이미지를 표시하는 방법 및 그 전자 장치에 관한 것이다.
멀티 스크린(또는 멀티 디스플레이) 서비스는 복수의 전자장치들이 화면을 공유하거나 또는 원격 제어할 수 있는 서비스가 될 수 있다. 예를 들어, 멀티 스크린 게임은 실행화면을 표시하는 전자장치와 실행화면을 표시를 제어하는 전자장치를 포함할 수 있다. 상기 멀티 스크린 게임의 경우, 실행화면을 표시하는 전자장치는 텔레비전이 될 수 있으며, 입력장치는 휴대 단말기가 될 수 있다. 즉, 텔레비전을 이용하는 멀티 스크린 게임은 휴대 단말기를 입력장치(예: virtual joystick)로 사용할 수 있다.
다양한 실시 예에 따르면, 전자 장치는 적어도 하나의 다른 전자 장치(상대방 전자 장치)와 네트워크 통신으로 연결할 수 있고, 특정 프로그램의 데이터를 송수신할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 프로그램을 수행함에 있어서, 상대방 전자 장치로부터 제어 데이터를 수신할 수 있고, 수신한 제어 데이터를 기반으로 수행 중인 프로그램을 제어할 수 있다.
상기 멀티 스크린 서비스를 수행할 때, 메인 화면을 표시하는 전자장치가 멀티 스크린 기능을 표시하고, 다른 전자장치는 멀티 스크린을 표시하는 전자장치를 원격 제어하기 위한 입력장치로 사용하였다. 그러나 멀티 스크린 기능 서비스는 전자장치들 간에 다양한 형태로 컨텐츠를 공유하는 형태로 발전할 수 있다. 예를 들면 하나의 전자장치가 멀티 스크린 기능을 메인 화면으로 표시하면, 다른 전자장치가 메인 화면의 표시하는 전자장치의 일부 화면을 표시하거나 또는 메인 화면의 특정 효과를 제공하는 화면을 표시할 수 있다.
다양한 실시 예에 따르면, 멀티 스크린 서비스를 실행하는 적어도 두 개의 전자장치들이 화면을 표시할 때 적어도 하나의 전자장치가 멀티 스크린 서비스되는 화면의 일부 영역의 화면과 동기화되는 화면을 서브 화면을 표시할 수 있다. 또한 멀티 스크린 서비스를 실행하는 적어도 두 개의 전자장치들이 화면을 표시할 때 적어도 하나의 전자장치가 멀티 스크린 서비스되는 화면의 일부 영역의 화면에 설정된 효과를 제공하는 서브 화면을 표시할 수 있다.
다양한 실시 예에 따라 멀티 스크린 서비스를 수행하는 전자장치들은 각각 서로 다른 크기의 디스플레이를 가지며, 작은 크기의 디스플레이를 가지는 전자장치가 큰 크기의 디스플레이를 가지는 전자장치의 화면의 일부 영역의 화면에 동기되는 서브화면을 표시할 수 있다.
다양한 실시 예에 따라 멀티 스크린 서비스를 수행하는 전자장치들은 각각 서로 다른 크기를 가지는 디스플레이를 가지며, 작은 크기의 디스플레이를 가지는 전자장치가 큰 크기의 디스플레이를 가지는 전자장치의 메인 화면의 일부 영역에 설정된 부가 기능의 효과를 제공하는 서브화면을 표시할 수 있다.
다양한 실시 예에 따르면, 특정 프로그램의 동작을 수행함에 있어서, 네트워크 통신으로 연결된 적어도 하나의 다른 전자 장치의 디스플레이를 통해서 진행 중인 이벤트의 지정된 장면을 표시할 수 있다.
다양한 실시 예에 따르면, 특정 프로그램을 수행하는 전자 장치 및 다른 전자 장치는 특정 이벤트를 각각 독립적으로 진행할 수 있고, 진행된 이벤트에 대한 정보를 공유할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 상대방 전자 장치와 페어링을 통해, 특정 프로그램을 동시에 실행하는 동작과, 상기 상대방 전자 장치를 제어하기 위한 사용자 인터페이스 장면을 표시하는 동작 및 상기 특정 프로그램의 시나리오 및 이벤트 중 적어도 어느 하나에 기반하여, 상기 상대방 전자 장치에 표시된 장면과 연관된 서브 장면을 표시하는 동작을 포함할 수 있다.
다양한 실시 예에 따른 전자 장치는, 통신 모듈, 디스플레이 모듈 및 상기 통신 모듈과 상기 디스플레이 모듈을 제어하는 프로세서를 포함하되, 상기 프로세서는, 상기 통신 모듈을 제어하여, 상대방 전자 장치와 페어링을 통해, 특정 프로그램을 동시에 실행하고, 상기 디스플레이 모듈을 제어하여, 상기 상대방 전자 장치를 제어하기 위한 사용자 인터페이스 장면을 표시하고, 상기 특정 프로그램의 시나리오와 이벤트 중 적어도 어느 하나에 기반하여, 상기 상대방 전자 장치의 디스플레이 장면에 연관된 서브 장면을 표시할 수 있다.
다양한 실시 예에 따른 전자 장치는, 멀티 이미지 프레임 촬영 모드에 대응되는 촬영 조건을 결정하는 동작과, 상기 결정된 촬영 조건에 포함된 촬영 횟수에 따라 다수의 이미지 프레임들을 촬영하는 동작과, 및 상기 촬영된 다수의 이미지 프레임들에 기반하여, 사전에 설정된 해상도의 이미지를 생성하는 동작을 수행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장매체를 포함할 수 있다.
다양한 실시 예에 따르면, 전자 장치는 네트워크 통신으로 연결된 적어도 하나의 다른 전자 장치와 특정 프로그램을 수행함에 있어서, 진행되는 이벤트에 해당하는 다양한 장면을 둘 이상의 디스플레이를 통해서 제공함으로써 특정 프로그램의 진행에 해당하는 사용자의 몰입도를 높일 수 있다.
도 1은 다양한 실시 예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는 본 발명의 다양한 실시 예들에 따른 전자 장치의 블록 도면이다.
도 3은 다양한 실시 예에 따른 전자 장치에서 특정 프로그램의 이벤트를 표시하는 도면이다.
도 4는 다양한 실시 예에 따른 전자 장치의 서브 디스플레이에 지정된 장면을 표시하는 동작을 도시하는 도면이다.
도 5는 다양한 실시 예에 따른 전자 장치의 디스플레이에 지정된 장면을 표시하는 도면이다.
도 6은 다양한 실시 예에 따른 전자 장치의 방향에 대응하여 지정된 장면을 디스플레이에 표시하는 도면이다.
도 7은 다양한 실시 예에 따른 전자 장치의 디스플레이에 지정된 장면을 표시하는 도면이다.
도 8은 다양한 실시 예에 따른 전자 장치의 서브 디스플레이에 지정된 장면을 표시하는 동작을 도시하는 도면이다.
도 9는 다양한 실시 예에 따른 전자 장치에서 다른 전자 장치와 디스플레이 좌표를 동기화하는 도면이다.
도 10은 다양한 실시 예에 따른 전자 장치에서 다른 전자 장치와 디스플레이 좌표를 동기화하는 도면이다.
도 11은 다양한 실시 예에 따른 전자 장치에서 특정 프로그램의 이벤트를 표시하는 동작의 흐름을 도시한다.
도 12는 다양한 실시 예에 따른 전자 장치에서 디스플레이에 표시된 장면을 제어하는 동작을 도시하는 도면이다.
도 13은 다양한 실시 예에 따른 전자 장치에서 이벤트의 장면을 동기화 하는 동작을 도시하는 도면이다.
이하, 본 발명의 다양한 실시 예를 첨부된 도면과 관련하여 기재된다.
본 발명의 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예가 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호를 사용할 수 있다.
본 발명의 다양한 실시 예 가운데 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에서 ‘또는’,’적어도 하나’ 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, ‘A 또는 B’, ‘A 및/또는 B 중 적어도 하나’는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시 예에서 ‘제1’, ’제2’, ’첫째’ 또는 ’둘째’등의 표현들이 본 발명의 실시 예에서 다양한 구성 요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 에를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 더하여, 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시 예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 발명의 다양한 실시 예에서 어떤 구성요소가 다른 구성요소에 ‘연결되어’ 있다거나 ‘접속되어’ 있다고 언급된 때에는, 어떤 구성 요소가 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 어떤 구성 요소와 다른 구성 요소 사이에 새로운 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 ‘직접 연결되어’ 있다거나 ‘직접 접속되어’ 있다고 언급된 때에는, 어떤 구성 요소와 다른 구성 요소 사이에 새로운 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시 예에서 사용한 용어는 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다른 것으로 명시하지 않는 한 복수의 표현을 포함할 수 있다. 더하여, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 통신 인터페이스가 포함된 장치일 수 있다. 예를 들면, 전자 장치는 통신 기능을 포함한 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smartwatch)) 중 어느 하나일 수 있고, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 전자 액자와 같은 스마트 가전 제품(smart home appliance) 중에서 어느 하나일 수 있고, 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 또는 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중에서 어느 하나일 수 있고, 및/또는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector) 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시 예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 1을 참조하면, 전자 장치 101는 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 140, 디스플레이 150, 또는 통신 인터페이스 160 중에서 적어도 하나를 포함할 수 있다.
버스 110는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신 신호(예: 제어 메시지)를 전달하는 회로일 수 있다.
프로세서 120는, 예를 들면, 버스 110를 통해 전술한 다른 구성요소들(예: 메모리 130, 입출력 인터페이스 140, 디스플레이 150, 또는 통신 인터페이스 160)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
프로세서 120은 전자 장치 101에 적어도 하나 이상 포함되어 전자 장치 101의 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 프로세서 120은 하나 이상의 어플리케이션 프로세서(AP: application processor) 및 하나 이상의 마이크로 컨트롤러(MCU: micro controller unit))을 포함할 수 있다. 다른 실시 예에 따르면, 프로세서 210은 어플리케이션으로서 하나 이상의 마이크로 컨트롤러를 포함하거나, 하나 이상의 마이크로 컨트롤러와 기능적으로 연결될 수 있다. 도 1에서는, AP와 MCU는 하나의 IC 패키지에 포함될 수 있고, 별도로 구성되어 서로 다른 IC 패키지 내에 각각 포함될 수 있다. 한 실시 예에 따르면, MCU는 AP의 IC 패키지에 포함되어 하나의 IC 패키지로 구성될 수도 있다. 프로세서 210의 구성 요소로 AP 또는 MCU를 포함하는 것으로 도시하고 있지만 이는 명확한 이해를 위한 실시 예로서, 프로세서 120이 AP 및/또는 MCU 동작을 수행할 수도 있음은 자명하다.
AP는 운영체제 또는 응용 프로그램(또는 어플리케이션)을 구동하여 AP에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 210은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
MCU는 지정된 동작을 수행하도록 설정된 프로세서일 수 있다. 한 실시 예에 따르면, MCU는 하나 이상의 지정된 모션 센서(예: 자이로 센서, 가속도 센서 또는 지자기 센서)를 통해서 센싱 정보를 획득할 수 있고, 획득한 센싱 정보를 비교할 수 있고, 전자 장치 101의 데이터베이스를 참고하여 지정된 센서의 동작 상태를 결정할 수 있다.
한 실시 예에 따르면, AP 또는 MCU는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 또는 MCU는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
메모리 130(예: 메모리 230)는, 프로세서 120 또는 다른 구성요소들(예: 입출력 인터페이스 140, 디스플레이 150, 통신 인터페이스 160으로부터 수신되거나 프로세서 120 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 메모리 130는, 예를 들면, 커널 131, 미들웨어 132, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 133 또는 어플리케이션 134 등의 프로그래밍 모듈들을 포함할 수 있다. 상술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
커널 131은 나머지 다른 프로그래밍 모듈들, 예를 들면, 미들웨어 132, API 133 또는 어플리케이션 134에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스 110, 프로세서 120 또는 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 커널 131은 미들웨어 132, API 133 또는 어플리케이션 134이 전자 장치 101의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어 132는 API 133 또는 어플리케이션 134이 커널 131과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어 132는 어플리케이션 134로부터 수신된 작업 요청들과 관련하여, 예를 들면, 어플리케이션 134 중 적어도 하나의 어플리케이션에 전자 장치 101의 시스템 리소스(예: 버스 110, 프로세서 120 또는 메모리 130 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
API 133는 어플리케이션 134이 커널 131 또는 미들웨어 132에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
어플리케이션(또는 프로세서) 134는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강 관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 어플리케이션(또는 프로세서) 134는 전자 장치 101와 외부 전자 장치(예: 전자 장치 102 또는 전자 장치 104) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 정보 교환과 관련된 어플리케이션은, 예를 들어, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다. 상술한 어플리케이션들의 예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치 101 의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치 104)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치 104)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치 101와 통신하는 외부 전자 장치(예: 전자 장치 104)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다. 다양한 실시 예에 따르면, 어플리케이션 134은 외부 전자 장치(예: 전자 장치 102 또는 전자 장치 104)의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션 134은 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션 134은 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 상기 어플리케이션 134은 전자 장치 101에 지정된 어플리케이션 또는 외부 전자 장치(예: 서버 106 또는 전자 장치 104)로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다. 지문 처리 프로그램 135는 어플리케이션 134에 포함되어 제공할 수 있고, 또는 별도의 프로그램으로 메모리 130에 저장될 수 있다.
다양한 실시 예에 따르면 표시 처리 프로그램 135는, 연결된 상대방 전자 장치에 표시된 메인 장면과 특정 프로그램의 진행을 동기시키고, 특정 프로그램으로부터 메인 장면과 관련된 서브 장면을 결정하고, 서브 장면을 전자 장치에 표시할 수 있다. 한 실시 예에 따르면, 특정 프로그램은, 상대방 전자 장치에 메인 장면을 표시하는 프로그램의 전체 또는 일부이고, 전자 장치에 저장된 상태일 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 서브 장면을 제어하고, 상대방 전자 장치의 디스플레이에 표시된 장면을 제어된 서브 장면과 동기화할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 메인 장면의 일부 영역을 캡쳐하고, 캡쳐한 일부 영역의 사이즈와 밝기 중 적어도 어느 하나를 변경하여 서브 장면을 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 캡쳐한 영역을 전자 장치의 디스플레이에 전체 화면 사이즈로 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 전자 장치의 카메라 촬영과 사용자 터치 중 적어도 어느 하나의 입력에 의해 일부 영역을 캡처하고, 상대방 전자 장치와 전자 장치 간의 디스플레이 좌표 동기화를 통해, 일부 영역을 서브 장면으로 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 메인 장면을 제어하기 위한 리모트 컨트롤러 형상의 그래픽 이미지와 터치 버튼을 서브 장면으로 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 캡처한 영역에 대응하여 사전에 설정된 서브 이미지들 중 어느 하나를 서브 장면으로 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 메인 장면과 연동하도록, 사전에 설정된 이미지들 중 어느 하나를 획득하여 서브 장면을 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 메인 장면 중 일부 영역과 연동되되, 메인 장면과는 다른 장면의 이미지로서, 상대방 전자 장치와 전자 장치 중 적어도 어느 하나에 저장되는 서브 이미지들을 처리할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 전자 장치의 가속도 센서, 기울기 센서, 속도 센서, 자이로스코프 센서 중 적어도 어느 하나의 센서 값에 따라 변경하여 서브 장면으로 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 특정 프로그램의 시나리오 및 이벤트 중 적어도 어느 하나에 기반하여, 메인 장면과 연관된 장면을 서브 장면으로 표시할 수 있다.
다양한 실시 예에 따르면 표시 처리 프로그램 135는, 통신 모듈을 제어하여, 상대방 전자 장치와 페어링을 통해, 특정 프로그램을 동시에 실행하고, 디스플레이 모듈을 제어하여, 상대방 전자 장치를 제어하기 위한 사용자 인터페이스 장면을 표시하고, 특정 프로그램의 시나리오와 이벤트 중 적어도 어느 하나에 기반하여, 상대방 전자 장치의 디스플레이 장면에 연관된 서브 장면을 표시할 수 있다.
한 실시 예에 따르면, 표시 처리 프로그램 135는, 터치스크린을 구비하고, 상대방 전자 장치는, 터치스크린 보다 큰 스크린을 구비하고, 특정 프로그램은, 멀티 스크린 게임용 프로그램일 수 있다. 한 실시 예에 따르면, 한 실시 예에 따르면, 표시 처리 프로그램 135는, 디스플레이 모듈을 제어하여, 사용자 인터페이스 장면으로서, 상대방 전자 장치를 제어하기 위한 리모트 컨트롤러 형상의 그래픽 이미지와 터치 버튼을 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 특정 프로그램의 시나리오와 이벤트 중 적어도 어느 하나에 기반하여, 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 캡처한 영역의 사이즈와 밝기 중 적어도 어느 하나를 변경하여 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는 전자 장치의 카메라 촬영과 사용자 터치 중 적어도 어느 하나의 입력에 의해 일부 영역을 캡처하고, 캡처된 일부 영역은, 상대방 전자 장치와 전자 장치 간의 디스플레이 좌표 동기화를 통해, 서브 장면으로 표시될 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 특정 프로그램의 시나리오와 이벤트 중 적어도 어느 하나에 기반하여, 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 캡처한 영역에 연동하도록, 사전에 설정된 서브 이미지들 중 어느 하나를 획득하여 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 상대방 전자 장치의 디스플레이 장면 중 일부 영역과 서브 이미지들을 연동하되, 디스플레이 장면과는 다른 장면의 이미지로서, 상대방 전자 장치와 전자 장치 중 적어도 어느 하나에 저장될 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 특정 프로그램의 시나리오와 이벤트 중 적어도 어느 하나에 기반하여, 상대방 전자 장치의 디스플레이 장면과 연동하도록, 사전에 설정된 서브 이미지들 중 어느 하나를 획득하여 표시할 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 상대방 전자 장치의 디스플레이 장면과 서브 이미지들을 연동하되, 디스플레이 장면과는 다른 장면의 이미지로서, 상대방 전자 장치와 전자 장치 중 적어도 어느 하나에 저장될 수 있다. 한 실시 예에 따르면, 표시 처리 프로그램 135는, 가속도 센서, 속도 센서, 기울기 센서, 자이로스코프 센서 중 적어도 어느 하나의 센서 값에 따라 이미지들을 변경하여 표시할 수 있다.
입출력 인터페이스 140은, 인/출력 장치(예: 가속도 센서, 자이로 센서와 같은 다양한 센서들 및/또는 키보드 또는 터치 스크린과 같은 장치)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 버스 110를 통해 프로세서 120, 메모리 130, 또는 통신 인터페이스 160에 전달할 수 있다. 예를 들면, 입출력 인터페이스 140은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 프로세서 120으로 제공할 수 있다. 또한, 입출력 인터페이스 140은, 예를 들면, 버스 110을 통해 프로세서 120, 메모리 130, 또는 통신 인터페이스 160으로부터 수신된 명령 또는 데이터를 출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 입출력 인터페이스 140은 프로세서 120를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
디스플레이 150은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다. 또한 디스플레이 150은 입력 수단을 디스플레이에 터치 또는 근접 터치하여 명령을 입력하는 터치 스크린으로 구성될 수도 있다.
통신 인터페이스 160(예: 통신 모듈 220)은 전자 장치 101와 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들면, 통신 인터페이스 160은 무선 통신 또는 유선 통신을 통해서 네트워크 162에 연결되어 외부 장치와 통신할 수 있다. 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
본 발명의 한 실시 예에 따르면, 네트워크 162는 통신 네트워크(telecommunications network)일 수 있다. 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 101와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션 134, 어플리케이션 프로그래밍 인터페이스 133, 미들웨어 132, 커널 131 또는 통신 인터페이스 160 중 적어도 하나에서 지원될 수 있다.
한 실시 예에 따르면, 상기 서버 106는 상기 전자 장치 101에서 구현되는 동작(또는, 기능)들 중 적어도 하나의 동작을 수행함으로써, 상기 전자 장치 101의 구동을 지원할 수 있다. 예를 들면, 상기 서버 106는 상기 전자 장치 101에서 이하 후술되는 볼 발명의 다양한 실시 예를 수행하도록 제어하는 프로세서 120 또는 다양한 실시 예를 수행하도록 지정된 특정 모듈을 지원할 수 있는 서버 모듈(예: 서버 컨트롤러, 또는 서버 프로세서, 미도시)을 포함할 수 있다. 예컨대, 서버 모듈은 프로세서 120 또는 특정 모듈의 적어도 하나의 구성요소를 포함하여, 프로세서 120 또는 특정 모듈이 수행하는 동작들 중 적어도 하나의 동작을 수행(예: 대행)할 수 있다. 다양한 실시 예에 따르면, 서버 모듈은 도 1의 표시 처리 서버 모듈 108로 나타낼 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 통신 인터페이스 160을 통해서 적어도 하나의 다른 전자 장치(예: 전자 장치 102)와 네트워크 통신으로 연결할 수 있다. 전자 장치 101은 네트워크 통신으로 전자 장치 102와 연결함에 있어서, 적어도 하나의 근거리 무선 통신 방식으로 다른 전자 장치(예: 전자 장치 102)와 연결할 수 있다. 근거리 무선 통신 방식은 와이파이(wireless fidelity, wi-fi) 통신, 블루투스(Bluetooth, BT) 통신, BLE(bluetooth low energy) 통신, NFC(near field communication) 통신, NFMI(Near Field Magnetic Induction) 통신, FM(Frequency Modulation) 통신 중 적어도 하나의 통신 방식을 사용하는 통신 방식일 수 있다. 전자 장치 110은 전자 장치 102와 네트워크 통신으로 연결함에 있어서 패어링 동작을 수행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 전자 장치 102와 특정 프로그램을 동시에 실행할 수 있다. 전자 장치 101은 전자 장치102와 특정 프로그램을 동시에 실행함에 있어서, 특정 프로그램을 수행하는 도중에 적어도 한번의 동기화 동작을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 통신 인터페이스 160을 통해서 전자 장치 102와 네트워크 통신(예: 근거리 무선 통신)으로 연결할 수 있다. 전자 장치 101은 근거리 무선 통신을 통해서 전자 장치 102와 특정 프로그램을 동시에 실행할 수 있다.
전자 장치 101 및 전자 장치 102는 특정 프로그램을 수행함에 있어서, 각각의 장치에 특정 프로그램을 포함할 수 있다. 또는 적어도 하나의 장치(예: 전자 장치 102)에 특정 프로그램을 모두 포함하고, 전자 장치 101은 특정 프로그램의 적어도 일부(예: 특정 이벤트 또는 특정 시나리오에 해당하는 부분)를 포함할 수 있다. 한 실시 예에 따르면, 전자 장치 101 및/또는 전자 장치 102는 특정 프로그램을 시작하는 과정에서 동기화 동작을 수행할 수 있다. 예컨대, 전자 장치 101에서 특정 프로그램을 실행한 시점 및 전자 장치 102에서 특정 프로그램을 실행한 시점이 동일하지 않은 경우 특정 프로그램의 이벤트(또는 시나리오)가 진행되는 진행 속도에 차이가 있을 수 있다. 더하여, 전자 장치 101의 데이터 처리 속도 및 전자 장치 102의 데이터 처리 속도가 동일하지 않는 경우에도 특정 프로그램의 이벤트가 진행되는 진행 속도에 차이가 있을 수 있다. 전자 장치 101은 특정 프로그램을 실행하는 시점에 전자 장치 102와 특정 프로그램의 이벤트 진행 시점을 결정(예: 일치)하기 위한 동기화 과정을 수행할 수 있다. 예컨대, 전자 장치 101은 특정 프로그램 및/또는 특정 프로그램에서 진행하는 이벤트의 진행 시점에 대한 패킷 데이터를 송수신함으로써 특정 프로그램 및/또는 이벤트의 진행 시점을 동기화할 수 있다. 전자 장치 101은 전자 장치 102과 동시에 실행하는 특정 프로그램 및/또는 이벤트의 진행 시점을 동기화하기 위해서 특정 프로그램을 실행하는 시점, 프로그램의 이벤트를 실행하는 시점, 프로그램의 이벤트를 종료하는 시점, 프로그램의 시나리오를 실행하는 시점, 프로그램의 시나리오를 종료하는 시점과 같이 지정된 시점에 전자 장치 102와 진행 시점을 동기화할 수 있다.
전자 장치 101은 전자 장치 102와 특정 프로그램의 장면을 표시함에 있어서, 전자 장치 102의 디스플레이 및 전자 장치 101의 디스플레이 150을 메인 디스플레이 및 서브 디스플레이로 구분하여 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101 및 전자 장치 102에서 특정 프로그램(예: 게임 프로그램)을 실행하는 경우, 특정 프로그램의 메인 시나리오에 해당하는 장면은 전자 장치 102의 디스플레이를 통해서 표시할 수 있고, 서브 시나리오(및/또는 특정 이벤트)에 해당하는 장면은 전자 장치 101의 디스플레이 150을 통해서 표시할 수 있다. 전자 장치 101은 특정 이벤트에 해당하는 장면을 디스플레이 150에 표시함에 있어서, 이벤트의 시작 시점에 메인 시나리오를 진행하는 전자 장치 102로부터 특정 이벤트를 진행하도록 요청하는 데이터를 수신할 수 있다. 또는 전자 장치 101은 지정된 시간 간격으로 전자 장치 102와 주기적으로 또는 특정 시점에 동기화된 상태에서 전자 장치 101의 진행 시간(예: 특정 프로그램의 시나리오 진행 시간)을 기반으로 전자 장치 102의 시나리오 진행과 독립하여 특정 이벤트의 시작 시점을 결정할 수 있다. 전자 장치 101은 진행 중인 시나리오를 전자 장치 102의 디스플레이에 표시하는 중에 특정 이벤트에 해당하는 장면을 전자 장치 101의 디스플레이 150에 표시할 수 있다.
다양한 실시 예에 따르면, 특정 프로그램을 진행하는 도중에 전자 장치 101의 디스플레이 150 및/또는 전자 장치 102의 디스플레이에 표시하는 장면은 상술한 설명에 한정하지 않고, 시나리오 및 이벤트 중 어느 하나에 해당하는 장면을 표시할 수 있을 것이다. 여기에서 시나리오 및 이벤트에 대한 용어는 의미상 구분한 것으로 통상적으로 사용하는 시나리오 또는 이벤트의 의미로 정의할 수 있고, 본 발명의 다양한 실시 예에서는, 이벤트는 시나리오의 특정 부분을 진행함에 있어서 발생하는 사건으로 정의할 수 있다. 더하여, 시나리오는 전체적인 스토리(이야기)의 진행을 표현할 수 있고, 이벤트는 시나리오의 일부에 대한 진행을 표현할 수 있다. 더하여, 시나리오는 메인 스토리를 표현할 수 있고, 이벤트는 진행 중인 시나리오의 일부 에 해당하는 서브 스토리를 표현할 수 있다. 상술한 설명을 참조하면, 시나리오는 이벤트의 상위 개념인 것으로 정의하고 있지만, 이에 한정하지 않고, 이벤트가 시나리오의 상위 개념일 수도 있음은 자명하다. 이하 설명에서는, 시나리오 및 이벤트를 구분하지 않고, 이벤트의 용어로 통일하여 사용할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101 및 전자 장치 102는 동일/또는 유사한 시나리오를 진행하는 특정 프로그램을 동시에 진행할 수 있고, 각각의 진행 시점을 동기화할 수 있다. 전자 장치 101 및 전자 장치 102는 특정 프로그램에서 진행하는 각각의 진행 시점에 해당하는 장면을 전자 장치 101의 디스플레이 150 및 전자 장치 102의 디스플레이에 표시할 수 있다. 이하 설명에서 전자 장치 102의 디스플레이를 메인 디스플레이로 표현할 수 있고, 전자 장치 101의 디스플레이를 서브 디스플레이로 표현할 수 있다. 다양한 실시 예에 따르면, 전자 장치 101과 동일 또는 유사한 장치(예: 전자 장치 103)을 도 추가하여 특정 프로그램을 진행할 수 있고, 이 경우, 전자 장치 101의 디스플레이 150을 제1 서브 디스플레이로 표현할 수 있고, 전자 장치 103의 디스플레이를 제2 서브 디스플레이로 표현할 수 있다. 여기에서, 적어도 하나의 전자 장치는 각각의 디스플레이에 특정 이벤트의 장면을 표시하는 경우, 메인 디스플레이에 표시하는 장면을 메인 장면, 서브 디스플레이에 표시하는 장면을 서브 장면으로 표현할 수 있고, 서브 디스플레이가 둘 이상 존재하는 경우, 제1 서브 장면 또는 제2 서브 장면으로 표현할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 표시되는 장면을 제어함으로써 및/또는 전자 장치의 방향, 속도 등의 움직임을 제어함으로써 전자 장치 102의 디스플레이에 표시되는 장면의 진행을 제어할 수 있다.
후술하는 도 2 내지 도 13을 통하여 상기 전자 장치 101에 대한 추가적인 정보를 제공할 수 있다.
도 2는 본 발명의 다양한 실시 예들에 따른 전자 장치의 블록 도면이다.
전자 장치 201은, 예를 들면, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 구성할 수 있고, 또는 전자 장치 101의 전체 또는 일부의 구성을 확장할 수 있다. 도 2를 참조하면, 전자 장치 201는 적어도 하나의 프로세서 210, 통신 모듈 220, SIM(subscriber identification module) 카드 224, 메모리 230, 센서 모듈 240, 입력 장치 250, 디스플레이 260, 인터페이스 270, 오디오 모듈 280, 카메라 모듈 291, 전력관리 모듈 295, 배터리 296, 인디케이터 297 및 모터 298 를 포함할 수 있다.
프로세서 210은 전자 장치 101에 적어도 하나 이상 포함되어 전자 장치 101의 지정된 기능을 수행할 수 있다. 한 실시 예에 따르면, 프로세서 210은 하나 이상의 어플리케이션 프로세서(AP: application processor) 및 하나 이상의 마이크로 컨트롤러(MCU: micro controller unit))을 포함할 수 있다. 다른 실시 예에 따르면, 프로세서 210은 어플리케이션으로서 하나 이상의 마이크로 컨트롤러를 포함하거나, 하나 이상의 마이크로 컨트롤러와 기능적으로 연결될 수 있다. 도 1에서는, AP와 MCU는 하나의 IC 패키지에 포함될 수 있고, 별도로 구성되어 서로 다른 IC 패키지 내에 각각 포함될 수 있다. 한 실시 예에 따르면, MCU는 AP의 IC 패키지에 포함되어 하나의 IC 패키지로 구성될 수도 있다. 프로세서 210의 구성 요소로 AP 또는 MCU를 포함하는 것으로 도시하고 있지만 이는 명확한 이해를 위한 실시 예로서, 프로세서 210이 AP 및/또는 MCU 동작을 수행할 수도 있음은 자명하다.
AP는 운영체제 또는 응용 프로그램(또는 어플리케이션)을 구동하여 AP에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. AP는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 210은 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
MCU는 지정된 동작을 수행하도록 설정된 프로세서일 수 있다. 한 실시 예에 따르면, MCU는 하나 이상의 지정된 모션 센서(예: 자이로 센서 140b, 가속도 센서 140e 또는 지자기 센서 140p)를 통해서 센싱 정보를 획득할 수 있고, 획득한 센싱 정보를 비교할 수 있고, 전자 장치 101의 데이터베이스를 참고하여 지정된 센서(예: 지자기 센서 140p)의 동작 상태를 결정할 수 있다. 더하여, 도 1에서는, MCU와 센서 모듈 140의 구성요소들이 MCU와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, MCU가 전술한 센서 모듈 140의 구성요소들의 적어도 일부(예: 자이로 센서 140b, 가속도 센서 140e 및 지자기 센서 140p 중에서 적어도 하나)를 포함하도록 구현될 수 있다.
한 실시 예에 따르면, AP 또는 MCU는 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 또는 MCU는 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈 220(예: 통신 인터페이스 160)은 전자 장치 101과 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치 102, 전자 장치 104 또는 서버 106) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시 예에 따르면, 통신 모듈 220은 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227, NFC 모듈 228 및 RF(radio frequency) 모듈 229를 포함할 수 있다.
셀룰러 모듈 221은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 셀룰러 모듈 221은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 224)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 221은 AP 210가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 셀룰러 모듈 221은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
본 발명의 한 실시 예에 따르면, 셀룰러 모듈 221은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 셀룰러 모듈 221은, 예를 들면, SoC로 구현될 수 있다. 도 2에서는 셀룰러 모듈221(예: 커뮤니케이션 프로세서), 메모리 230 또는 전력관리 모듈 295 등의 구성요소들이 AP 210와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, AP 210가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈221)를 포함하도록 구현될 수 있다.
본 발명의 한 실시 예에 따르면, AP 210 또는 셀룰러 모듈 221(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, AP 210 또는 셀룰러 모듈 221은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
Wifi 모듈 223, BT 모듈 225, GPS 모듈 327 또는 NFC 모듈 228 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 221에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 223에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
RF 모듈 229는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기RF 모듈 229는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, RF 모듈 229는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 2에서는 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 및 NFC 모듈 228이 하나의 RF 모듈 229을 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈 221, Wifi 모듈 223, BT 모듈 225, GPS 모듈 227 또는 NFC 모듈 228 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
SIM 카드 224는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. SIM 카드 224는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리 230(예: 메모리 130)는 내장 메모리 232 또는 외장 메모리 234를 포함할 수 있다. 내장 메모리 232는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 내장 메모리 232는 Solid State Drive (SSD)일 수 있다. 외장 메모리 234는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 외장 메모리 234는 다양한 인터페이스를 통하여 전자 장치 201과 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 전자 장치 201는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
센서 모듈 240은 물리량을 계측하거나 전자 장치 201의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈 240은, 예를 들면, 제스처 센서 240A, 자이로 센서 240B, 기압 센서 240C, 마그네틱 센서 240D, 가속도 센서 240E, 그립 센서 240F, 근접 센서 240G, color 센서 240H(예: RGB(red, green, blue) 센서), 생체 센서 240I, 온/습도 센서 240J, 조도 센서 240K 또는 UV(ultra violet) 센서 240M중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈 240은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 센서 모듈 240은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
입력 장치250은 터치 패널(touch panel) 252, (디지털) 펜 센서(pen sensor) 254, 키(key) 256 또는 초음파(ultrasonic) 입력 장치 258를 포함할 수 있다. 터치 패널 252은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 검출할 수 있다. 또한, 터치 패널 252은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 검출이 가능하다. 터치 패널 252은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널 252은 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서 254는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 검출용 쉬트(sheet)를 이용하여 구현될 수 있다. 키 256는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 초음파(ultrasonic) 입력 장치 258는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 201에서 마이크(예: 마이크 288)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 검출이 가능하다. 한 실시 예에 따르면, 전자 장치 201는 통신 모듈 220를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
디스플레이 260(예: 디스플레이 150)은 패널 262, 홀로그램 장치 264 또는 프로젝터 266을 포함할 수 있다. 패널 262은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 패널 262은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 262은 터치 패널 252과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치 264은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터 266는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치 201의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이 260은 패널 262, 홀로그램 장치 264, 또는 프로젝터 266를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스 270는, 예를 들면, HDMI(high-definition multimedia interface) 372, USB(universal serial bus) 274, 광 인터페이스(optical interface) 276 또는 D-sub(D-subminiature) 278를 포함할 수 있다. 인터페이스 270는, 예를 들면, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스 270는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈280은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈 280의 적어도 일부 구성요소는, 예를 들면, 도 1에 도시된 입출력 인터페이스 140에 포함될 수 있다. 오디오 모듈280은, 예를 들면, 스피커 282, 리시버 284, 이어폰 286 또는 마이크 288 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. 카메라 모듈 291은, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
전력 관리 모듈 295은, 전자 장치 201의 전력을 관리할 수 있다. 도시하고 있지는 않지만, 전력 관리 모듈 295는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. 다양한 실시 예에 따르면, PMIC는 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다.
한 실시 예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 배터리 296의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리 296는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 전자 장치 201에 전원을 공급할 수 있다. 배터리 296는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터 297는 전자 장치 201 혹은 그 일부(예: AP 210)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태(SOC: State Of Charge) 등을 표시할 수 있다. 모터 298는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 전자 장치 201는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치의 전술한 구성 요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
멀티 스크린 서비스는 네트워크를 통해 연결될 수 있는 전자장치(예: 텔레비전, 휴대단말기, 태블릿, 컴퓨터, 자동차 등)들을 이용하여 정보와 컨텐츠를 단절 없이(seamless) 편리하게 공유할 수 있는 하는 서비스를 의미한다. 상기 멀티 스크린 서비스 기능은 컨텐츠를 공유 및 동기화하는 기능과 원격 제어 기능으로 분류 할 수 있다. 상기 컨텐츠 공유 및 동기화 기능은 멀티 스크린 화면을 다수의 전자장치들이 동일하게 표시하거나, 또는 멀티 스크린 화면의 일부를 동기시킨 서브화면을 표시하는 기능이 될 수 있다. 그리고 상기 동기화 기능은 멀티 스크린을 서비스하는 전자장치를 다른 전자장치가 제어하는 기능을 의미할 수 있다.
이하의 다양한 실시 예에 따른 복수의 전자장치들은 서로 다른 디스플레이를 가지는 전자장치들이라고 가정한다. 예를 들어, 멀티 스크린 서비스를 실행하는 전자장치는 상대적으로 큰 디스플레이를 가지는 제1 전자 장치(예: 텔레비전 등, 이하 전자 장치 102)가 될 수 있고, 멀티 스크린 서비스를 실행하는 전자장치의 서브화면을 표시하는 전자장치는 상대적으로 작은 디스플레이를 가지는 제2 전자 장치(예: 휴대 단말기, mobile phone 등, 이하 전자 장치 101 및/또는 전자 장치 103)가 될 수 있다.
다양한 실시 예에 따른 전자 장치 101은 멀티 스크린 서비스를 실행하는 전자 장치 102의 디스플레이 일부 영역에 동기된 화면을 서브 화면으로 표시할 수 있다. 예를 들어, 전자 장치 101은 전자 장치 102의 디스플레이에 표시되는 일부 영역의 화면에 동기된 서브화면을 표시할 수 있으며, 줌인/줌아웃 기능을 수행하여 서브화면의 표시 사이즈를 조절할 수 있다. 또한 전자 장치 101은 전자 장치 102의 디스플레이에 표시되는 일부 영역의 장면과 동기된 서브 장면을 표시할 수 있으며, 장면의 표시 정보를 변경(예: 장면의 명암, 색상, 휘도 등)를 제어하여 메인 장면의 표시 상태를 변경할 수 있다.
다양한 실시 예에 따른 전자 장치 101은 멀티 스크린 서비스를 실행하는 전자 장치 102의 디스플레이 일부 영역에 동기된 화면에 설정된 기능의 효과를 제공하는 서브 장면으로 표시할 수 있다. 이하의 다양한 실시 예에 따른 멀티 스크린 서비스는 멀티 스크린 게임으로 가정하여 설명할 수 있다.
도 3은 다양한 실시 예에 따른 전자 장치에서 특정 프로그램의 이벤트를 표시하는 도면이다.
다양한 실시 예에 따르면, 전자 장치 101은 전자 장치 102에서 진행되는 제1 이벤트의 일부(예: 제2 이벤트)에 대한 장면을 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 전자 장치 102의 디스플레이 350에 표시 중인 장면의 일부(예: 영역 301)를 줌 인(zoom-in)/줌 아웃(zoom-out)하는 장치(예: 조준경, 망원경, 가늠쇠 등)의 시점을 디스플레이 150에 표시할 수 있다. 예컨대, 전자 장치 101 및 전자 장치 102는 전략 시뮬레이션 프로그램을 동시에 진행하는 도중에 전자 장치 102의 디스플레이 350에 소총수(예: 플레이어)의 1인칭 시점에 대한 장면을 표시할 수 있다. 전자 장치 101는 디스플레이 350에 1인칭 시점의 장면이 표시되는 중에 디스플레이 350에 표시된 장면의 일부를 줌 인하기 위한 사용자 입력을 확인할 수 있다. 전자 장치 101은 디스플레이 350에 표시된 1인칭 시점의 장면에서 지정된 위치(예: 영역 301)가 줌 인 된 장면을 전자 장치 101의 디스플레이 150에 표시할 수 있다. 여기에서 전자 장치 101이 줌 인하는 위치(예: 디스플레이 350에 표시된 1인칭 시점의 장면에서 줌 인하기 위해 선택된 일부)를 결정함에 있어서, 전자 장치 101에 발생한 이벤트에 대응하여 특정된 위치(예: 특정된 위치를 기반으로 지정된 범위의 영역 301)를 줌 인할 수 있고, 또는 디스플레이 350에 표시된 1인칭 시점의 장면에서 전자 장치 101을 기반으로 줌 인할 위치를 결정하여 결정한 위치에 해당하는 영역 301을 줌 인할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 특정 프로그램(예: 전략 시뮬레이션 프로그램)으로 진행 중인 이벤트에 대응하는 장면을 표시함에 있어서, 전자 장치 102의 디스플레이 350에 표시된 장면의 일부를 줌 인/줌 아웃하는 장치로 동작되는 장면을 표시하는 것에 한정하지 않고, 다양한 장치로 설정하여 사용할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 350에 표시되는 장면의 일부를 전자 장치 101의 디스플레이 150에 표시함에 있어서, 적외선 투시 장치(적외선 스코프), 1인칭 시점(예: 플레이어의 시점)에서 객체에 가로막혀 보이지 않는 영역을 보여주는 장치, 플레이어의 시점에서 보이지 않는 것을 표시해 주는 장치와 같이 다양한 장치로 사용할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 특정 프로그램(예: 전략 시뮬레이션 프로그램)으로 진행 중인 이벤트(예: 제2 이벤트)에 대응하는 장면을 표시함에 있어서, 전자 장치 102의 디스플레이 350에 표시 중인 이벤트(예: 제1 이벤트)의 일부를 표시하는 것에 한정하지 않고, 특정 프로그램에 대하여, 전자 장치 101 및 전자 장치 102에서 진행되는 이벤트를 각각 독립적으로 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 102는 특정 프로그램을 진행함에 있어서 3인칭 시점에서 진행 중인 장면을 디스플레이 350에 표시할 수 있고, 전자 장치 101은 특정 프로그램을 진행함에 있어서 전자 장치 101을 통해서 제어하는 플레이어의 1인칭 시점에서 진행 중인 장면을 디스플레이 150에 표시할 수 있다.
도 4는 다양한 실시 예에 따른 전자 장치의 서브 디스플레이에 지정된 장면을 표시하는 동작을 도시하는 도면이다.
다양한 실시 예에 따르면, 전자 장치 101, 전자 장치 102 및 전자 장치 103은 특정 프로그램을 동시에 진행할 수 있다. 전자 장치 102는 특정 프로그램의 메인 장면을 디스플레이 450에 표시할 수 있고, 전자 장치 101은 특정 프로그램의 제1 서브 장면을 디스플레이 150에 표시할 수 있고, 전자 장치 103은 특정 프로그램의 제2 서브 장면을 디스플레이 451에 표시할 수 있다.
한 실시 예에 따르면, 전자 장치 101, 전자 장치 102 및 전자 장치 103은 특정 프로그램을 전략 시뮬레이션 프로그램을 진행할 수 있고, 전자 장치 102는 진행 중인 이벤트의 메인 장면(예: 3인칭 시점으로 구성된 장면)을 디스플레이 450에 표시할 수 있다. 전자 장치 101 및 전자 장치 103은 전자 장치 102의 메인 디스플레이(예: 디스플레이 450)의 서브 디스플레이 역할을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101 및 전자 장치 102에는 특정 프로그램에서 지정된 플레이어를 제어하는 컨트롤 장치로 각각 지정될 수 있다. 또는 전자 장치 101 및 전자 장치 102는 플레이어가 소지한 장치(예: 도검, 총 등의 장비)로 지정될 수 있다. 예컨대, 전자 장치 101은 제1 플레이어가 소지한 소총으로 지정될 수 있고, 전자 장치 103은 제2 플레이어가 소지한 소총으로 지정될 수 있다. 전자 장치 101 및/또는 전자 장치 103은 사용자 입력을 기반으로, 각각의 장치에 지정된 기능을 수행할 수 있다. 예컨대, 전자 장치 101은 사용자 입력을 기반으로 소총에 장착된 조준경으로 줌 인 기능을 수행할 수 있고, 전자 장치 103은 사용자 입력을 기반으로 소총에 장착된 조준경으로 줌 기능을 수행할 수 있다. 여기에서 전자 장치 101의 제1 서브 디스플레이 150으로 줌 인하는 장면 및 전자 장치 103의 제2 서브 디스플레이 451로 줌 인하는 장면은 각각의 장치(예: 전자 장치 101 및 전자 장치 103)을 통해서 독립적으로 결정할 수 있다. 또는 특정 프로그램의 진행을 기반으로 지정된 장면을 표시하도록 결정된 상태일 수도 있다. 전자 장치 101 및 전자 장치 103을 통해서 각각의 서브 디스플레이에 표시하는 장면을 독립적으로 결정하는 경우, 전자 장치 101 및/또는 전자 장치 103은 전자 장치 103의 메인 디스플레이에 표시하는 장면 중 지정된 위치에 대응하는 줌 인 영역을 결정할 수 있고, 전자 장치 101 ?/또는 전자 장치 103의 서브 디스플레이를 통해서 결정된 줌 인 영역을 표시할 수 있다. 예컨대, 전자 장치 101은 전자 장치 102의 메인 디스플레이 450에 표시된 장면(예: 메인 장면) 중에서 영역 401에 대응하는 영역을 줌 인하여 제1 서브 장면으로 표시할 수 있다. 전자 장치 103은 전자 장치 102의 메인 디스플레이 450에 표시된 장면(예: 메인 장면) 중에서 영역 403에 대응하는 영역을 줌 인하여 제2 서브 장면으로 표시할 수 있다. 전자 장치 101 및/또는 전자 장치 103의 서브 디스플레이에 표시된 장면을 기반으로 해당하는 이벤트를 독립적으로 수행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101, 전자 장치 102 및 전자 장치 103 중 적어도 하나의 전자 장치는 특정 프로그램을 통해서 수행하는 동작에 대응하는 데이터의 동기화를 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101 및 전자 장치 103은 전자 장치 102의 메인 이벤트 진행에 대응하여 진행 시점에 해당하는 독립된 서브 이벤트를 진행할 수 있다. 전자 장치 101 및/또는 전자 장치 103은 독립된 서브 이벤트의 진행을 시작하는 시점, 독립된 서브 이벤트의 진행을 종료하는 시점, 및 독립된 서브 이벤트를 진행 중인 시점 중 적어도 하나의 시점에 전자 장치 102와 각각 진행중인 메인 이벤트 및/또는 서브 이벤트의 진행 상황에 대한 동기화를 수행할 수 있다.
도 5는 다양한 실시 예에 따른 전자 장치의 디스플레이에 지정된 장면을 표시하는 도면이다.
다양한 실시 예에 따르면, 전자 장치 101은 특정 프로그램(예: 게임 프로그램)을 실행함에 있어서, 전자 장치 102의 디스플레이 550에 표시하는 장면에 특정 효과를 적용하여 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 전자 장치 102의 디스플레이 550에 표시된 장면에서 특정 영역 501을 전자 장치 101의 디스플레이 150에 표시하는 것으로 결정하는 경우, 전자 장치 102의 디스플레이 550에 표시된 장면에서는 보이지 않는 효과가 전자 장치 101의 디스플레이 150을 통해서 나타나도록 동작할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 표시된 장면과 같이 전자 장치102의 디스플레이 550에 표시된 장면의 지정된 영역 501에 위치하는 보이지 않는 객체가 시각적으로 표시되도록 동작하는 필터의 역할을 수행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 전자 장치 102의 디스플레이 550에 표시된 장면에서 특정 객체의 내부를 투시하는 역할, 디스플레이 550에 표시된 장면에서 특정 객체 뒤를 투시하는 역할 등과 같이 다양한 효과를 적용 및 비 현실적인 장면을 표시하는 역할을 수행하는 장치로 사용할 수 있다.
도 6은 다양한 실시 예에 따른 전자 장치의 방향에 대응하여 지정된 장면을 디스플레이에 표시하는 도면이다.
다양한 실시 예에 따르면, 전자 장치 101은, 특정 프로그램에서 진행되는 이벤트의 진행 상황에 대응하여 둘 이상의 장면을 전자 장치 101의 디스플레이 150에 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101의 디스플레이 150에 표시하는 장면은 전자 장치 102 및/또는 전자 장치 101을 통해서 진행 중인 이벤트에 해당하는 장면일 수 있고, 전자 장치 102에 표시된 장면의 진행을 제어하는 컨트롤러에 해당하는 장면일 수도 있다. 전자 장치 101은 진행 중인 이벤트에 해당하는 장면이 표시되는 디스플레이를 통해서 사용자 입력을 검출할 수 있고, 사용자 입력에 대응하는 동작을 전자 장치 101 및/또는 전자 장치 102를 통해서 수행할 수 있다.
한 실시 예에 따르면, 전자 장치 101-1은 전자 장치 102의 디스플레이 650에 표시된 장면을 제어하기 위해서 디스플레이 651에 컨트롤러를 호출할 수 있다. 전자 장치 101-1은 전자 장치 102의 디스플레이 650에 표시된 장면을 제어할 수 있는 컨트롤러의 역할을 수행할 수 있다. 한 실시 예에 따르면, 전자 장치 101-1은 디스플레이 651에 표시된 컨트롤러를 기반으로 사용자 입력을 검출할 수 있고, 특정 프로그램의 진행에 있어서 전자 장치 102의 디스플레이 650에 표시된 장면의 진행을 제어하거나 또는 플레이어를 제어할 수 있다.
한 실시 예에 따르면, 전자 장치 101-2는 전자 장치 102의 디스플레이 650에 표시된 장면의 일부 또는 연관된 다른 장면(예: 줌 인/줌 아웃, 적외선 필터, 투시 등의 효과가 적용된 장면)을 디스플레이 652에 표시할 수 있다. 전자 장치 101-2는 디스플레이 652에 표시된 장면을 기반으로 디스플레이 652를 통해서 사용자 입력을 검출할 수 있다. 전자 장치 101-2는 검출한 사용자 입력에 기반하여 전자 장치 101-2의 디스플레이 652에 표시된 장면 및/또는 전자 장치 102의 디스플레이 650에 표시된 장면의 진행을 제어할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 사용자 입력 또는 특정 프로그램의 진행 상황을 기반으로 둘 이상의 장면(예: 진행 중인 이벤트의 장면, 및/또는 컨트롤러의 장면) 중 적어도 하나를 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 전자 장치 101 및/또는 전자 장치 101의 주변에 대한 상황 정보를 획득할 수 있는 적어도 하나의 센서를 통해서 디스플레이 150에 표시할 장면을 결정할 수 있다. 예컨대, 전자 장치 101은 자이로스코프, 가속도 센서, 기울기 센서와 같이 전자 장치 101의 방향, 회전, 속도, 가속도와 같은 움직임을 검출하는 센서들 중 적어도 하나를 통해서 전자 장치 101의 디스플레이 150(또는 전자 장치 101의 전면부)의 표면이 지표면과 평행(또는 수평) 방향으로 위치하는 경우 전자 장치 101-1의 디스플레이 651과 같이 컨트롤러 장면을 표시할 수 있다. 전자 장치 101은 센서들 중 적어도 하나를 통해서 전자 장치 101의 디스플레이 150의 표면이 지표면과 직교(또는 수직) 방향으로 위치하는 경우 전자 장치 101-2의 디스플레이 652와 같이 진행 중인 특정 이벤트의 장면(예: 적외선 필터의 장면)을 표시할 수 있다. 전자 장치 101은 이에 한정하지 않고, 전자 장치 101에 포함된 다양한 센서를 통해서 전자 장치 101의 디스플레이 150에 표시하는 장면을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 전자 장치 101의 후면에 포함된 카메라를 통해서 전자 장치 102의 디스플레이 650의 지정된 영역이 전자 장치 101의 카메라 화각(예: 앵글, angle)에 포함되는 것으로 결정하는 경우, 또는 디스플레이 650의 지정된 영역에 포함되지 않는 것으로 결정하는 경우에 대응하여 지정된 장면을 디스플레이 150에 표시할 수 있다.
도 7은 다양한 실시 예에 따른 전자 장치의 디스플레이에 지정된 장면을 표시하는 도면이다.
다양한 실시 예에 따르면, 전자 장치 101은 특정 프로그램(예: 시뮬레이션 프로그램)을 진행함에 있어서, 전자 장치 102의 디스플레이 750에 표시된 장면이 포함하는 특정 객체(예: 잠수함)의 기능(예: 잠망경)에 해당하는 장면을 디스플레이 150에 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101 및 전자 장치 102는 특정 프로그램을 동시에 진행할 수 있고, 전자 장치 102는 진행 중인 이벤트의 장면을 디스플레이 750에 표시할 수 있다. 예컨대, 전자 장치 101은 전자 장치 102를 통해서 특정 프로그램의 진행 중에 잠수함이 등장하는 특정 이벤트를 확인할 수 있다. 전자 장치 102는 디스플레이 750에 잠수함의 적어도 일부를 표시할 수 있고, 전자 장치 101은 잠수함의 일부 기능인 잠망경에 대한 장면을 표시할 수 있다. 전자 장치 101은 사용자 입력을 기반으로 디스플레이 150에 표시된 잠망경의 동작을 제어할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 센서부 170에 포함된(예; 물리적인 포함관계일 수도 있지만, 적어도 둘 이상의 센서에 대한 연결 관계)센서를 기반으로 획득한 전자 장치의 움직임을 통해서 전자 장치 101의 디스플레이 150에 표시되는 잠망경의 동작을 제어할 수 있다. 예컨대, 전자 장치 101은 적어도 하나의 센서를 통해서 획득하는 전자 장치 101의 방향, 회전, 속도, 가속도와 같은 상황 정보를 획득할 수 있고, 전자 장치 101이 회전 751하는 것을 확인할 수 있다. 전자 장치 101은 센서를 통해서 검출한 회전 751에 대응하여 디스플레이 150에 표시되는 잠망경을 왼쪽으로 회전하는 장면으로 표시할 수 있다. 마찬가지로, 전자 장치 101은 센서를 통해서 전자 장치 101이 회전 753하는 것으로 결정하는 경우, 디스플레이 150에 표시되는 잠망경을 오른쪽으로 회전하는 장면으로 표시할 수 있다. 전자 장치 101은 디스플레이 150에 표시되는 잠망경을 움직이는 장면에 한정하지 않고, 디스플레이 150을 통해서 검출하는 사용자 입력을 기반으로 확인된 입력에 대응하는 다양한 동작을 수행할 수 있고, 수행한 동작에 대한 데이터를 전자 장치 102와 동기화할 수 있다.
더하여, 전자 장치 101은 디스플레이 150에 특정 프로그램(예: 전략 시뮬레이션 프로그램)에서 진행되는 이벤트의 장면을 표시함에 있어서, 상술한 바와 같이 해당 이벤트에서 사용할 수 있는 특정 기능(예: 잠망경)의 장면을 표시할 수 있고, 전자 장치 102의 디스플레이 750에 표시된 장면의 객체(예: 잠수함)를 제어할 수 있는 컨트롤러를 표시할 수도 있다.
도 8은 다양한 실시 예에 따른 전자 장치의 서브 디스플레이에 지정된 장면을 표시하는 동작을 도시하는 도면이다.
다양한 실시 예에 따르면, 전자 장치 101은 적어도 둘 이상의 전자 장치(예: 전자 장치 102 및/또는 전자 장치 103)과 진행 중인 특정 프로그램의 이벤트에 해당하는 데이터를 동기화할 수 있다. 한 실시 예에 따르면, 전자 장치 102가 메인 콘솔로 지정되어 특정 프로그램을 진행하고 있는 상태에서, 적어도 하나의 전자 장치(예: 전자 장치 101 및 전자 장치 103)과 동시에 특정 프로그램의 시나리오를 진행할 수 있다. 여기에서 전자 장치 101은 스마트 폰 일 수 있고, 전자 장치 103은 사용자의 신체 일부에 착용 가능한 웨어러블 장치(예: 스마트 와치)일수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 메모리 130에 포함된 특정 프로그램의 데이터를 기반으로 전자 장치 102 및/또는 전자 장치 103과 동기화 된 상태에서 진행하는 이벤트에 대한 장면을 디스플레이 150에 표시할 수 있다. 더하여, 전자 장치 101은 장면을 표시하는 디스플레이 150으로부터 검출하는 사용자 입력 또는 전자 장치 101의 움직임(적어도 하나의 센서로부터 획득하는 움직임)과 같은 입력을 기반으로 전자 장치 101의 디스플레이 150에 표시하는 장면을 제어할 수 있다. 전자 장치 101은 사용자 입력을 기반으로 진행되는 이벤트에 대한 데이터를 전자 장치 102 및/또는 전자 장치 103과 동기화할 수 있고, 전자 장치 101로부터 데이터를 수신한 전자 장치 102 및/또는 전자 장치 103은 수신한 데이터를 기반으로 특정 프로그램의 해당 이벤트의 진행을 제어할 수 있다.
다양한 실시 예에 따르면, 사용자는 전자 장치 103의 디스플레이 851에 표시되는 장면을 확인하여 전자 장치 101의 디스플레이 150에 표시되는 장면을 제어할 수 있고, 전자 장치 101의 장면을 제어함으로써 메인 콘솔로 동작하는 전자 장치 102의 시나리오를 진행할 수 있다. 전자 장치 101, 전자 장치 102 및 전자 장치 103은 각각의 장치를 통해서 지정된 이벤트의 장면을 표시할 수 있고, 검출된 입력을 기반으로 표시 중인 장면에 해당하는 이벤트를 진행할 수 있다. 전자 장치 101, 전자 장치 102 및 전자 장치 103은 네트워크 통신으로 연결된 상태에서 각각의 장치에서 수행되는 특정 프로그램의 이벤트에 대한 데이터(예: 이벤트의 진행 상태에 대한 데이터, 또는 로그 데이터)를 공유(예: 동기화)할 수 있다. 전자 장치 101, 전자 장치 102 및 전자 장치 103은 각각의 장치에서 수신한 데이터를 특정 프로그램의 진행 상태에 적용하여 해당하는 다음 시나리오를 진행할 수 있다.
다양한 실시 예에 따르면, 전자 장치 102는 메인 콘솔로 동작하는 경우에, 전자 장치 102는 전자 장치 101 및/또는 전자 장치 103으로부터 해당 이벤트의 진행에 대한 데이터를 수신할 수 있고, 특정 프로그램에 적용할 수 있다. 전자 장치 102는 적용된 상태의 진행 정보를 네트워크 통신으로 특정 프로그램을 동기화 하는 것으로 지정된 적어도 하나의 다른 전자 장치(예: 전자 장치 101 및/또는 전자 장치 103)으로 전송할 수 있다.
다양한 실시 예에 따르면, 도 4 및/또는 도 5에서 설명한 실시 예에 따르면, 제1 서브 디스플레이 및 제2 서브 디스플레이는 독립된 전자 장치(예: 전자 장치 102 및 전자 장치 103)에 각각 포함된 것으로 설명하고 있지만, 이에 한정하지 않고, 하나의 전자 장치(예: 전자 장치 101)에 둘 이상의 서브 디스플레이를 표시한 상태에서 제공할 수도 있을 것이다.
도 9는 다양한 실시 예에 따른 전자 장치에서 다른 전자 장치와 디스플레이 좌표를 동기화하는 도면이다.
다양한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 표시된 위치(또는 좌표)와 전자 장치 102의 디스플레이 950에서 전자 장치 101의 디스플레이 150에 표시된 장면에 해당하는 위치를 동기화할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 적어도 하나의 카메라를 포함할 수 있고, 카메라를 통해서 전자 장치 102의 적어도 일부 및/또는 전자 장치 102의 디스플레이 950에 표시된 장면의 적어도 일부를 확인할 수 있다. 전자 장치 101은 각각의 전자 장치(예: 전자 장치 102 및/또는 전자 장치 103)의 디스플레이에 표시되는 장면의 위치를 동기화하기 위한 기준으로 전자 장치 102에서 디스플레이 950의 테두리 영역을 확인할 수 있다. 예컨대, 전자 장치 101은 카메라를 통해서 특정 앵글 910을 획득하는 경우, 전자 장치 102와 디스플레이 950의 테두리 영역 903을 확인할 수 있다. 전자 장치 101은 확인한 테두리 영역을 기준으로 전자 장치 101의 카메라에 확인되는 앵글 및 전자 장치 102의 디스플레이 950에 표시되는 장면의 위치를 동기화할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 특정 프로그램의 이벤트를 진행함에 있어서, 전자 장치 102의 디스플레이 950에 표시되는 장면의 일부를 전자 장치 101의 디스플레이 150에 표시하여 제어할 수 있다. 예컨대, 전자 장치 101은 디스플레이 150에 표시하는 장면으로 전자 장치 102의 디스플레이 950에 표시된 장면의 일부를 표시하는 경우, 전자 장치 101을 통해서 검출하는 입력에 따라서 디스플레이 150에 표시되 장면을 제어할 수 있다.
한 실시 예에 따르면, 전자 장치 101의 메모리에 포함된 특정 프로그램을 기반으로 디스플레이 150에 표시하는 장면의 움직임을 제어할 수 있고, 또는 전자 장치 101에서 검출하는 입력에 대응하여 전자 장치 102로부터 수신하여 해당하는 장면을 표시하는 것일 수도 있다.
도 10은 다양한 실시 예에 따른 전자 장치에서 다른 전자 장치와 디스플레이 좌표를 동기화하는 도면이다.
다양한 실시 예에 따르면, 전자 장치 101은 적어도 하나의 카메라를 포함할 수 있고, 카메라 앵글을 통해서 획득하는 전자 장치 102의 디스플레이 1050에 표시된 장면으로부터 지정된 객체 1011(또는 지정된 객체의 형상, 이미지)을 확인할 수 있다. 전자 장치 101은 카메라를 통해서 획득하는 디스플레이 1050의 장면에서 객체 1011과 같이 특정 프로그램에 설정된 특정 객체를 적어도 하나 또는 둘 이상 확인할 수 있다.
한 실시 예에 따르면, 전자 장치 101은 전자 장치 102의 디스플레이 1050에 표시된 장면 중 일부를 줌 인하여 디스플레이 150에 표시하는 경우, 디스플레이 1050에 표시된 장면에 포함된 객체(예: 객체 1011)를 확인할 수 있고, 확인된 객체 1011을 기준으로 지정된 영역을 줌 인하여 디스플레이 150에 표시할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 전자 장치 102의 디스플레이 1050에 표시된 적어도 하나의 객체(예: 객체 1011)를 확인하는 경우, 특정 동작(예: 줌 인하여 디스플레이 150에 표시하는 동작)에 한정하지 않고, 디스플레이 150에 표시하는 장면의 움직임을 표시하기 위한 기준 위치로 사용하는 등 다양한 적용이 가능할 것이다.
도 11은 다양한 실시 예에 따른 전자 장치에서 특정 프로그램의 이벤트를 표시하는 동작의 흐름을 도시한다.
동작 1101을 참조하면, 제1 전자 장치(예 전자 장치 101)는 네트워크 통신으로 연결된 제2 전자 장치(예: 전자 장치 102)와 특정 프로그램을 동시에 실행(또는 진행)할 수 있다. 여기에서, 전자 장치 101은 네트워크 통신으로 연결된 전자 장치 102과 특정 프로그램을 동시에 실행함에 있어서, 동시에는 반드시 동일한 시점에 실행하는 것일 수도 있지만, 시간차를 가지고 실행하는 것일 수도 있다. 예컨대, 전자 장치 101은 특정 프로그램을 동시에 실행함에 있어서, 전자 장치 102에 특정 프로그램이 이미 실행된 상태에서 실행하는 것일 수 있고, 또는 전자 장치 101에서 특정 프로그램을 실행한 상태에서 전자 장치 102가 특정 프로그램을 실행하는 것일 수도 있다.
다양한 실시 예에 따르면, 전자 장치 101의 메모리 130에 포함된 특정 프로그램과 전자 장치 102의 메모리에 포함된 특정 프로그램은 동일한 프로그램일 수 있다. 더하여, 전자 장치 101에 포함된 특정 프로그램은 전자 장치 102에 포함된 프로그램의 적어도 일부 기능을 포함하는 프로그램일 수 있다. 또는 전자 장치 102에 포함된 특정 프로그램은 전자 장치 101에 포함된 프로그램의 적어도 일부 기능을 포함하는 프로그램일 수도 있다. 전자 장치 101 및/또는 전자 장치 102는 특정 프로그램의 지정된 이벤트를 진행함에 있어서, 각각의 장치에 포함된 특정 프로그램을 이용하여 독립적으로 지정된 이벤트를 진행할 수 있다.
동작 1103을 참조하면, 전자 장치 101은 특정 프로그램을 진행함에 있어서, 전자 장치 102에서 진행 중인 특정 프로그램과 진행 시점을 동기화할 수 있다. 한 실시 예에 따르면, 특정 프로그램을 진행함에 있어서 지정된 이벤트를 수행하는 경우, 전자 장치 101 및 전자 장치 102는 동일한 이벤트를 수행함에도 불구하고 진행하는 시간 정보에 있어서 차이가 발생할 수 있다. 한 실시 예에 따르면, 전자 장치 101 및 전자 장치 102는 특정 프로그램을 통해서 이벤트를 시작하는 시점에 차이가 발생할 수 있다. 한 실시 예에 따르면, 전자 장치 101 및 전자 장치 102는 특정 프로그램에 있어서, 프로그램을 진행하는 속도 및/또는 데이터 처리 속도에 차이가 발생할 수 있다.
전자 장치 101 및 전자 장치 102는 동기화 동작을 수행함으로써 특정 프로그램의 진행 속도, 데이터 처리 속도 및 이벤트를 시작하는 시점에 대한 정보를 공유할 수 있고, 일치시킬 수 있다.
동작 1105를 참조하면, 전자 장치 101은 전자 장치 102와 진행 시점을 공유하는 특정 프로그램을 수행함에 있어서 지정된 이벤트의 장면을 디스플레이(예: 전자 장치 101의 디스플레이 150)에 표시하도록 결정할 수 있다. 전자 장치 101은 디스플레이 150에 지정된 이벤트의 장면을 결정함에 있어서, 전자 장치 102의 디스플레이에 표시된 장면의 일부를 결정할 수 있다. 예컨대, 전자 장치 101은 전자 장치 101의 디스플레이에 표시된 장면의 일부를 확대(줌 인) 및/또는 축소(줌 아웃)하여 표시하도록 결정할 수 있다. 더하여, 전자 장치 101은 전자 장치 102의 디스플레이에 표시된 장면의 특정 위치에 보이지 않는 객체(예: 유령)를 표현하도록 결정할 수도 있고, 특정 객체의 내부를 표시하도록 결정할 수 있고, 또는 특정 객체의 뒤를 투시하는 장면을 표시하도록 결정할 수도 있다. 더하여, 전자 장치 101은 디스플레이 150에 지정된 이벤트의 장면을 표시하도록 결정함에 있어서, 특정 장치(또는 장비0에 해당하는 기능을 표시하도록 결정할 수도 있다. 예컨대, 전자 장치 101은 줌 렌즈, 적외선 필터, 잠망경, 레이더와 같이 특정 프로그램에서 진행되는 이벤트를 수행함에 있어서, 필요한 장치의 역할을 결정할 수도 있다.
동작 1107을 참조하면, 전자 장치 101은 결정한 장면을 디스플레이 150에 표시할 수 있다. 더하여, 전자 장치 101은 전자 장치에서 검출하는 사용자 입력을 기반으로 디스플레이 150에 표시한 장면을 제어할 수 있다.
전자 장치 101은 동작 1107을 수행하면 도 11의 실시 예를 종료할 수 있다.
도 12는 다양한 실시 예에 따른 전자 장치에서 디스플레이에 표시된 장면을 제어하는 동작을 도시하는 도면이다.
동작 1201을 참조하면, 제1 전자 장치(예: 전자 장치 101)는 네트워크 통신으로 연결된 제2 전자 장치(예: 전자 장치 102)와 특정 프로그램을 동시에 진행할 수 있다. 전자 장치 101은 특정 프로그램에서 수행하는 지정된 이벤트의 장면을 디스플레이 150에 표시할 수 있다. 한 실시 예에 따르면, 특정 프로그램의 지정된 이벤트는 적어도 둘 이상의 장면으로 구성될 수 있고, 지정된 이벤트를 표시하도록 설정된 전자 장치에 따라서 적어도 하나의 장면을 표시할 수 있다. 한 실시 예에 따르면, 전자 장치 101 및 전자 장치 102는 특정 프로그램을 실행함에 있어서, 메인 콘솔과 서브 콘솔을 결정할 수 있다. 예컨대, 전자 장치 101 및 전자 장치 102는 네트워크 통신으로 공유 가능한 설정 정보를 기반으로 메인 콘솔과 적어도 하나의 서브 콘솔로 결정할 수 있다. 전자 장치 101 및 전자 장치 102는 서브 콘솔을 결정함에 있어서, 서브 콘솔의 타입을 결정할 수 있다. 한 실시 예에 따르면, 전자 장치 101을 서브 콘솔로 결정하는 경우, 스마트 폰인지, 스마트 패드인지, 또는 사용자의 신체 일부에 착용 가능한 웨어러블 장치인지와 같이 전자 장치의 타입을 결정할 수 있다. 전자 장치 101은 특정 프로그램의 지정된 이벤트를 표시함에 있어서 결정한 서브 콘솔의 타입을 기반으로 지정된 장면을 디스플레이 150에 표시할 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 도 12의 동작 1201을 수행함에 있어서, 도 11의 동작 1101 내지 동작 1107 중에서 적어도 일부를 수행하는 것일 수 있다.
동작 1203을 참조하면, 전자 장치 101은 적어도 하나의 센서로 구성된 센서부 170을 통해서 전자 장치 101의 상황 정보를 획득할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 결정한 장면을 표시하는 디스플레이 150이 터치 스크린인 경우, 검출하는 터치 입력을 기반으로 전자 장치 101의 디스플레이 150에 표시된 장면을 제어할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 자이로스코프, 기웅기 센서, 가속도 센서와 같이 전자 장치의 움직임을 검출하는 적어도 하나의 센서를 포함할 수 있고, 전자 장치 101이 움직이는 상황 정보를 사용자 입력으로 검출할 수 있다.
동작 1205를 참조하면, 전자 장치 101은 확인된 상황 정보를 기반으로 디스플레이 150에 표시된 장면을 움직이거나, 표시된 장면에서 검출한 입력에 대응하는 동작을 수행할 수 있다. 다양한 실시 예에 따르면, 전자 장치 101은 디스플레이 150에 줌 인/줌 아웃이 가능한 장면(예: 줌 렌즈, 잠망경 등)을 표시하는 경우, 전자 장치 101에서 검출하는 사용자 입력을 기반으로 디스플레이 150에 표시되는 장면을 확대 또는 축소할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 장치가 움직이는 방향, 회전, 가속도, 기울기 및/또는 속도를 기반으로 전자 장치 101의 디스플레이 150에 표시되는 장면을 이동할 수 있다. 예컨대, 전자 장치 101은 플레이어의 시선에 해당하는 장면 또는 특정 장치를 통해서 보여지는 장면을 디스플레이 150에 표시할 수 있다. 전자 장치 101은 획득한 상황 정보를 기반으로 전자 장치가 왼쪽 또는 오른쪽으로 회전 또는 이동하는 동작을 검출하는 경우, 해당하는 움직임(예: 디스플레이 150에 표시되는 사용자의 시선을 왼쪽 또는 오른쪽으로 이동)으로 표현할 할 수 있다.
전자 장치 101은 도 1205를 수행하면 도 12의 실시 예를 종료할 수 있다.
도 13은 다양한 실시 예에 따른 전자 장치에서 이벤트의 장면을 동기화 하는 동작을 도시하는 도면이다.
동작 1301은 도 12의 동작 1205에서 획득한 상황 정보를 기반으로 제1 전자장치(예: 전자 장치 101)의 디스플레이 150에 표시된 장면을 제어한 이후의 동작일 수 있다.
다양한 실시 예에 따르면, 전자 장치 101은 특정 프로그램을 통해서 수행하는 지정된 이벤트에 해당하는 데이터를, 특정 프로그램의 동일한 진행 시점을 수행하는 제2 전자 장치(예: 전자 장치 102)와 동기화할 수 있다. 한 실시 예에 따르면, 전자 장치 101은 상황 정보를 기반으로 전자 장치 101에서 특정 프로그램의 지정된 이벤트를 수행할 수 있고, 수행한 이벤트에 해당하는 데이터(예: 로그 데이터)를 전자 장치 102와 공유(예: 동기화)할 수 있다. 또한 로그 데이터를 수신하는 전자 장치 102는 수신한 데이터의 내용을, 지정된 이벤트에 적용할 수 있다.
더하여, 전자 장치 101은 동작 1301을 수행함에 있어서, 획득한 상황 정보를 기반으로 전자 장치 101의 디스플레이 150에 표시된 장면을 제어한 이후의 동작인 것으로 설명하고 있지만, 이에 한정하지 않고, 전자 장치 101에서 특정 프로그램을 진행하고 있는 중 어느 때에도 동작할 수 있음은 자명하다.
전자 장치 101은 동작 1301을 수행하면 도 13의 실시 예를 종료할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 멀티 디스플레이 서비스 방법에 있어서, 연결된 상대방 전자 장치에 표시된 메인 장면과 특정 프로그램의 진행을 동기화하는 동작과, 특정 프로그램으로부터 메인 장면과 관련된 서브 장면을 결정하는 동작과, 서브 장면을 전자 장치에 표시하는 동작을 포함할 수 있다.
한 실시 예에 따르면, 특정 프로그램은, 상대방 전자 장치에 메인 장면을 표시하는 프로그램의 전체 또는 일부이고, 전자 장치에 저장된 상태일 수 있다. 한 실시 예에 따르면, 서브 장면을 제어하는 경우, 상대방 전자 장치의 디스플레이에 표시된 장면은 제어된 서브 장면과 동기화될 수 있다. 한 실시 예에 따르면, 서브 장면을 표시하는 동작은, 메인 장면의 일부 영역을 캡쳐하고, 캡쳐한 일부 영역의 사이즈와 밝기 중 적어도 어느 하나를 변경하여 표시할 수 있다. 한 실시 예에 따르면, 서브 장면을 표시하는 동작은, 캡쳐한 영역을 전자 장치의 디스플레이에 전체 화면 사이즈로 표시할 수 있다. 한 실시 예에 따르면, 일부 영역은, 전자 장치의 카메라 촬영과 사용자 터치 중 적어도 어느 하나의 입력에 의해 캡처하고, 캡처한 일부 영역은, 상대방 전자 장치와 전자 장치 간의 디스플레이 좌표 동기화를 통해, 서브 장면으로 표시될 수 있다. 한 실시 예에 따르면, 서브 장면은, 메인 장면을 제어하기 위한 리모트 컨트롤러 형상의 그래픽 이미지와 터치 버튼을 표시할 수 있다. 한 실시 예에 따르면, 서브 장면을 표시하는 동작은, 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 캡처한 영역에 대응하여 사전에 설정된 서브 이미지들 중 어느 하나를 표시할 수 있다. 한 실시 예에 따르면, 서브 장면을 표시하는 동작은, 메인 장면과 연동하도록, 사전에 설정된 이미지들 중 어느 하나를 획득하여 표시할 수 있다. 한 실시 예에 따르면, 서브 이미지들은, 메인 장면 중 일부 영역과 연동되되, 메인 장면과는 다른 장면의 이미지로서, 상대방 전자 장치와 전자 장치 중 적어도 어느 하나에 저장될 수 있다. 한 실시 예에 따르면, 서브 장면을 표시하는 동작은, 전자 장치의 가속도 센서, 기울기 센서, 속도 센서, 자이로스코프 센서 중 적어도 어느 하나의 센서 값에 따라 변경하여 표시하는 동작을 더 포함할 수 있다. 한 실시 예에 따르면, 서브 장면을 표시하는 동작은, 특정 프로그램의 시나리오 및 이벤트 중 적어도 어느 하나에 기반하여, 메인 장면과 연관된 장면을 표시하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 동작 방법에 있어서, 상대방 전자 장치와 페어링을 통해, 특정 프로그램을 동시에 실행하는 동작과, 상대방 전자 장치를 제어하기 위한 사용자 인터페이스 장면을 표시하는 동작 및 특정 프로그램의 시나리오 및 이벤트 중 적어도 어느 하나에 기반하여, 상대방 전자 장치에 표시된 장면과 연관된 서브 장면을 표시하는 동작을 포함할 수 있다.
한 실시 예에 따르면, 전자 장치는, 터치스크린을 구비하고, 상대방 전자 장치는, 터치스크린 보다 큰 스크린을 구비하고, 특정 프로그램은, 멀티 스크린 게임용 프로그램일 수 있다. 한 실시 예에 따르면, 사용자 인터페이스 장면을 표시하는 동작은, 상대방 전자 장치를 제어하기 위한 리모트 컨트롤러 형상의 그래픽 이미지와 터치 버튼을 표시할 수 있다. 한 실시 예에 따르면, 서브 장면을 표시하는 동작은, 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 캡처한 영역의 사이즈와 밝기 중 적어도 어느 하나를 변경하여 표시할 수 있다. 한 실시 예에 따르면, 일부 영역은, 전자 장치의 카메라 촬영과 사용자 터치 중 적어도 어느 하나의 입력에 의해 캡처되고, 캡처된 일부 영역은, 상대방 전자 장치와 전자 장치 간의 디스플레이 좌표 동기화를 통해, 서브 장면으로 표시될 수 있다. 한 실시 예에 따르면, 서브 장면을 표시하는 동작은, 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 캡처한 영역에 연동하도록, 사전에 설정된 서브 이미지들 중 어느 하나를 획득하여 표시할 수 있다. 한 실시 예에 따르면, 서브 이미지들은, 상대방 전자 장치의 디스플레이 장면 중 일부 영역과 연동되되, 디스플레이 장면과는 다른 장면의 이미지로서, 상대방 전자 장치와 전자 장치 중 적어도 어느 하나에 저장될 수 있다. 한 실시 예에 따르면, 서브 장면을 표시하는 동작은, 상대방 전자 장치의 디스플레이 장면과 연동하도록, 사전에 설정된 서브 이미지들 중 어느 하나를 획득하여 표시할 수 있다. 한 실시 예에 따르면, 서브 이미지들은, 상대방 전자 장치의 디스플레이 장면과 연동되되, 디스플레이 장면과는 다른 장면의 이미지로서, 상대방 전자 장치와 전자 장치 중 적어도 어느 하나에 저장될 수 있다. 한 실시 예에 따르면, 서브 장면을, 전자 장치의 가속도 센서, 기울기 센서, 속도 센서, 자이로스코프 센서 중 적어도 어느 하나의 센서 값에 따라 변경하여 표시하는 동작을 더 포함할 수 있다.
전자장치 101이 수행하는 다양한 실시 예는 프로세서 120의 제어에 의해서 수행하는 동작일 수 있다. 더하여, 전자 장치 101은 본 발명의 다양한 실시 예들을 제어하도록 프로그래밍 된, 프로세서 120와 별도의 모듈을 포함할 수 있다. 본 발명의 다양한 실시 예들을 제어하도록 프로그래밍 된 별도의 모듈은 프로세서 120의 제어에 의해서 동작할 수도 있다.
다양한 실시 예에 따르면 프로세서 120은, 연결된 상대방 전자 장치에 표시된 메인 장면과 특정 프로그램의 진행을 동기시키고, 특정 프로그램으로부터 메인 장면과 관련된 서브 장면을 결정하고, 서브 장면을 전자 장치에 표시할 수 있다.
한 실시 예에 따르면, 특정 프로그램은, 상대방 전자 장치에 메인 장면을 표시하는 프로그램의 전체 또는 일부이고, 전자 장치에 저장된 상태일 수 있다. 한 실시 예에 따르면, 프로세서 120은, 서브 장면을 제어하고, 상대방 전자 장치의 디스플레이에 표시된 장면을 제어된 서브 장면과 동기화할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 메인 장면의 일부 영역을 캡쳐하고, 캡쳐한 일부 영역의 사이즈와 밝기 중 적어도 어느 하나를 변경하여 서브 장면을 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 캡쳐한 영역을 전자 장치의 디스플레이에 전체 화면 사이즈로 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 전자 장치의 카메라 촬영과 사용자 터치 중 적어도 어느 하나의 입력에 의해 일부 영역을 캡처하고, 상대방 전자 장치와 전자 장치 간의 디스플레이 좌표 동기화를 통해, 일부 영역을 서브 장면으로 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 메인 장면을 제어하기 위한 리모트 컨트롤러 형상의 그래픽 이미지와 터치 버튼을 서브 장면으로 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 캡처한 영역에 대응하여 사전에 설정된 서브 이미지들 중 어느 하나를 서브 장면으로 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 메인 장면과 연동하도록, 사전에 설정된 이미지들 중 어느 하나를 획득하여 서브 장면을 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 메인 장면 중 일부 영역과 연동되되, 메인 장면과는 다른 장면의 이미지로서, 상대방 전자 장치와 전자 장치 중 적어도 어느 하나에 저장되는 서브 이미지들을 처리할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 전자 장치의 가속도 센서, 기울기 센서, 속도 센서, 자이로스코프 센서 중 적어도 어느 하나의 센서 값에 따라 변경하여 서브 장면으로 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 특정 프로그램의 시나리오 및 이벤트 중 적어도 어느 하나에 기반하여, 메인 장면과 연관된 장면을 서브 장면으로 표시할 수 있다.
다양한 실시 예에 따르면 프로세서 120은, 통신 모듈을 제어하여, 상대방 전자 장치와 페어링을 통해, 특정 프로그램을 동시에 실행하고, 디스플레이 모듈을 제어하여, 상대방 전자 장치를 제어하기 위한 사용자 인터페이스 장면을 표시하고, 특정 프로그램의 시나리오와 이벤트 중 적어도 어느 하나에 기반하여, 상대방 전자 장치의 디스플레이 장면에 연관된 서브 장면을 표시할 수 있다.
한 실시 예에 따르면, 프로세서 120은, 터치스크린을 구비하고, 상대방 전자 장치는, 터치스크린 보다 큰 스크린을 구비하고, 특정 프로그램은, 멀티 스크린 게임용 프로그램일 수 있다. 한 실시 예에 따르면, 한 실시 예에 따르면, 프로세서 120은, 디스플레이 모듈을 제어하여, 사용자 인터페이스 장면으로서, 상대방 전자 장치를 제어하기 위한 리모트 컨트롤러 형상의 그래픽 이미지와 터치 버튼을 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 특정 프로그램의 시나리오와 이벤트 중 적어도 어느 하나에 기반하여, 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 캡처한 영역의 사이즈와 밝기 중 적어도 어느 하나를 변경하여 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은 전자 장치의 카메라 촬영과 사용자 터치 중 적어도 어느 하나의 입력에 의해 일부 영역을 캡처하고, 캡처된 일부 영역은, 상대방 전자 장치와 전자 장치 간의 디스플레이 좌표 동기화를 통해, 서브 장면으로 표시될 수 있다. 한 실시 예에 따르면, 프로세서 120은, 특정 프로그램의 시나리오와 이벤트 중 적어도 어느 하나에 기반하여, 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 캡처한 영역에 연동하도록, 사전에 설정된 서브 이미지들 중 어느 하나를 획득하여 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 상대방 전자 장치의 디스플레이 장면 중 일부 영역과 서브 이미지들을 연동하되, 디스플레이 장면과는 다른 장면의 이미지로서, 상대방 전자 장치와 전자 장치 중 적어도 어느 하나에 저장될 수 있다. 한 실시 예에 따르면, 프로세서 120은, 특정 프로그램의 시나리오와 이벤트 중 적어도 어느 하나에 기반하여, 상대방 전자 장치의 디스플레이 장면과 연동하도록, 사전에 설정된 서브 이미지들 중 어느 하나를 획득하여 표시할 수 있다. 한 실시 예에 따르면, 프로세서 120은, 상대방 전자 장치의 디스플레이 장면과 서브 이미지들을 연동하되, 디스플레이 장면과는 다른 장면의 이미지로서, 상대방 전자 장치와 전자 장치 중 적어도 어느 하나에 저장될 수 있다. 한 실시 예에 따르면, 프로세서 120은, 가속도 센서, 속도 센서, 기울기 센서, 자이로스코프 센서 중 적어도 어느 하나의 센서 값에 따라 이미지들을 변경하여 표시할 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치의 전술한 구성 요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
다양한 실시 예에 따르면, 본 발명의 청구항 및/또는 명세서에 기재된 다양한 실시 예에 따른 장치, 방법의 적어도 일부는, 하드웨어, 소프트웨어, 펌웨어, 또는 하드웨어, 소프트웨어 및 펌웨어 중 하나 또는 둘 이상의 조합을 포함하는 형태(예: 모듈 또는 유닛)을 의미하거나 또는 구현될(implemented) 수 있다.‘모듈’은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. ‘모듈’은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. 더하여, ‘모듈’은 본 발명의 다양한 실시 예에서 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. ‘모듈’은 기계적으로 또는 전자적으로 구현될 수 있다. 예컨대, ‘모듈’은 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있고, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행할 수 있다. 더하여 ‘모듈’은 하나 이상의 프로그램(또는 프로그래밍 모듈, 어플리케이션)을 저장하는 컴퓨터 판독 가능 저장 매체(또는 컴퓨터로 읽을 수 있는 저장 매체)로 제공될 수 있다. 예컨대, 소프트웨어는 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 하나 이상의 프로그램은, 전자 장치로 하여금, 본 발명의 청구항 및/또는 명세서에 기재된 실시 예에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함할 수 있다. 명령어는, 하나 이상의 프로세서 (예: 프로세서 120)에 의해 실행될 경우, 하나 이상의 프로세서가 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리 230)가 될 수 있다. 프로그래밍 모듈의 적어도 일부는, 예를 들면, 프로세서220에 의해 구현(implement)(예: 실행)될 수 있다. 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시(flash) 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치, 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)가 포함될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
다양한 실시 예에 따르면 전자 장치는, 연결된 상대방 전자 장치에 표시된 메인 장면과 특정 프로그램의 진행을 동기화하는 동작; 특정 프로그램으로부터 메인 장면과 관련된 서브 장면을 결정하는 동작; 및 서브 장면을 전자 장치에 표시하는 동작을 수행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장매체를 포함할 수 있다.
다양한 실시 예에 따르면 전자 장치는, 멀티 이미지 프레임 촬영 모드에 대응되는 촬영 조건을 결정하는 동작; 결정된 촬영 조건에 포함된 촬영 횟수에 따라 다수의 이미지 프레임들을 촬영하는 동작; 및 촬영된 다수의 이미지 프레임들에 기반하여, 사전에 설정된 해상도의 이미지를 생성하는 동작을 수행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장매체를 포함할 수 있다.
더하여, 전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 전자 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 휴대용 전자 장치에 접속할 수도 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시 예에 대한 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시 예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
101: 전자 장치 120: 프로세서
135: 표시 처리 프로그램 160: 통신 인터페이스
170: 센서부

Claims (25)

  1. 전자 장치의 멀티 디스플레이 서비스 방법에 있어서,
    연결된 상대방 전자 장치에 표시된 메인 장면과 특정 프로그램의 진행을 동기화하는 동작;
    상기 특정 프로그램으로부터 상기 메인 장면과 관련된 서브 장면을 결정하는 동작; 및
    상기 서브 장면을 상기 전자 장치에 표시하는 동작을 포함하는 방법.
  2. 제1항에 있어서,
    상기 특정 프로그램은, 상기 상대방 전자 장치에 상기 메인 장면을 표시하는 프로그램의 전체 또는 일부이고, 상기 전자 장치에 저장된 상태인 방법.
  3. 제1항에 있어서,
    상기 서브 장면을 제어하는 경우, 상기 상대방 전자 장치의 디스플레이에 표시된 장면은 상기 제어된 서브 장면과 동기화되는 방법.
  4. 제1항에 있어서,
    상기 서브 장면을 표시하는 동작은, 상기 메인 장면의 일부 영역을 캡쳐하고, 상기 캡쳐한 일부 영역의 사이즈와 밝기 중 적어도 어느 하나를 변경하여 표시하는 방법
  5. 제4항에 있어서,
    상기 서브 장면을 표시하는 동작은, 상기 캡쳐한 영역을 상기 전자 장치의 디스플레이에 전체 화면 사이즈로 표시하는 방법.
  6. 제4항에 있어서,
    상기 일부 영역은, 상기 전자 장치의 카메라 촬영과 사용자 터치 중 적어도 어느 하나의 입력에 의해 캡처하고,
    상기 캡처한 일부 영역은, 상기 상대방 전자 장치와 상기 전자 장치 간의 디스플레이 좌표 동기화를 통해, 상기 서브 장면으로 표시되는 방법.
  7. 제1항에 있어서,
    상기 서브 장면은, 상기 메인 장면을 제어하기 위한 리모트 컨트롤러 형상의 그래픽 이미지와 터치 버튼을 표시하는 방법.
  8. 제1항에 있어서,
    상기 서브 장면을 표시하는 동작은, 상기 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 상기 캡처한 영역에 대응하여 사전에 설정된 서브 이미지들 중 어느 하나를 표시하는 방법.
  9. 제1항에 있어서,
    상기 서브 장면을 표시하는 동작은, 상기 메인 장면과 연동하도록, 사전에 설정된 이미지들 중 어느 하나를 획득하여 표시하는 방법.
  10. 제8항에 있어서,
    상기 서브 이미지들은, 상기 메인 장면 중 일부 영역과 연동되되, 상기 메인 장면과는 다른 장면의 이미지로서, 상기 상대방 전자 장치와 상기 전자 장치 중 적어도 어느 하나에 저장되는 방법.
  11. 제1항에 있어서,
    상기 서브 장면을 표시하는 동작은, 상기 전자 장치의 가속도 센서, 기울기 센서, 속도 센서, 자이로스코프 센서 중 적어도 어느 하나의 센서 값에 따라 변경하여 표시하는 동작을 더 포함하는 방법.
  12. 제1항에 있어서,
    상기 서브 장면을 표시하는 동작은, 상기 특정 프로그램의 시나리오 및 이벤트 중 적어도 어느 하나에 기반하여, 상기 메인 장면과 연관된 장면을 표시하는 동작을 포함하는 방법.
  13. 전자 장치에 있어서,
    통신 모듈;
    디스플레이 모듈; 및
    상기 통신 모듈과 상기 디스플레이 모듈을 제어하는 프로세서를 포함하되,
    상기 프로세서는, 연결된 상대방 전자 장치에 표시된 메인 장면과 특정 프로그램의 진행을 동기시키고, 상기 특정 프로그램으로부터 상기 메인 장면과 관련된 서브 장면을 결정하고, 상기 서브 장면을 상기 전자 장치에 표시하는 장치.
  14. 제13항에 있어서,
    상기 특정 프로그램은, 상기 상대방 전자 장치에 상기 메인 장면을 표시하는 프로그램의 전체 또는 일부이고, 상기 전자 장치에 저장된 상태인 장치.
  15. 제13항에 있어서,
    상기 프로세서는, 상기 서브 장면을 제어하고, 상기 상대방 전자 장치의 디스플레이에 표시된 장면을 상기 제어된 서브 장면과 동기화하는 장치.
  16. 제13항에 있어서,
    상기 프로세서는, 상기 메인 장면의 일부 영역을 캡쳐하고, 상기 캡쳐한 일부 영역의 사이즈와 밝기 중 적어도 어느 하나를 변경하여 상기 서브 장면을 표시하는 장치.
  17. 제16항에 있어서,
    상기 프로세서는, 상기 캡쳐한 영역을 상기 전자 장치의 디스플레이에 전체 화면 사이즈로 표시하는 장치.
  18. 제16항에 있어서,
    상기 프로세서는, 상기 전자 장치의 카메라 촬영과 사용자 터치 중 적어도 어느 하나의 입력에 의해 상기 일부 영역을 캡처하고, 상기 상대방 전자 장치와 상기 전자 장치 간의 디스플레이 좌표 동기화를 통해, 상기 일부 영역을 상기 서브 장면으로 표시하는 장치.
  19. 제13항에 있어서,
    상기 프로세서는, 상기 메인 장면을 제어하기 위한 리모트 컨트롤러 형상의 그래픽 이미지와 터치 버튼을 상기 서브 장면으로 표시하는 장치.
  20. 제13항에 있어서,
    상기 프로세서는, 상기 상대방 전자 장치의 디스플레이 장면 중 일부 영역을 캡처하고, 상기 캡처한 영역에 대응하여 사전에 설정된 서브 이미지들 중 어느 하나를 상기 서브 장면으로 표시하는 장치.
  21. 제13항에 있어서,
    상기 프로세서는, 상기 메인 장면과 연동하도록, 사전에 설정된 이미지들 중 어느 하나를 획득하여 상기 서브 장면을 표시하는 장치.
  22. 제20항에 있어서,
    상기 프로세서는, 상기 메인 장면 중 일부 영역과 연동되되, 상기 메인 장면과는 다른 장면의 이미지로서, 상기 상대방 전자 장치와 상기 전자 장치 중 적어도 어느 하나에 저장되는 상기 서브 이미지들을 처리하는 장치.
  23. 제13항에 있어서,
    상기 프로세서는, 상기 전자 장치의 가속도 센서, 기울기 센서, 속도 센서, 자이로스코프 센서 중 적어도 어느 하나의 센서 값에 따라 변경하여 상기 서브 장면으로 표시하는 장치.
  24. 제13항에 있어서,
    상기 프로세서는, 상기 특정 프로그램의 시나리오 및 이벤트 중 적어도 어느 하나에 기반하여, 상기 메인 장면과 연관된 장면을 상기 서브 장면으로 표시하는 장치.
  25. 전자 장치에서, 연결된 상대방 전자 장치에 표시된 메인 장면과 특정 프로그램의 진행을 동기화하는 동작; 상기 특정 프로그램으로부터 상기 메인 장면과 관련된 서브 장면을 결정하는 동작; 및 상기 서브 장면을 상기 전자 장치에 표시하는 동작을 수행하기 위한 프로그램이 저장된 컴퓨터 판독 가능 저장매체.
KR1020140163661A 2014-11-21 2014-11-21 이미지 표시 방법 및 그 전자 장치 Ceased KR20160061133A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140163661A KR20160061133A (ko) 2014-11-21 2014-11-21 이미지 표시 방법 및 그 전자 장치
EP15194700.9A EP3023971A3 (en) 2014-11-21 2015-11-16 Method for displaying image and electronic device thereof
US14/947,082 US9940087B2 (en) 2014-11-21 2015-11-20 Method for displaying image and electronic device thereof
CN201510817758.9A CN105635771A (zh) 2014-11-21 2015-11-23 显示图像的方法及其电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140163661A KR20160061133A (ko) 2014-11-21 2014-11-21 이미지 표시 방법 및 그 전자 장치

Publications (1)

Publication Number Publication Date
KR20160061133A true KR20160061133A (ko) 2016-05-31

Family

ID=54608315

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140163661A Ceased KR20160061133A (ko) 2014-11-21 2014-11-21 이미지 표시 방법 및 그 전자 장치

Country Status (4)

Country Link
US (1) US9940087B2 (ko)
EP (1) EP3023971A3 (ko)
KR (1) KR20160061133A (ko)
CN (1) CN105635771A (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD789955S1 (en) * 2014-11-04 2017-06-20 Teenage Engineering Ab Display screen or portion thereof with graphical user interface
USD914047S1 (en) 2014-11-04 2021-03-23 Teenage Engineering Ab Display screen or portion thereof with graphical user interface
KR102481632B1 (ko) * 2016-04-26 2022-12-28 삼성전자주식회사 전자 장치 및 전자 장치의 디스플레이를 이용한 적응적 터치 입력 방법
CN106250079B (zh) * 2016-07-28 2020-07-07 海信视像科技股份有限公司 图像显示方法及装置
US10009933B2 (en) 2016-09-02 2018-06-26 Brent Foster Morgan Systems and methods for a supplemental display screen
KR20180113109A (ko) * 2017-04-05 2018-10-15 삼성전자주식회사 전자 장치 및 전자 장치의 화면 표시 방법
US11150922B2 (en) * 2017-04-25 2021-10-19 Google Llc Initializing a conversation with an automated agent via selectable graphical element
US10657148B2 (en) 2017-04-28 2020-05-19 International Business Machines Corporation Accessing a latest version of documentation for an IoT device
CN107480420B (zh) * 2017-06-28 2021-04-20 深圳市法本信息技术股份有限公司 一种大数据的医疗信息展示系统及其展示方法
JP2019056996A (ja) * 2017-09-20 2019-04-11 セイコーエプソン株式会社 情報処理装置、および、情報処理装置の制御方法
CN108040273B (zh) * 2017-12-15 2020-05-01 上海兆芯集成电路有限公司 控制机顶盒游戏的方法、远端控制系统及手持电子装置
US10976982B2 (en) 2018-02-02 2021-04-13 Samsung Electronics Co., Ltd. Guided view mode for virtual reality
US10346122B1 (en) * 2018-10-18 2019-07-09 Brent Foster Morgan Systems and methods for a supplemental display screen
CN112540735B (zh) * 2019-09-20 2023-03-14 西安诺瓦星云科技股份有限公司 多屏同步显示方法、装置及系统以及计算机存储介质
CN112121406A (zh) * 2020-09-22 2020-12-25 北京完美赤金科技有限公司 对象的控制方法和装置、存储介质、电子装置
KR20250048704A (ko) * 2022-08-08 2025-04-10 엘지전자 주식회사 외부 디스플레이가 연결될 수 있는 사용자 단말기 및 이를 위한 제어 방법
GB2631307A (en) * 2023-06-27 2025-01-01 Sony Interactive Entertainment Inc Virtual environment navigation method and system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4691268B2 (ja) * 2001-05-02 2011-06-01 任天堂株式会社 ゲームシステムおよびゲームプログラム
JP3690672B2 (ja) * 2002-05-17 2005-08-31 任天堂株式会社 ゲームシステムおよびゲームプログラム
KR101701859B1 (ko) 2010-08-13 2017-02-02 엘지전자 주식회사 이동단말기, 디스플레이 장치 및 그 제어 방법
US20120086630A1 (en) * 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
CN102547173B (zh) 2010-12-31 2014-09-10 上海广电电子科技有限公司 电视机遥控方法以及电视装置
JP5757741B2 (ja) * 2011-01-25 2015-07-29 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
US8674957B2 (en) * 2011-02-04 2014-03-18 Qualcomm Incorporated User input device for wireless back channel
US9597590B2 (en) * 2011-04-01 2017-03-21 Massachusetts Institute Of Technology Methods and apparatus for accessing peripheral content
JP5755943B2 (ja) * 2011-06-03 2015-07-29 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
IN2014CN03389A (ko) * 2011-10-11 2015-07-03 Timeplay Entertainment Corp
KR20130109904A (ko) 2012-03-27 2013-10-08 한국전자통신연구원 멀티스크린 기반의 다차원 게임 서비스 방법 및 그 장치
US10289284B2 (en) * 2014-11-25 2019-05-14 International Business Machines Corporation Viewing selected zoomed content

Also Published As

Publication number Publication date
US9940087B2 (en) 2018-04-10
EP3023971A3 (en) 2016-08-31
CN105635771A (zh) 2016-06-01
US20160147498A1 (en) 2016-05-26
EP3023971A2 (en) 2016-05-25

Similar Documents

Publication Publication Date Title
US11350033B2 (en) Method for controlling camera and electronic device therefor
KR20160061133A (ko) 이미지 표시 방법 및 그 전자 장치
KR102739220B1 (ko) 3차원 컨텐츠의 썸네일 관리 방법 및 그 장치
KR102264808B1 (ko) 지문 처리 방법 및 그 전자 장치
KR102360453B1 (ko) 카메라 설정 방법 및 장치
KR102154802B1 (ko) 전자 장치의 촬영 방법 및 그 전자 장치
US20160048170A1 (en) Method and electronic device for processing image
KR20150092964A (ko) 지문 처리 방법 및 그 전자 장치
EP3023969A2 (en) Display and method and electronic device
KR20180015532A (ko) 디스플레이 제어 방법, 저장 매체 및 전자 장치
KR20150137828A (ko) 데이터 처리 방법 및 그 전자 장치
KR20150142282A (ko) 기능 제어 방법 및 그 전자 장치
EP3364646A1 (en) Electronic device and method for displaying 360-degree image in the electronic device
US11670022B2 (en) Electronic device and method for displaying and generating panoramic image
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
KR20150135837A (ko) 디스플레이 운용 전자장치 및 방법
KR102632270B1 (ko) 전자 장치 및 파노라마 영상 표시와 생성 방법
KR102498815B1 (ko) 전자 장치 및 전자 장치의 비디오 편집 방법
KR20150135911A (ko) Ui 효과 디스플레이 방법 및 전자 장치
KR20150132963A (ko) 디스플레이를 이용한 입력 처리 방법 및 장치
AU2017346260A1 (en) Electronic device and computer-readable recording medium for displaying images
KR102656425B1 (ko) 영상을 표시하는 전자 장치 및 방법
KR102246645B1 (ko) 영상 획득을 위한 장치 및 방법
KR20150136391A (ko) 서비스를 제공하는 방법 및 그 전자 장치
KR20160135476A (ko) 전자 장치 및 그의 카메라 제어 방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20141121

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20190925

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20141121

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20201006

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20201210

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20201006

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I