+

WO2006008947A1 - 移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子機器及び画像表示制御方法 - Google Patents

移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子機器及び画像表示制御方法 Download PDF

Info

Publication number
WO2006008947A1
WO2006008947A1 PCT/JP2005/012316 JP2005012316W WO2006008947A1 WO 2006008947 A1 WO2006008947 A1 WO 2006008947A1 JP 2005012316 W JP2005012316 W JP 2005012316W WO 2006008947 A1 WO2006008947 A1 WO 2006008947A1
Authority
WO
WIPO (PCT)
Prior art keywords
application program
changing
viewpoint
line
communication terminal
Prior art date
Application number
PCT/JP2005/012316
Other languages
English (en)
French (fr)
Inventor
Hirohisa Kusuda
Yasuhiro Nishide
Daisuke Tsujino
Jun Yamazaki
Takashi Katayama
Original Assignee
Vodafone K.K.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vodafone K.K. filed Critical Vodafone K.K.
Priority to EP05765175.4A priority Critical patent/EP1783592B1/en
Priority to US11/632,749 priority patent/US8619028B2/en
Publication of WO2006008947A1 publication Critical patent/WO2006008947A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/301Simulation of view from aircraft by computer-processed or -generated image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Definitions

  • the present invention relates to a mobile communication terminal such as a mobile phone, an abrasion program that can be executed by the mobile communication terminal, an image display control device, an electronic device, and an image display control method.
  • a mobile phone that executes an application program using a direction parameter determined based on a key operation signal of a direction key.
  • the direction parameter used for the process of changing the moving direction of the virtual fighter (virtual object) moving in the virtual game space is the key operation of the direction key operated by the user. Some are determined based on the signal.
  • Examples of mobile phones that execute such application programs include those that can execute application programs written in an object-oriented programming language that does not depend on the platform.
  • JAVA registered trademark; the same shall apply hereinafter
  • JAVA is a mobile phone in which a virtual machine function is implemented and an application program written in JAVA can be executed (see Patent Document 1).
  • various application programs acquired by downloading from a predetermined server can be used.
  • Patent Document 2 describes one that specifies the moving direction of a mobile phone using acceleration detected by a sensor (detection means) that detects acceleration.
  • the cursor movement direction for selecting one of a plurality of input character candidates displayed on the liquid crystal display ( Direction parameter Meter) and move the cursor. Specifically, for example, when the mobile phone is moved in the right direction, the cursor displayed on the liquid crystal display is moved in the right direction according to the moving direction.
  • Typical examples of such image display control of a three-dimensional stereoscopic image object include: (1) control for displaying a stereoscopic image object from a viewpoint fixed to the outside of the stereoscopic image object, (2) There is known a control in which a stereoscopic image object itself has a viewpoint and a subjective viewpoint is displayed so that the surroundings can be viewed from the viewpoint on the stereoscopic image object.
  • the image display control in (1) and (2) above is performed as follows.
  • the above (1) is image display control that is performed so that an image is captured as a bird's-eye view from a viewpoint fixed to the rear or side of an airplane (stereoscopic image object).
  • the image processing in (2) above takes a subjective viewpoint toward the front of the airplane, for example, from the virtual cockpit of the airplane, so that the traveling direction of the airplane changes with the input of an external controller.
  • the image display control is performed so that the screen is always displayed from the viewpoint of looking forward in the traveling direction even when it is controlled.
  • Patent Document 3 describes image display control capable of changing the viewpoint of viewing the stereoscopic image object.
  • an image of a pseudo view when the virtual space is viewed in the visual line direction from the viewpoint set in the virtual space is displayed on the display means.
  • the viewpoint can be moved, the movement direction can be changed, or the line-of-sight direction can be changed according to the operation content.
  • the position of the viewpoint and the line-of-sight direction in the virtual space are changed, and the pseudo view image displayed on the touch panel is changed.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2000-347867
  • Patent Document 2 Japanese Patent Laid-Open No. 2002-169645
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2004-5272
  • the viewpoint set in the virtual space is moved by operating the user touch panel as described above, You can change the viewing direction from that viewpoint.
  • the user's operation is an operation on a two-dimensional plane called a touch panel, so that only this operation can determine the two-dimensional direction on that plane. For this reason, such an operation cannot realize a high operability in which the user can intuitively change the three-dimensional direction of the viewpoint movement direction and the line-of-sight direction in the virtual space.
  • An object of the present invention is to provide a mobile communication terminal that enables two different direction change processes to be performed in parallel according to a user operation without increasing the size of the mobile communication terminal, and To provide an application program.
  • Another object of the present invention is to avoid the conflict between the operation for changing the viewpoint in the virtual space and other operations, while allowing the user to intuitively understand the three-dimensional direction such as the moving direction of the viewpoint and the line-of-sight direction.
  • the present invention is to provide an image display control device, an electronic device, and an image display control method capable of realizing high operability that can be changed.
  • a mobile communication terminal includes an application program execution means for executing an application program using a direction parameter, and at least one of a position, a direction, a posture, and a movement of the mobile communication terminal.
  • Detecting means for detecting, and the application program executing means executes two different direction change processes in parallel according to two direction parameters by executing the application program. This is possible, and at least one of the two directional parameters is determined based on detection data of the detection means.
  • at least one of the direction parameters used in two direction change processes that can be performed in parallel is determined based on the detection data of the detection means. Therefore, at least one of the direction parameters is determined by moving the mobile communication terminal so that the user changes at least one of position, orientation, posture and movement.
  • the detection means can be provided inside the mobile communication terminal. Therefore, compared with the case where two key operation means are provided to determine the above two direction parameters, the mobile communication terminal does not need to be enlarged!
  • two different direction changing processes here refers to the two target directions for two different targets whose directions can be changed by execution of the application program. Depending on the processing required to change each
  • the mobile communication terminal includes display means for displaying an image of a pseudo view when the virtual space is viewed in a visual line direction from a viewpoint set in the virtual space, and the two directions
  • the change process is preferably a viewpoint movement direction change process for changing the movement direction of the viewpoint and a line-of-sight direction change process for changing the line-of-sight direction.
  • this mobile communication terminal when the user moves the mobile communication terminal so that at least one of the position, orientation, posture, and movement changes, the user moves the viewpoint and moves the viewpoint. At least one of them is changed.
  • This operation is an operation in a three-dimensional space (real space) in which the mobile communication terminal is moved. Therefore, when changing the viewpoint movement direction and the line-of-sight direction in the same three-dimensional virtual space, the user Since it can be operated intuitively, high operability can be realized.
  • the application program execution unit determines both of the two direction parameters based on detection data of the detection unit, and the line-of-sight direction change process is performed by moving the viewpoint. Even so, it is preferable to change the line-of-sight direction so that the line-of-sight direction is maintained in a direction facing the virtual object existing in the virtual space.
  • the viewpoint movement direction change process and the line-of-sight direction change process are performed in parallel according to two direction parameters determined based on the detection data of the detection means. It is possible. Then, the line-of-sight direction changing process is performed so that the direction of the line of sight is maintained in a direction toward the virtual object existing in the virtual space even if the viewpoint moves. Therefore, the image of the virtual object is always displayed on the display means. Moreover, if the user moves the mobile communication terminal, the direction of movement of the viewpoint is changed accordingly, and the relative position of the viewpoint with respect to the virtual object in the virtual space can be changed.
  • the user can check the virtual object from his / her desired direction by performing only one operation of moving the mobile communication terminal.
  • the mobile communication terminal is provided with a key operation means having a key operated by a user, and the application program execution means has one of the two direction parameters of the detection means. It is preferable that the determination is made based on the detection data, and the other is made based on the key operation signal from the key operation means.
  • one of the two direction change processes is performed using a direction parameter determined based on a key operation signal, and the other is performed using a direction parameter determined based on detection data of a detection means.
  • the former direction parameter is determined by the key operation by the user.
  • the latter direction parameter is determined when the user moves the mobile communication terminal so that at least one of position, orientation, posture and movement changes.
  • the user can perform key operations and move the mobile communication terminal simultaneously and independently. Therefore, according to this mobile communication terminal, it is possible to simultaneously and independently perform an operation for determining two direction parameters respectively used in two direction change processes performed in parallel. .
  • the application program execution means executes the application program to advance a game in which a virtual object moves in a virtual game space. Any one of the processes is preferably a process of changing the moving direction of the virtual object in the virtual game space.
  • the moving direction of the virtual object in the virtual game space can be changed by the user performing a key operation or an operation of moving the mobile communication terminal.
  • the user can operate the keys or move the mobile communication terminal.
  • another direction changing process for changing the change target direction different from the moving direction of the virtual object can be performed. Therefore, the process of changing the moving direction of the virtual object and the operation of determining each direction parameter used for other direction changing processes can be performed simultaneously and independently.
  • the application program execution means executes a game in which a virtual object moves in a virtual game space by executing the application program, and the virtual game space Display means for displaying a pseudo view when the game space is viewed from the viewpoint set in the view direction, and one of the two direction change processes is the moving direction of the viewpoint. It is preferable to be a process of changing the line of sight or a process of changing the viewing direction.
  • the movement direction or line-of-sight direction of the viewpoint set in the virtual game space is determined by the user performing a key operation or an operation of moving the mobile communication terminal. Can be changed.
  • the viewpoint movement direction and the line-of-sight direction in this way, it is possible to change the pseudo view in the virtual game space and to change the image displayed on the display means.
  • the operation differs from the viewpoint movement direction or line-of-sight direction.
  • Other direction change processing to change the change target direction can be performed. Therefore, the direction changing process for changing the pseudo view in the virtual game space and the other direction changing process can be performed simultaneously and individually.
  • the application program execution means is configured to advance a game in which a virtual object moves in a virtual game space by executing the application program, and the virtual game space Display means for displaying a pseudo view when the game space is viewed from the viewpoint set in the view direction, and one of the two direction change processes changes the movement direction of the viewpoint.
  • the other is a process of changing the viewing direction.
  • the direction of movement of the viewpoint set in the virtual game space is determined by the user performing a key operation or an operation of moving the mobile communication terminal. Can be changed.
  • the direction changing process for changing the line-of-sight direction can be performed. Therefore, the direction changing process for changing the moving direction of the viewpoint in the virtual game space and the direction changing process for changing the line-of-sight direction from the viewpoint in the virtual game space can be performed simultaneously and individually.
  • An application program includes a computer provided in the mobile communication terminal including detection means for detecting at least one of the position, orientation, posture, and movement of the mobile communication terminal.
  • the computer is made to function as an application program execution means that is determined based on the detected data.
  • This application program can cause the computer of the mobile communication terminal to execute processing similar to the above-described application program execution means included in the mobile communication terminal.
  • This application program can be delivered using a recording medium such as an FD or CD-ROM in which the program is recorded as digital information, or a communication network such as a computer network.
  • the image display control apparatus is a display control for causing the display means to display an image of a pseudo view when the virtual space is viewed in the visual line direction from the viewpoint set in the virtual space.
  • An image display control device for performing V, and changing the viewpoint based on detection data detected by detection means for detecting at least one of the position, orientation, posture and movement of the operating body.
  • the image processing apparatus includes an image change processing unit that performs at least one of a viewpoint change process and a line-of-sight direction change process for changing the line-of-sight direction, and changes the pseudo view image.
  • the change in viewpoint includes not only the change in the direction of movement of the viewpoint but also the change in the amount of movement of the viewpoint.
  • this image display control device when the user moves the operating body so that at least one of the position, orientation, posture, and movement changes, the user can perform the operation to change the viewpoint and the viewpoint. At least one of the line-of-sight directions is changed. Since this operation is an operation in a three-dimensional space (real space) in which the operating body is moved, it can be used to move the viewpoint and change the viewing direction from that viewpoint in the same three-dimensional virtual space. The person can operate intuitively.
  • the electronic device causes the display means to display an image of a pseudo view when the virtual space is viewed from the viewpoint set in the virtual space in the visual line direction.
  • Image display control means for performing display control, and detection means for detecting at least one of the position, orientation, posture, and movement of the electronic device, and the image display control means includes: The image display control device is provided.
  • an image of a pseudo view when the virtual space is viewed in the visual line direction from the viewpoint set in the virtual space is displayed on the display means. Then, by operating in the three-dimensional space (real space) where the user moves the electronic device so that at least one of position, orientation, posture and movement changes, the pseudo view field displayed on the display means At least one of the viewpoint and the line-of-sight direction in the image is changed. Since this operation is an operation in a three-dimensional space (real space) in which the operating body is moved, the user must intuitively change the viewpoint and line-of-sight direction in the virtual space that is the same three-dimensional space. It can be operated.
  • a three-dimensional space in which the user moves the electronic device so that at least one of position, orientation, posture, and movement changes when the viewpoint or line-of-sight direction changes.
  • direction keys and the like can be assigned exclusively for operations outside the image object in the virtual space, it is possible to clarify the division of roles between the change of the viewpoint and the line-of-sight direction and the image object operation. it can.
  • a powerful viewpoint can be obtained by linking the external input of at least one of the position, orientation, orientation, and movement of the electronic device with the change of the viewpoint or line-of-sight direction in the virtual space image displayed on the display means on the electronic device. It is possible to provide interactivity for the operation of changing the eye direction. Especially for electronic devices such as mobile phones, PDAs, and portable game machines. Oh, and the tilt and acceleration of the electronic device itself! / If the change in posture is linked to the change in the viewpoint and line-of-sight direction, dynamic image processing that is different from conventional ones can be performed.
  • a display for causing the display means to display an image of a pseudo view when the virtual space is viewed in the visual line direction from the viewpoint set in the virtual space.
  • An image display control method for performing control wherein at least one of a position, an orientation, a posture, and a movement of an operating body is detected, and a viewpoint changing process for changing the viewpoint based on the detection data and the line of sight At least one of the line-of-sight direction changing processing for changing the direction is performed to change the pseudo view field image.
  • At least one of the viewpoint and the line-of-sight direction is changed by performing an operation in which the user moves the operation body so that at least one of position, orientation, posture, and movement changes.
  • This operation is an operation in a three-dimensional space (real space) in which the operating body is moved, the user operates intuitively when changing the viewpoint or line-of-sight direction in the same three-dimensional virtual space. It becomes possible.
  • the mobile communication terminal mobile phones such as PDC (Personal Digital Cellular), GSM (Global bystem for Mobile and ommunication), TIA, telecommunications Industry Association, IMT (International Mobile Telecommunications) —Mobile phones standardized with 2000, TD-SCDMA (Time Division Synchronous Code Division Multiple Access) system, TD—SCDMA (MC: Multi Carrier) type mobile phone, PHS (Personal Handyphone System), Examples include telephones such as automobile phones.
  • the mobile communication terminal includes a mobile mobile communication terminal such as a PDA (Personal Digital Assistance) that does not have a telephone function.
  • PDA Personal Digital Assistance
  • the electronic device includes a portable information terminal (PDA: Personal Digital Assistance), a game machine, and the like.
  • PDA Personal Digital Assistance
  • the image display control device, the electronic apparatus, and the image display control method according to the present invention in a virtual space that is a three-dimensional space, compared to a two-dimensional operation such as an operation of a direction key or a touch panel. Because it is possible to change the viewpoint and the line-of-sight direction of the viewpoint by intuitive operation, high operability can be realized. In addition, since it is not necessary to use the touch panel operation to change the viewpoint or line-of-sight direction, it is possible to avoid contention with other operations using the direction key.
  • FIG. 1 is an explanatory diagram for explaining an overall configuration of a mobile communication system in which a mobile phone according to an embodiment of the present invention can be used.
  • FIG. 2 is a schematic configuration diagram showing a hardware configuration of a download server constituting the mobile communication system.
  • FIG. 3 is a front view showing the appearance of the mobile phone.
  • FIG. 4 is a schematic configuration diagram showing a hardware configuration of the mobile phone.
  • FIG. 5 is a functional block diagram of the mobile phone.
  • FIG. 6 is a block diagram showing the main configuration of the mobile phone.
  • FIG. 7 is an explanatory diagram of a software structure in the mobile phone.
  • FIG. 8 is a flowchart showing a process flow for executing the application program in Operation Example 1 on the mobile phone.
  • FIG. 9 is a flowchart showing a flow of model selection processing in the second operation example of the mobile phone.
  • FIG. 10A is an explanatory diagram showing a relationship between a mobile phone in a basic posture and an appearance image of an airplane in a virtual space displayed on the liquid crystal display.
  • FIG. 10B is an explanatory diagram showing the relationship between the mobile phone after the posture is changed and the appearance image of the airplane in the virtual space displayed on the liquid crystal display.
  • FIG. 10C is an explanatory diagram showing the relationship between the mobile phone after the attitude is changed and the appearance image of the airplane in the virtual space displayed on the liquid crystal display.
  • FIG. 11 is a flowchart showing a process flow for executing the application program in Operation Example 3 on the mobile phone. Explanation of symbols
  • FIG. 1 is an explanatory diagram for explaining the overall configuration of a mobile communication system in which the mobile phone according to the present embodiment can be used.
  • the mobile phone 20 used by the user 1 has a configuration capable of executing an application program registered by the user 1! /.
  • this application program is developed by platform-independent object-oriented programming. Examples of such application programs include application programs written in JAVA and application programs that run in the application execution environment of BRE W.
  • This mobile phone 20 can be connected to a mobile phone communication network 10 as a communication network.
  • the mobile phone communication network 10 is connected to an abrasion program download server (hereinafter referred to as “download sano”) 11 as a program providing server.
  • download sano abrasion program download server
  • the application program provided from the download server 11 is provided from the application program developer 2. Specifically, for example, it is uploaded from the personal computer on the application program developer 2 side to the download server 11 via a dedicated line or public line.
  • a recording medium such as an optical disk or magnetic disk on which the developed application program is recorded is sent from the application program developer 2 to the telecommunications carrier managing and operating the download server 11, and the application program in the recording medium is downloaded to the download server. It may be provided as read at 11.
  • the application program thus provided is registered in the download site 11 in a state where it can be downloaded from the mobile phone 20 via the mobile phone communication network 10.
  • FIG. 2 is a schematic configuration diagram showing a hardware configuration of the download server 11.
  • the download server 11 includes a system bus 100, a CPU 101, an internal storage device, an external storage device 104, an input device 105, and an output device 106.
  • the internal storage device includes a RAM 102, a ROM 103, and the like.
  • the external storage device is composed of a hard disk drive (HDD), an optical disk drive, or the like.
  • the input device 105 includes an external storage device 104, a mouse, a keyboard, and the like.
  • the output device 106 includes a display, a printer, and the like.
  • the download server 11 includes a mobile phone communication device 107 for communicating with the mobile phone 20 of each user 1 via the mobile phone communication network 10.
  • the components such as the CPU 101 and the RAM 102 exchange data and program instructions with each other via the system bus 100.
  • a program for operating the download server 11 in accordance with a predetermined procedure is stored in the ROM 103 or the external storage device 104, and is called and executed in the work area on the CPU 101 or RAM 102 as necessary.
  • an application program to be provided to the mobile phone 20 is stored in the external storage device 104.
  • the download server 11 is stored in the external storage device 104 in cooperation with the CPU 101, RAM 102, mobile phone communication network communication device 107, and the like. It has a function of transmitting the prescription program to the mobile phone 20 via the mobile phone communication network 10.
  • the download server 11 may be configured as a dedicated control device or may be configured using a general-purpose computer system. Also, it can be configured with a single computer, or it can be configured by connecting multiple computers, each with multiple functions, over a network.
  • FIG. 3 is a front view showing the external appearance of the mobile phone 20
  • FIG. 4 is a schematic configuration diagram showing the hardware configuration of the mobile phone 20.
  • This cellular phone 20 is a clamshell (folding) type cellular phone, which includes a system node 200, a CPU 201, a RAM 202, a ROM 203, and other internal control devices, an input device 204, an output device 205, a cellular phone communication device 206, An acceleration sensor 207 and a geomagnetic sensor 208 are provided. Components such as the CPU 201 and the RAM 202 exchange various data and program instructions described later via the system bus 200.
  • the input device 204 includes power such as a data input key (ten key, * key, # key) 21, a call start key 22, an end key 23, a direction key 24, a multi-function key 25, a microphone 26, and the like.
  • the output device 205 includes a liquid crystal display (LCD) 27, a speaker 28, and the like as display means.
  • the mobile phone communication device 206 is for communicating with other mobile phones and the download server 11 via the mobile phone communication network 10. Further, in the RAM 202, a platform storage area as a first storage means managed by a telephone platform described later, and an application storage area as a second storage means managed in an application execution environment described later. Exists.
  • the acceleration sensor 207 is an acceleration that is directed in two directions (X-axis direction and Y-axis direction in Fig. 3) orthogonal to each other in a plane parallel to the operation surface provided with the data input key. , a
  • the acceleration sensor 207 is mounted on a circuit board (not shown) provided inside the mobile phone 20 and can detect the accelerations ⁇ , a, a.
  • acceleration sensor 207 for example, acceleration ⁇ , a
  • the geomagnetic sensor 208 is arranged on a three-dimensional coordinate composed of the X axis, the heel axis, and the heel axis. This is a three-axis sensor that detects the magnetic field strength component (magnetic flux density component) of the geomagnetism.
  • the detection results of the geomagnetic sensor 208 are used to detect the angles 0, ⁇ , and ⁇ around the X, Y, and Z axes. Specifically, the direction of geomagnetism is the reference.
  • the amount of change when it changes with respect to the direction of the geomagnetism (reference direction) is detected using the angles 0, ⁇ , and ⁇ around the X, Y, and Z axes. As a result, the direction of geomagnetism becomes the reference direction.
  • the posture after the change can be specified by each angle 0, ⁇ , ⁇ .
  • the angle ⁇ is called the pitch angle
  • the angle ⁇ around the Y axis is called the Ronore angle
  • the angle ⁇ is called a single angle. Also, the roll angle ⁇ here refers to the Z axis projected onto the horizontal plane.
  • the geomagnetic sensor 208 is also mounted on a circuit board (not shown) provided inside the mobile phone 20.
  • the acceleration sensor 207 and the geomagnetic sensor 208 may be configured as separate devices from the mobile phone 20 itself. In this case, with respect to the acceleration sensor 207 and the geomagnetic sensor 208, an external device including these sensors 207 and 208 is connected to be integrated with the main body of the mobile phone 20.
  • FIG. 5 is a functional block diagram of the mobile phone 20 according to the present invention.
  • FIG. 6 is a block diagram showing a main configuration of the mobile phone 20, and
  • FIG. 7 is an explanatory diagram of a software structure in the mobile phone 20.
  • the cellular phone 20 includes a telephone communication unit 211 and a data communication unit 212 as wireless communication units, an operation unit 213 as a key operation unit 223, an application program execution management unit 214 as an application program execution unit 220, a main control unit 215, an output unit 216, a sensor detection unit 217 as a detection means 221, and the like.
  • the telephone communication unit 211 performs wireless communication with a base station of the mobile phone communication network 10 in order to perform telephone communication with other mobile phones and fixed phones. It corresponds to the telephone communication device 206 and the like.
  • the data communication unit 212 is similar to the telephone communication unit 211 in the hardware configuration described above. Corresponds to the growth mobile phone communication device 206 and the like. This data communication unit 212 exchanges mail with other mobile phones via the mobile phone communication network 10 or connects to an external communication network such as the Internet from the mobile phone communication network 10 via a gateway server. It is for exchanging e-mails on the Internet and browsing web pages. The data communication unit 212 is also used for downloading an application program provided by the download server 11 via the mobile phone communication network 10.
  • the operation unit 213 includes the above-described direction key 24, ten key 21, call start key 22, end call key 23, and the like operated by the user 1.
  • the user inputs data such as a URL to the mobile phone 20, starts and ends a call when receiving a call, selects an application program, starts and You can stop.
  • the user can download the application program from the download server 11 by operating the operation unit 213.
  • the application program execution management unit 214 includes the system bus 200, the CPU 201, a part of the RAM 202, and the like.
  • This application program execution management unit 214 corresponds to the central “application execution environment” in the software structure of FIG. 7, and is a class library and execution environment management library used for application programs developed by object-oriented programming. Provide software such as application management and manage the execution environment of application programs.
  • the application execution environment is appropriately selected according to the application program to be executed. For example, if the application program to be executed is described in SJAVA, the JAVA application execution environment is selected. Also, if the application program to be executed is written in C language that runs on the BREW execution environment, the BREW application execution environment is selected.
  • the application program to be executed can be executed by building a JAVA application execution environment on the BREW application execution environment.
  • the application program can be used by calling a class library such as a function in the application execution environment via a class library API (application interface).
  • the call history of the class library such as this function is stored in the application storage area in the RAM 202 until the virtual execution environment (virtual machine: VM) of the application program is terminated.
  • the application execution environment also saves various data used in executing the application program in the application storage area. When using these various data, the application storage area is read or written.
  • the execution environment management library in the application execution environment can be used by calling a telephone platform library in the telephone platform, which will be described later, via the telephone platform API.
  • the detection data (acceleration ⁇ , a, a and pitch angle 0) detected by the sensor detection unit 217 described later, which includes the acceleration sensor 207, the geomagnetic sensor 208, and the like.
  • Orientation class a new class is added to the class library because there is no means for the application program to use the detection data in the environment for execution of the recurrence.
  • This Orientation class contains data for acceleration ⁇ , a, a
  • the application program can acquire the detection data using these methods and use it.
  • the main control unit 215 controls the telephone communication unit 211, the data communication unit 212, the output unit 216, and the sensor detection unit 217, and includes the system bus 200, the CPU 201, the RAM 202, and the like. Has been.
  • the main control unit 215 exchanges control commands and various data with the application program execution management unit 214, and performs control in cooperation with this.
  • the main control unit 215 corresponds to the lowermost “telephone platform” in the software structure of FIG. 7, and is a control program for controlling the telephone communication unit 211 and the like.
  • the phone platform executes processing according to the phone platform library. For example, the telephone platform reads data stored in the storage area for the platform managed by the telephone platform in the RAM 202 based on an instruction from the application execution environment using the telephone platform library, and stores it in the application memory. You can move to the memory area.
  • the output unit 216 includes a liquid crystal display 27 as a display unit 222, an output device 205 including a speaker 28, and the like. Further, the output unit 216 displays the Web page screen received by the data communication unit 212 on the liquid crystal display 27.
  • the liquid crystal display 27 of the output unit 216 is used when the telephone communication unit 211 and the data communication unit 212 notify the user that information has been received. Specifically, when the information is received, the main control unit 215 displays an incoming call notification image on the liquid crystal display 27 of the output unit 216 or causes the speaker 28 to output a ring tone. Further, the output unit 216 is used to display a menu screen related to the execution of the program and to output music during execution of the application program executed in the abrasion execution environment.
  • the sensor detection unit 217 includes the acceleration sensor 207, the geomagnetic sensor 208, and the like described above.
  • the sensor detection unit 217 operates under the control of the main control unit 215, and the detection data is acquired by the main control unit 215. Acceleration ⁇ , a, a
  • the main control unit 2115 can grasp each acceleration in the X-axis direction, the Y-axis direction, and the Z-axis direction from the detected data. Acceleration a, a
  • a data is stored in the platform storage area in the RAM 202 by the main control unit 215.
  • the magnetic field strength component magnetic flux density component
  • the sensor detection unit 217 calculates angles 0, ⁇ , and ⁇ after the posture change from the detection signal detected by the geomagnetic sensor 208. Data for each calculated angle 0, ⁇ , ⁇
  • the magnetic field strength component (magnetic flux density component) after the orientation change is detected by the geomagnetic sensor 208 that constitutes the sensor detection unit 217.
  • the sensor detection unit 217 calculates the angle ⁇ after the change of direction from the detection signal detected by the geomagnetic sensor 208.
  • the calculated data of the angle ⁇ is also the main control unit.
  • the following is a method for the main control unit 215 to acquire the ⁇ data from the sensor detection unit 217.
  • this is an acquisition method in which the main control unit 215 sends a request to the sensor detection unit 217 and the main control unit 215 receives the data output by the sensor detection unit 217 in response to the request.
  • an acquisition method may be employed in which the main control unit 215 appropriately receives data continuously output from the sensor detection unit 217 even when there is no request.
  • the main control unit 215 sends a request to the sensor detection unit 217 in response to a request output from the application program via the application program execution management unit 214, and the data output by the sensor detection unit 217 in response to the request is sent to the main control unit 215.
  • the acquisition method received by the control unit 215 can be adopted.
  • a control program for constructing a telephone platform for operating the mobile telephone 20 according to a predetermined procedure is stored in the RAM 202 or the ROM 203. Also basic An OS (operating system) program, a program for building the application execution environment, and an application program are also stored in the RAM 202 and the ROM 203. These programs are called and executed in the work area in the CPU 201 and RAM 202 as necessary.
  • OS operating system
  • operation example 1 an operation example of processing by an application program, which is a characteristic part of the present invention (hereinafter, this operation example will be referred to as “operation example 1”) will be described.
  • this operation example 1 an application program using the pitch angle ⁇ , roll angle 0, and angle 0 is executed.
  • the application program of Operation Example 1 is a flight simulator that is a game.
  • FIG. 8 is a flowchart showing a flow of processing for executing the flight simulator application program.
  • user i downloads and acquires the flight simulator application program from the download server 11 and registers it (Sl). Specifically, the user 1 operates various keys of the operation unit 213 to access the download server 11. As a result, a download selection screen for selecting a downloadable application program is displayed on the liquid crystal display 27. Then, on the download selection screen, when an application program to be executed is selected using the direction key 24 and the multi-function key 25 is pressed, the main control unit 215 controls the data communication unit 212, and the application program Download from download server 11. The application program downloaded in this manner is stored in the RAM 102 by the main control unit 215.
  • the user 1 When executing the downloaded application program, the user 1 operates various keys of the operation unit 213 to display an application selection screen on the liquid crystal display 27 for selecting an application program to be executed. Then, on the application selection screen, the flight simulator application program to be executed is selected using the direction key 24 and the multi-function key 25 is pressed. Then, the application is applied to the telephone platform shown in FIG. 7, that is, the main control unit 215 shown in FIG. A program execution instruction is input (S2). As a result, the main control unit 215 reads the flight simulator application program and starts it (S3).
  • the application program When the application program is activated, the application program operates in the application execution environment shown in FIG. 7, that is, the application program execution management unit 214 shown in FIG.
  • this program When this program is activated and the user 1 performs a predetermined operation for starting the game on the various keys of the operation unit 213 (S4), the game is started and the liquid crystal display 27 of the output unit 216 is started.
  • a game screen In the virtual game space, a game screen is displayed that simulates the field of view as seen by the pilot who has sat in the cockpit of the airplane (virtual object).
  • the direction of the line of sight from that viewpoint is the direction that faces the front direction of the airplane's course, so the game screen displays a virtual airplane's cockpit seat force Sight is projected.
  • the game is progressed.
  • direction change processing is performed to change the course direction (movement direction) of the airplane according to the former direction parameter.
  • the viewpoint of the image displayed on the game screen is the viewpoint of the pilot sitting in the cockpit of the airplane, the viewpoint moves as the airplane moves. Therefore, the direction changing process for changing the course direction of the airplane described above is also a direction changing process for changing the moving direction of the viewpoint.
  • direction change processing is performed to change the line-of-sight direction from the driver's viewpoint according to the direction parameter.
  • This changes the direction of the driver's line of sight within the virtual game space. That is, in the first operation example, the user 1 operates the direction key 24 to change the course direction of the airplane in the virtual game space, and at the same time, changes the posture of the mobile phone 20 separately. You can change the line-of-sight direction of the airplane operator in the virtual game space.
  • the data is stored in a reference data storage area (reference data storage means) in the application storage area in the RAM 202 (S5, S6). Based on this reference data, the user 1 grasps the posture (basic posture) of the mobile phone 20 when performing the flight simulator.
  • a reference data storage area reference data storage means
  • the user 1 grasps the posture (basic posture) of the mobile phone 20 when performing the flight simulator.
  • the application program execution management unit 214 After grasping the basic posture, the application program execution management unit 214 starts a process of accepting the upper, lower, left, and right key operation signals of the direction key 24 in real time (S7).
  • the key operation signal is transmitted from the operation unit 213 to the application program execution management unit 214 via the main control unit 215. It is done.
  • the application program execution management unit 214 receives this key operation signal, the application program execution management unit 214 performs the course change process of the airplane (S8). In this course changing process, for example, when the user 1 presses the upper side of the direction key 24 of the mobile phone 20, the nose of the airplane in the virtual game space is directed downward in the virtual game space by this key operation signal.
  • the game progresses so that the course is changed vertically downward. Also, for example, when the user 1 presses the left side of the direction key 24 of the mobile phone 20, the key operation signal causes the airplane in the virtual game space to roll to the left, so that the course of the airplane is directed to the front in the course direction. The game progresses as if it were changed to the left side.
  • the application program execution management unit 214 also performs a process of updating game screen information for displaying the game screen on the liquid crystal display 27 as the game progresses (S10).
  • the game screen is such that the course direction of the airplane in the virtual game space is changed.
  • the game screen is reproduced so that the view of the cockpit seat force is reproduced as if the course of the airplane is changed vertically downward on the game screen.
  • Update information Thereafter, a process for drawing the updated game screen on the display surface of the liquid crystal display 27 is executed (S11).
  • the application program execution management unit 214 sets the pitch angle ⁇ , roll angle ⁇ , and angle ⁇ detected by the sensor detection unit 217. Data is acquired in near real time (S9). Then, when the user 1 changes the attitude of the mobile phone 20 in order to change the line of sight of the pilot in the virtual game space, the attitude change is detected by the geomagnetic sensor 208 of the sensor detection unit 217, and the angle ⁇ ,
  • the recurrence program execution management unit 214 performs a process of updating the game screen information for displaying the game screen on the liquid crystal display 27 according to the received angle data (S10). More specifically, the game screen is such that the line-of-sight direction of the airplane operator in the virtual game space is changed. More specifically, the application program execution management unit 214 that executes the application program stores the data of the angles 0, ⁇ , and ⁇ acquired in S9 and the application storage area.
  • the application program execution management unit 214 scrolls the game screen to the right according to the grasped rotation direction and rotation angle, and the game screen information as if the driver's gaze direction has been changed to the left. Update to information. Thereafter, a process for drawing the updated game screen on the display surface of the liquid crystal display 27 is executed (S11).
  • the course direction of the airplane in the virtual game space is determined according to the key operation signal. Be changed.
  • the direction of movement of the operator's viewpoint that moves as the aircraft moves is also changed.
  • the line-of-sight direction of the pilot sitting in the airplane's cockpit in the virtual game space is maintained in a state that coincides with the front in the course direction. Therefore, the field of view seen from the viewpoint of the driver is displayed in front of the course direction on the game screen.
  • the direction of the driver's line of sight in the virtual game space is determined according to the detected angle data. Is changed. In this case, the direction of flight of the airplane in the virtual game space is maintained, and the field of view when the pilot sees a direction different from the direction of the airplane, for example, a direction rotated 90 ° from the course direction to the horizontal direction, is obtained. Projected on the game screen.
  • the posture of the mobile phone 20 is grasped using the pitch angle ⁇ , the roll angle ⁇ , and the angle 0 detected by the geomagnetic sensor 208 of the sensor detection unit 217.
  • the attitude of the machine 20 can also be grasped. That is, by detecting the gravitational acceleration by the acceleration sensor 207, the acceleration ⁇ , ⁇ , ⁇
  • X ⁇ ⁇ is the X-axis, ⁇ -axis, and ⁇ -axis gravity acceleration components, respectively. From each gravitational acceleration component, the posture of the mobile phone 20 with respect to the direction of gravity can be grasped.
  • FIG. 9 is a flowchart showing the flow of model selection processing in the second operation example.
  • the data of ⁇ is stored in the RAM 202 as reference data (S22). As mentioned above,
  • the roll angle ⁇ can be used to determine the direction in which the user is facing the front.
  • the basic posture is understood when the normal direction of the display surface of the display (approximately the Z-axis direction) is in the horizontal direction.
  • the liquid crystal display 27 of the output unit 216 displays an external appearance image when the first airplane (virtual object) existing in the virtual space is viewed from the front side. (S23).
  • the appearance image displayed on the liquid crystal display 27 is an image of a pseudo view when the virtual space is viewed in the visual line direction from the viewpoint set in the virtual space.
  • the mobile phone 20 changes from the basic posture shown in FIG. 10A to a posture in which the normal direction (almost Z-axis direction) of the display surface of the liquid crystal display 27 is rotated by 90 ° with the vertical direction as the rotation axis. It will be.
  • the application program execution management unit 213 can grasp this change from the angle data 0, ⁇ , ⁇ (S24). And
  • the application program execution management unit 214 obtains the obtained angle data 0, ⁇ , ⁇
  • the viewpoint movement direction changing process for changing the viewpoint moving direction and the line-of-sight direction changing process for changing the line-of-sight direction of the viewpoint force are performed in parallel and the image information update process is performed based on the reference data and the reference data.
  • the viewpoint is moved by force toward the position facing the left side of the airplane along the surface of the virtual sphere defined with the center point of the airplane as the center. During this movement, the line-of-sight direction from that viewpoint is always changed to face the center of the airplane.
  • a pseudo view when the inside of the virtual space is viewed from the viewpoint at this position in the line of sight that is, the appearance image of the left side of the airplane as shown in FIG. 10B.
  • the drawing process is performed (S26).
  • the application program execution management unit 214 performs image information update processing based on the acquired angle data 0, ⁇ , ⁇ and the reference data (S2
  • the viewpoint is moved to a position facing the upper surface of the airplane. Even during this movement, the direction of the line of sight from that viewpoint is always changed to face the center point of the aircraft.
  • the viewpoint power at this position is a drawing for drawing on the liquid crystal display 27 a pseudo view when the virtual space is viewed in the line of sight, that is, the appearance image of the upper surface of the airplane as shown in FIG. 10C. Processing is performed (S26).
  • the multi-function is displayed with the appearance of the airplane displayed on the LCD 27. Press the key 25 (S29). Then, data specifying the model of the airplane is stored in the used model storage area in the RAM 202 (S30). After that, when the user performs a predetermined operation for starting the game on the various keys of the operation unit 213, a flight simulator game using an airplane of a model specified by the data stored in the used model storage area Is started.
  • the model selection process of an airplane used in the flight simulator is taken as an example, and a pseudo view when the virtual space is viewed in the visual line direction from the viewpoint set in the virtual space.
  • Application program as an image change processing means as an image display control device that performs display control to display the image on the LCD 27
  • the viewpoint moving direction is changed based on the detection data detected by the detecting means for detecting at least one of the position, orientation, posture and movement of the operating body.
  • An image display control device having image change processing means for changing the pseudo view field image by performing at least one of a viewpoint movement direction change process to be changed and a line-of-sight direction change process to change the line-of-sight direction.
  • the mobile phone is not limited to a mobile phone, and may be another mobile communication terminal or a general-purpose computer such as a personal computer as long as the device has such image change processing means.
  • the operation body is the mobile phone itself that is the image display control apparatus
  • the operation body may be a separate body from the image display control apparatus.
  • an operating body incorporating the sensor detection unit 217 is connected to the mobile phone 20 or other image display control device so that wired communication or wireless communication is possible.
  • the display means such as a liquid crystal display and the image display control device are integrated
  • the display means can be enlarged, and the image of the pseudo view can be viewed on a large screen.
  • This processing operation (hereinafter referred to as “Operation Example 3”) will be described.
  • the application program of this operation example 3 is for operating the mobile phone 20 as a mouse which is a pointing device such as a portable personal computer such as a notebook personal computer or PDA. Of course, it can be operated as a pointing device such as a stationary personal computer.
  • FIG. 11 is a flowchart showing a flow of processing for executing the application program in the third operation example.
  • the user; L acquires and registers the mouse application program in the same manner as in the first operation example (S31).
  • the user first starts the USB (Universal Serial Bus) terminal (not shown) of the mobile phone 20.
  • the connection method of this embodiment may be a method using a wired connection using a USB terminal or another method using a wired connection or a wireless connection.
  • the mobile phone 20 side communication means used when connecting the mobile phone 20 to a notebook computer or the like is not limited to its USB terminal, and any communication means capable of data communication with a notebook computer or the like is used. Is possible.
  • the user 1 operates a key of the operation unit 213 (S32) to start an application program for the mouse (S33).
  • the application program execution management unit 214 starts processing for accepting the up / down / left / right key operation signals of the direction key 24 in real time (S34).
  • the key operation signal is transmitted from the operation unit 213 via the main control unit 215 to the application program execution management unit 214. Sent to. Receiving this key operation signal, the application program execution management unit 214 executes a direction changing process for outputting a screen scroll signal indicating the screen scroll direction to an external terminal power notebook computer or the like (S35).
  • a control unit such as a notebook personal computer performs a process of scrolling the screen in the direction indicated by the screen scroll signal.
  • the application program execution management unit 214 detects the acceleration ⁇ , a detected by the sensor detection unit 217.
  • the row management unit 214 determines the moving amount and moving direction (direction parameter) of the mobile phone 20 based on the acquired data. This movement amount and movement direction are continuously output to a notebook computer or the like via the external terminal of the mobile phone 20 at predetermined short time intervals. In this operation example 3, the acceleration ⁇ data is not used.
  • the activated application program sends an acceleration data acquisition request to the application program execution management unit 214.
  • the application program execution management unit 214 sends acceleration data, which is a data transfer command, to the main control unit 215 of the phone platform. Send an acquisition request.
  • the main control unit 215 uses the acceleration ⁇ , a, a data stored in the platform storage area in the RAM 202 as the application program.
  • the data is sent to the execution management unit 214, and this data is passed to the application program (S36).
  • the acceleration ⁇ , a data is stored in the application storage area in the RAM 202.
  • the moving direction is calculated (S37), and the direction changing process for outputting the pointer moving signal indicating the moving amount and moving direction to the notebook personal computer or the like is also executed (S38).
  • the main control unit 215 receives the acceleration data acquisition request from the application program execution management unit 214, the main control unit 215 updates the acceleration ⁇ , ⁇ , ⁇ in the platform storage area each time it is updated. After the application data
  • the data is sent to the line management unit 214. Therefore, the application program for the mouse is almost real-time, acquires the data of acceleration ⁇ , a, a, and moves it to the notebook computer etc.
  • a pointer movement signal indicating the direction can be output.
  • a control unit such as a notebook personal computer performs processing to move the pointer image displayed on the screen by the amount of movement in the movement direction indicated by the pointer movement signal.
  • the mobile phone 20 can be used as a pointing device such as a portable personal computer.
  • a portable personal computer or the like since a portable personal computer or the like is downsized, the operability of a built-in pointing device is inferior to that of a desktop personal computer. Therefore, many users carry so-called external mice separately from portable personal computers.
  • the mobile phone 20 that is almost always carried can be used as an external mouse with a scroll function. Therefore, the same operability as that of a desktop personal computer can be obtained without having to carry an external mouse.
  • the angle transmitted from the sensor detection unit 217 is Force data and acceleration data are described in the case of using platform-independent application programs that run on the application execution environment that is built on the phone platform. The same applies to what is to be done.
  • the present invention can be similarly applied to other games other than the game such as the flight simulator described in the first operation example and the second operation example.
  • the present invention can be applied to a game in which a virtual character (virtual object) moves in a game space.
  • the present invention can also be applied to application programs that are not games other than the mouse application program described in the third operation example.
  • the present invention is not limited to the mobile phone 20 described above, and can be widely applied to all mobile communication terminals, and similar effects can be obtained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Computer Graphics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Set Structure (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 本移動体通信端末20の検知手段221は、移動体通信端末20の位置、向き、姿勢及び動きのうちの少なくとも1つを検知する。アプリケーションプログラム実行手段220は、アプリケーションプログラムを実行することにより、2つの方向パラメータに応じて互いに異なる2つの方向変更処理を並行して行うことが可能なものであって、これらの2つの方向パラメータのうちの少なくとも一方は検知手段221の検知データに基づいて決定する。上記2つの方向変更処理は、例えば表示手段222上の画像における視点の移動方向を変更する視点移動方向変更処理及び視線方向を変更する視線方向変更処理である。上記方向パラメータの一方は、キー操作手段223からのキー操作信号に基づいて決定してもよい。

Description

明 細 書
移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子 機器及び画像表示制御方法
技術分野
[0001] 本発明は、携帯電話機等の移動体通信端末、移動体通信端末で実行可能なアブ リケーシヨンプログラム、画像表示制御装置、電子機器及び画像表示制御方法に関 するものである。
背景技術
[0002] 従来、移動体通信端末としては、方向キーのキー操作信号に基づいて決定される 方向パラメータを用いてアプリケーションプログラムを実行する携帯電話機が知られ ている。このようなアプリケーションプログラムとしては、例えば、仮想のゲーム空間内 を移動する仮想戦闘機 (仮想物体)の移動方向を変更する処理に用いる方向パラメ ータを、利用者が操作した方向キーのキー操作信号に基づいて決定するものがある 。このようなアプリケーションプログラムを実行する携帯電話機としては、プラットフォー ムに依存しないオブジェクト指向のプログラミング言語で記述されたアプリケーション プログラムを実行可能なものが挙げられる。例えば、 JAVA (登録商標。以下同様。 ) 仮想マシン機能を実装し、 JAVAで記述されたアプリケーションプログラムを実行でき るようにした携帯電話機がある (特許文献 1参照)。このような携帯電話機では、所定 のサーバからダウンロードするなどして取得した様々なアプリケーションプログラムを 利用することが可能である。また、 BREW (登録商標。以下同様。)のアプリケーショ ン実行環境上で動作するアプリケーションプログラムなどにっ 、ても、同様である。
[0003] また、検知手段の検知データに基づ!/、て決定される方向パラメータを用いてアプリ ケーシヨンプログラムを実行する携帯電話機も知られている。例えば、特許文献 2に は、加速度を検知するセンサ (検知手段)によって検知した加速度を用いて携帯電話 機の移動方向を特定するものが記載されている。この携帯電話機では、その検知結 果から特定した携帯電話機の移動方向に基づ 、て、液晶ディスプレイ上に表示され た複数の入力文字候補の中の 1つを選択するためのカーソルの移動方向(方向パラ メータ)を決定し、そのカーソルを移動させる処理を行う。具体的には、例えば、携帯 電話機を右方向へ移動させると、その移動方向に応じて液晶ディスプレイ上に表示 されたカーソルを右方向へ移動させる処理を行う。
[0004] 一方、従来の移動体通信端末や携帯ゲーム機などの電子機器にお!、てディスプレ ィの二次元の画面内で三次元の立体画像オブジェクトを表示する場合、ある一定の 視点から画像オブジェクトを視た画像を表示する必要があった。そのため、画像ォブ ジェクトを視る視点を 、かに制御するか力 上記三次元の立体画像オブジェクトを表 示する上で重要である。このような三次元の立体画像オブジェクトの画像表示制御の 代表的なものとして、 (1)立体画像オブジェクトの外部に固定された視点から俯瞰的 に立体画像オブジェクトを視るように表示する制御や、 (2)立体画像オブジェクト自身 に視点を持たせ、主観的な視点で立体画像オブジェクト上の視点から周囲を視るよう に表示する制御、などが知られている。
[0005] 上記三次元空間内で、立体画像オブジェクトである飛行機の制御を外部コントロー ラー力 の入力により行!、、それをディスプレイの二次元の画面上に表示する家庭用 または業務用のゲーム機上のフライトシミュレータを例にとれば、上記(1)及び(2)の 画像表示制御は次のように行われる。例えば、上記(1)は、飛行機(立体画像ォブジ ェタト)の後方や側方に固定された視点で俯瞰的に飛行機を捉えた画像として表示 するように行う画像表示制御である。また、上記(2)の画像処理は、例えば飛行機の 仮想的な操縦席カゝら飛行機の前方に向けた主観的な視点をおき、飛行機の進行方 向が外部コントローラ一力 の入力で変わるように制御されたときでも、常に進行方向 における前方を視る視点で画面を表示するように行う画像表示制御である。
[0006] また、特許文献 3には、上記立体画像オブジェクトを視る視点を変更可能な画像表 示制御が記載されている。この制御では、仮想空間内に設定される視点から視線方 向へその仮想空間内を見たときの擬似的な視界の画像を表示手段に表示する。そし て、利用者カ^ッチパネルに対して所定のタツチパネル操作を行うと、その操作内容 に応じて上記視点を移動させたり、その移動方向を変えたり、上記視線方向を変えた りすることができる。これにより、仮想空間内における視点の位置や視線方向が変更 され、タツチパネル上に表示される擬似的な視界の画像が変更される。 [0007] 特許文献 1:特開 2000— 347867号公報
特許文献 2 :特開 2002— 169645号公報
特許文献 3:特開 2004— 5272号公報
発明の開示
発明が解決しょうとする課題
[0008] 上述のように、方向キーのキー操作信号に基づ!/、て決定される方向パラメータに応 じて、仮想戦闘機の移動方向を変更する処理 (方向変更処理)を行う場合、この処理 と並行して、その仮想のゲーム空間内に設定されるゲーム画面の視点からの視線方 向を変更する処理 (方向変更処理)を行うことができれば、より臨場感のあるゲームを 利用者に提供することができる。ところが、従来の携帯電話機がこのような方向変更 処理に用いる方向パラメータは、方向キーのキー操作信号のみに基づいて決定され るものであり、 2つの方向パラメータに応じて互いに異なる 2つの方向変更処理を並 行して行う携帯電話機は存在しな力つた。そのため、上記のような臨場感のあるゲー ムを利用者に提供することができな力つた。
なお、上記 2つの方向変更処理を並行して行うことが可能な携帯電話機を実現でき れば、このようなゲームのアプリケーションプログラムに限らず、他の様々なアプリケー シヨンプログラムにとっても有用となる。
[0009] ここで、上記 2つの方向変更処理を並行して行うことを可能にする方法としては、例 えば、これらの 2つの方向変更処理で用いる 2つの方向パラメータをそれぞれ決定す るために、 2つの方向キーを携帯電話機に設けることが考えられる。しかし、この方法 では、方向キーを備えていた従来の携帯電話機に更にもう 1つの方向キーを追加す ることが必要になり、追加する方向キーの設置スペースを携帯電話機の外面に確保 しなければならない。そのため、小型化の要求が強い携帯電話機の大型化を招いて しまうという問題が発生する。
以上の説明は、携帯電話機を例に挙げて行ったが、小型化が要求されるような他 の移動体通信端末においても、同様である。
[0010] また、上述の(1)や(2)の従来の画像表示制御においては、視点を変更する操作 もその他の操作 (例えばゲーム操作)もキーゃタツチパネルを用いた入力で行われて いるため、ユーザーの操作の利便性を考えて、視点変更と実際の操作を択一的に選 択させることが多い。すなわち、先のフライトシミュレータの例の場合、普段はキー入 力で飛行機を操作するが、キー入力受付の切り替えを行って力 画面上の視点を変 更させる画像表示制御が行われる。このように視点を変更する操作とその他の操作と の競合により、ユーザの操作性が悪い。
[0011] また、上記特許文献 3の画像表示制御の場合は、上述したように、利用者カ^ッチ パネルに対して操作を行うことで仮想空間内に設定される視点を移動させたり、その 視点からの視線方向を変更したりすることができる。しかし、この装置において、利用 者の操作は、タツチパネルという 2次元平面上に対する操作であるため、この操作だ けではその平面上における 2次元の方向しか決定することができない。そのため、こ のような操作では、仮想空間内における視点の移動方向やその視線方向という 3次 元の方向を利用者が直感的に変更できるという高い操作性を実現することができな い。
[0012] 本発明の目的は、当該移動体通信端末を大型化せずに、利用者の操作に応じて 互いに異なる 2つの方向変更処理を並行して行うことを可能にする移動体通信端末 及びアプリケーションプログラムを提供することである。
また、本発明の他の目的は、仮想空間内における視点を変更する操作とその他の 操作との競合を回避しつつ、かかる視点の移動方向やその視線方向という 3次元の 方向を利用者が直感的に変更できるという高い操作性を実現することが可能な画像 表示制御装置、電子機器及び画像表示制御方法を提供することである。
課題を解決するための手段
[0013] 本発明に係る移動体通信端末は、方向パラメータを用いてアプリケーションプログ ラムを実行するアプリケーションプログラム実行手段と、移動体通信端末の位置、向 き、姿勢及び動きのうちの少なくとも 1っを検知するための検知手段とを備え、該ァプ リケーシヨンプログラム実行手段は、該アプリケーションプログラムを実行することによ り、 2つの方向パラメータに応じて互いに異なる 2つの方向変更処理を並行して行うこ とが可能なものであって、該 2つの方向パラメータのうちの少なくとも一方は該検知手 段の検知データに基づいて決定することを特徴とするものである。 この移動体通信端末では、並行して行うことが可能な 2つの方向変更処理で用いる 方向パラメータのうちの少なくとも一方が、検知手段の検知データに基づいて決定さ れる。よって、少なくとも一方の方向パラメータは、利用者が位置、向き、姿勢及び動 きのうちの少なくとも 1つが変化するように本移動体通信端末を動かすことにより決定 される。検知手段は、方向キー等のキー操作手段とは違って、移動体通信端末の内 部に設けることができる。したがって、上記 2つの方向パラメータを決定するためにキ 一操作手段を 2つ設ける場合に比べて、移動体通信端末が大型化しな!/、で済む。 なお、ここでいう「互いに異なる 2つの方向変更処理」とは、アプリケーションプロダラ ムの実行により、方向が変化し得る互いに異なる 2つの対象について、その 2つの対 象の方向を 2つの方向パラメータに応じてそれぞれ変更するために必要な処理をい
[0014] 上記移動体通信端末において、仮想空間内に設定される視点から視線方向へ該 仮想空間内を見たときの擬似的な視界の画像を表示する表示手段を備え、上記 2つ の方向変更処理は、該視点の移動方向を変更する視点移動方向変更処理と、該視 線方向を変更する視線方向変更処理であることが好ましい。
この移動体通信端末では、利用者が位置、向き、姿勢及び動きのうちの少なくとも 1 つが変化するように本移動体通信端末を動かすと ヽぅ操作を行うことで、視点の移動 方向及び視線方向の少なくとも一方が変更される。この操作は、移動体通信端末を 動かすという 3次元空間(現実空間)内の操作であるため、同じ 3次元空間である仮想 空間内で視点の移動方向やその視線方向を変更するにあたり、利用者は直感的に 操作することが可能となるので、高 、操作性を実現できる。
[0015] 上記移動体通信端末において、上記アプリケーションプログラム実行手段は、上記 検知手段の検知データに基づ 、て上記 2つの方向パラメータの両方を決定し、上記 視線方向変更処理は、上記視点が移動しても上記視線方向が上記仮想空間内に存 在する仮想物体に向力う方向へ維持されるように該視線方向を変更するのが好まし い。
この移動体通信端末では、検知手段の検知データに基づ 、て決定される 2つの方 向パラメータに応じて、視点移動方向変更処理と視線方向変更処理とを並行して行 うことが可能である。そして、その視線方向変更処理は、視点が移動しても、視線方 向が仮想空間内に存在する仮想物体に向力う方向へ維持されるように行われる。よ つて、表示手段には、常に、その仮想物体の画像が表示されることになる。しかも、利 用者が移動体通信端末を動かせば、これに応じて視点の移動方向が変更され、仮 想空間内における仮想物体に対する視点の相対的な位置を変化させることができる
。したがって、利用者は、移動体通信端末を動かすという 1つの操作を行うだけで、そ の仮想物体を自分の希望する方向から確認することが可能となる。
[0016] 上記移動体通信端末にお!、て、利用者により操作されるキーを備えたキー操作手 段を備え、上記アプリケーションプログラム実行手段は、上記 2つの方向パラメータの 一方は上記検知手段の検知データに基づいて決定し、他方は該キー操作手段から のキー操作信号に基づ 、て決定するのが好ま 、。
この移動体通信端末では、上記 2つの方向変更処理の一方を、キー操作信号に基 づき決定される方向パラメータを用いて行い、他方を検知手段の検知データに基づ き決定される方向パラメータを用いて行う。前者の方向パラメータは、利用者がキー 操作を行うことにより決定されるものである。後者の方向パラメータは、利用者が位置 、向き、姿勢及び動きのうちの少なくとも 1つが変化するように本移動体通信端末を動 かすことにより決定されるものである。キー操作を行うことと本移動体通信端末を動か すこととは、利用者が同時にかつ独立して行うことができる。よって、本移動体通信端 末によれば、並行して行われる 2つの方向変更処理でそれぞれ用いられる 2つの方 向パラメータを決定するための操作を、同時にかつ独立して行うことが可能となる。
[0017] 上記移動体通信端末において、上記アプリケーションプログラム実行手段は、上記 アプリケーションプログラムを実行することにより、仮想のゲーム空間内を仮想物体が 移動するゲームを進行するものであり、上記 2つの方向変更処理のいずれか一方は 、該仮想のゲーム空間内における該仮想物体の移動方向を変更する処理であること が好ましい。
この移動体通信端末では、利用者がキー操作を行うか、本移動体通信端末を動か す操作を行うかすることにより、仮想のゲーム空間内における仮想物体の移動方向を 変えることができる。一方、利用者が、キー操作か本移動体通信端末を動かす操作 のうち、仮想物体の移動方向を変えることに用いない操作を行うと、仮想物体の移動 方向とは異なる変更対象方向を変更する他の方向変更処理を行うことができる。よつ て、仮想物体の移動方向を変更する処理及び他の方向変更処理に用いる各方向パ ラメータを決定する操作を、同時にかつ独立して行うことができる。
[0018] 上記移動体通信端末において、上記アプリケーションプログラム実行手段は、上記 アプリケーションプログラムを実行することにより、仮想のゲーム空間内を仮想物体が 移動するゲームを進行するものであり、該仮想のゲーム空間内に設定される視点か ら視線方向へ該ゲーム空間内を見たときの擬似的な視界を表示する表示手段を備 え、上記 2つの方向変更処理のいずれか一方は、該視点の移動方向を変更する処 理又は該視線方向を変更する処理であることが好ましい。
この移動体通信端末では、利用者がキー操作を行うか、本移動体通信端末を動か す操作を行うかすることにより、仮想のゲーム空間内に設定される視点の移動方向又 は視線方向を変えることができる。このように視点の移動方向や視線方向を変わるこ とで、仮想のゲーム空間内における擬似的な視界を変えることができ、表示手段に表 示される画像を変えることができる。一方、利用者が、キー操作か本移動体通信端末 を動かす操作のうち、視点の移動方向又は視線方向を変えることに用 、な 、操作を 行うと、視点の移動方向又は視線方向とは異なる変更対象方向を変更する他の方向 変更処理を行うことができる。よって、仮想のゲーム空間内における擬似的な視界の 変更するための方向変更処理と、他の方向変更処理とを、同時かつ個別に行うこと ができる。
[0019] 上記移動体通信端末において、上記アプリケーションプログラム実行手段は、上記 アプリケーションプログラムを実行することにより、仮想のゲーム空間内を仮想物体が 移動するゲームを進行するものであり、該仮想のゲーム空間内に設定される視点か ら視線方向へ該ゲーム空間内を見たときの擬似的な視界を表示する表示手段を備 え、上記 2つの方向変更処理の一方は該視点の移動方向を変更する処理であり、他 方は該視線方向を変更する処理であることが好ましい。
この移動体通信端末では、利用者がキー操作を行うか、本移動体通信端末を動か す操作を行うかすることにより、仮想のゲーム空間内に設定される視点の移動方向を 変えることができる。一方、利用者が、キー操作か本移動体通信端末を動かす操作 のうち、視点の移動方向を変えることに用いない操作を行うと、視線方向を変える方 向変更処理を行うことができる。よって、仮想のゲーム空間内における視点の移動方 向を変更する方向変更処理と、仮想のゲーム空間内における視点からの視線方向を 変更する方向変更処理とを、同時かつ個別に行うことができる。
[0020] 本発明に係るアプリケーションプログラムは、移動体通信端末の位置、向き、姿勢 及び動きのうちの少なくとも 1っを検知するための検知手段を備えた該移動体通信端 末に設けられるコンピュータを機能させるためのアプリケーションプログラムであって、 2つの方向パラメータに応じて互いに異なる 2つの方向変更処理を並行して行うこと が可能であって、該 2つの方向パラメータのうちの少なくとも一方を該知手段の検知 データに基づ 、て決定するアプリケーションプログラム実行手段として、該コンピュー タを機能させることを特徴とするものである。
このアプリケーションプログラムは、移動体通信端末のコンピュータに、その移動体 通信端末が有する前述のアプリケーションプログラム実行手段と同様の処理を実行さ せることができる。
なお、本アプリケーションプログラムの受け渡しは、デジタル情報としてプログラムを 記録した FD、 CD— ROM等の記録媒体を用いて行ってもいいし、コンピュータネット ワーク等の通信ネットワークを用いて行ってもょ 、。
[0021] 本発明に係る画像表示制御装置は、仮想空間内に設定される視点から視線方向 へ該仮想空間内を見たときの擬似的な視界の画像を表示手段に表示させるための 表示制御を行う画像表示制御装置であって、操作体の位置、向き、姿勢及び動きの うちの少なくとも 1っを検知するための検知手段によって検知した検知データに基づ V、て、上記視点を変更する視点変更処理及び上記視線方向を変更する視線方向変 更処理の少なくとも一方を行って、上記擬似的な視界の画像を変更する画像変更処 理手段を備えたことを特徴とするものである。なお、上記視点の変更には、視点の移 動方向の変更のほか、視点の移動量の変更も含まれる。
この画像表示制御装置では、利用者が位置、向き、姿勢及び動きのうちの少なくと も 1つが変化するように操作体を動かすと 、う操作を行うことで、視点及びその視点か らの視線方向の少なくとも一方が変更される。この操作は、操作体を動かすという 3次 元空間 (現実空間)内の操作であるため、同じ 3次元空間である仮想空間内で視点 の移動やその視点からの視線方向を変更するにあたり、利用者は直感的に操作する ことが可能となる。
[0022] 本発明に係る電子機器は、表示手段と、仮想空間内に設定される視点から視線方 向へ該仮想空間内を見たときの擬似的な視界の画像を該表示手段に表示させるた めの表示制御を行う画像表示制御手段と、該電子機器の位置、向き、姿勢及び動き のうちの少なくとも 1っを検知するための検知手段とを備え、該画像表示制御手段と して、上記画像表示制御装置を備えたことを特徴とするものである。
この電子機器では、仮想空間内に設定される視点から視線方向へ仮想空間内を 見たときの擬似的な視界の画像が表示手段に表示される。そして、利用者が位置、 向き、姿勢及び動きのうちの少なくとも 1つが変化するように電子機器を動かす 3次元 空間 (現実空間)内の操作により、表示手段に表示されている擬似的な視界の画像 における視点及び視線方向の少なくとも一方が変更される。この操作は、操作体を動 かすという 3次元空間(現実空間)内の操作であるため、同じ 3次元空間である仮想空 間内で視点や視線方向を変更するにあたり、利用者は直感的に操作することが可能 となる。
[0023] また、上記電子機器では、上記視点や視線方向の変更に、利用者が位置、向き、 姿勢及び動きのうちの少なくとも 1つが変化するように電子機器を動かす 3次元空間( 現実空間)内の操作を用いている。そのため、上記視点や視線方向の変更に、方向 キーの操作ゃタツチパネルの操作を用いる必要がない。従って、方向キー等を用い た他の操作との競合を回避できる。また、方向キー等は、上記仮想空間内の画像ォ ブジエ外を操作する操作専用として割り当てることができため、上記視点や視線方 向の変更と画像オブジェクト操作との役割分担を明確にすることができる。
また、電子機器の位置、向き、姿勢及び動きの少なくとも一つの外部入力と、電子 機器に表示手段に表示される仮想空間の画像における視点や視線方向の変更とが 連動することにより、力かる視点や視線方向の変更操作についてインタラクティブ性 をもたせることができる。特に、携帯電話機や PDA、携帯ゲーム機などの電子機器に お!、て、その電子機器本体の傾きや加速度と!/、つた姿勢変化を上記視点や視線方 向の変更に連動させれば、従来とは異なるダイナミックな画像処理を行うことができる
[0024] 本発明に係る画像表示制御方法では、仮想空間内に設定される視点から視線方 向へ該仮想空間内を見たときの擬似的な視界の画像を表示手段に表示させるため の表示制御を行う画像表示制御方法であって、操作体の位置、向き、姿勢及び動き のうちの少なくとも 1っを検知し、その検知データに基づいて、該視点を変更する視 点変更処理及び該視線方向を変更する視線方向変更処理の少なくとも一方を行つ て、該擬似的な視界の画像を変更することを特徴とするものである。
この画像表示制御方法では、利用者が位置、向き、姿勢及び動きのうちの少なくと も 1つが変化するように操作体を動かすという操作を行うことで、視点及び視線方向 の少なくとも一方が変更される。この操作は、操作体を動かすという 3次元空間 (現実 空間)内の操作であるため、同じ 3次元空間である仮想空間内で視点や視線方向を 変更するにあたり、利用者は直感的に操作することが可能となる。
[0025] 上記移動体通信端末としては、 PDC (Personal Digital Cellular)方式、 GSM (Glob al bystem for Mobile し ommunication)方式、 TIA、 telecommunications Industry Asso ciation)方式等の携帯電話機、 IMT (International Mobile Telecommunications)—2 000で標準化された携帯電話機、 TD- SCDMA (Time Division Synchronous Code Division Multiple Access)方式の一つである TD— SCDMA (MC : Multi Carrier)方 式の携帯電話機、 PHS (Personal Handyphone System) ,自動車電話機等の電話機 が挙げられる。また、この移動体通信端末としては、上記電話機のほか、電話機能を 有しない PDA (Personal Digital Assistance)等の移動型の移動体通信端末なども含 まれる。
また、上記電子機器には、上記移動体通信端末のほか、携帯型情報端末 (PDA : Personal Digital Assistance)やゲーム機等も含まれる。
発明の効果
[0026] 本発明に係る移動体通信端末及びアプリケーションプログラムによれば、移動体通 信端末を大型化せずに、利用者の操作に応じて互いに異なる 2つの方向変更処理 を並行して行うことが可能になる。
また、本発明に係る画像表示制御装置、電子機器及び画像表示制御方法によれ ば、方向キーの操作ゃタツチパネルの操作等のように 2次元の操作に比べて、 3次元 空間である仮想空間内における視点やその視点力もの視線方向の変更を直感的な 操作によりことが可能となるため、高い操作性を実現できる。しかも、上記視点や視線 方向の変更に、方向キーの操作ゃタツチパネルの操作を用いる必要がないため、方 向キー等を用いた他の操作との競合を回避できる。
図面の簡単な説明
[図 1]本発明の実施形態に係る携帯電話機が利用可能な移動体通信システムの全 体構成を説明するための説明図。
[図 2]同移動体通信システムを構成するダウンロードサーバのハードウェア構成を示 す概略構成図。
[図 3]同携帯電話機の外観を示す正面図。
[図 4]同携帯電話機のハードウェア構成を示す概略構成図。
[図 5]同携帯電話機の機能ブロック図。
[図 6]同携帯電話機の主要構成を示すブロック図。
[図 7]同携帯電話機におけるソフトウェア構造の説明図。
[図 8]同携帯電話機で動作例 1におけるアプリケーションプログラムを実行するための 処理の流れを示すフローチャート。
[図 9]同携帯電話機で動作例 2における機種選択処理の流れを示すフローチャート。
[図 10A]基本姿勢の携帯電話機とその液晶ディスプレイに表示される仮想空間内の 飛行機の外観画像との関係を示す説明図。
[図 10B]姿勢を変化させた後の携帯電話機と、その液晶ディスプレイに表示される仮 想空間内の飛行機の外観画像との関係を示す説明図。
[図 10C]更に姿勢を変化させた後の携帯電話機と、その液晶ディスプレイに表示され る仮想空間内の飛行機の外観画像との関係を示す説明図。
[図 11]同携帯電話機で動作例 3におけるアプリケーションプログラムを実行するため の処理の流れを示すフローチャート。 符号の説明
[0028] 10 携帯電話通信網
11 ダウンロードサーバ
20 携帯電話機 (移動体通信端末)
24 方向キー
27 液晶ディスプレイ (表示手段)
207 加速度センサ
208 地磁気センサ
213 操作部 (キー操作手段)
214 アプリケーションプログラム実行管理部
215 主制御部
216 出力部
217 センサ検知部 (検知手段)
発明を実施するための最良の形態
[0029] 以下、図面を参照して本発明の実施形態について説明する。
図 1は、本実施形態に係る携帯電話機が利用可能な移動体通信システムの全体構 成を説明するための説明図である。
この移動体通信システムにおいて、ユーザー 1が使用する携帯電話機 20は、ユー ザ一 1によって登録されたアプリケーションプログラムを実行可能な構成を有して!/、る 。本実施形態において、このアプリケーションプログラムは、プラットフォームに依存し ないオブジェクト指向プログラミングによって開発されたものである。このようなアプリ ケーシヨンプログラムとしては、 JAVAで記述されたアプリケーションプログラム、 BRE Wのアプリケーション実行環境上で動作するアプリケーションプログラムなどが挙げら れる。この携帯電話機 20は、通信ネットワークとしての携帯電話通信網 10に接続可 能である。また、この携帯電話通信網 10には、プログラム提供用サーバとしてのアブ リケーシヨンプログラムダウンロードサーバ(以下、「ダウンロードサーノ 」という。) 11が 接続されている。このダウンロードサーバ 11は、携帯電話機 20からのダウンロード要 求を受け付けると、その要求に係るアプリケーションプログラムを携帯電話機 20に対 して送信する。
[0030] ダウンロードサーバ 11から提供されるアプリケーションプログラムは、アプリケーショ ンプログラムの開発元 2から提供される。具体的には、例えば、アプリケーションプロ グラム開発元 2側のパーソナルコンピュータ等から、専用回線や公衆回線を介してダ ゥンロードサーバ 11にアップロードして提供する。なお、開発したアプリケーションプ ログラムを記録した光ディスクや磁気ディスク等の記録媒体を、アプリケーションプロ グラム開発元 2からダウンロードサーバ 11を管理 ·運営する通信事業者に送り、その 記録媒体内のアプリケーションプログラムをダウンロードサーバ 11で読み取るようにし て、提供してもよい。このようにして提供されたアプリケーションプログラムは、携帯電 話機 20から携帯電話通信網 10を介してダウンロード可能な状態でダウンロードサ一 ノ 11に登録される。
[0031] 図 2は、上記ダウンロードサーバ 11のハードウェア構成を示す概略構成図である。
このダウンロードサーバ 11は、システムバス 100、 CPU101、内部記憶装置、外部 記憶装置 104、入力装置 105及び出力装置 106を備えている。上記内部記憶装置 は、 RAM102や ROM103等で構成されている。上記外部記憶装置は、ハードディ スクドライブ (HDD)や光ディスクドライブ等で構成されて 、る。上記入力装置 105は 、外部記憶装置 104、マウスやキーボード等で構成されている。上記出力装置 106 は、ディスプレイやプリンタ等で構成されている。更に、このダウンロードサーバ 11は 、携帯電話通信網 10を介して各ユーザー 1の携帯電話機 20と通信するための携帯 電話用通信装置 107を備えている。
上記 CPU101や RAM102等の構成要素は、システムバス 100を介して、互いに データやプログラムの命令等のやり取りを行っている。このダウンロードサーバ 11を 所定の手順に従って動作させるためのプログラムは、 ROM103や外部記憶装置 10 4に記憶されており、必要に応じて CPU101や RAM102上の作業エリアに呼び出さ れて実行される。また、このダウンロードサーバ 11には、携帯電話機 20に提供するァ プリケーシヨンプログラムが外部記憶装置 104に記憶されている。ダウンロードサーバ 11は、携帯電話機 20からのダウンロード要求に応じ、 CPU101、 RAM102、携帯 電話通信網用通信装置 107等が協働して、外部記憶装置 104に記憶されて ヽるァ プリケーシヨンプログラムを、携帯電話通信網 10を介して携帯電話機 20に送信する 機能を有している。なお、このダウンロードサーバ 11は、専用の制御装置として構成 してもいいし、汎用のコンピュータシステムを用いて構成してもよい。また、 1台のコン ピュータで構成しても 、 、し、複数の機能をそれぞれ受け持つ複数台のコンピュータ をネットワークで結んで構成してもよ 、。
[0032] 図 3は、上記携帯電話機 20の外観を示す正面図であり、図 4は、その携帯電話機 2 0のハードウェア構成を示す概略構成図である。
この携帯電話機 20は、クラムシェル (折り畳み)タイプの携帯電話機であり、システ ムノ ス 200、 CPU201、 RAM202や ROM203等力 なる内部制御装置、入力装置 204、出力装置 205、携帯電話用通信装置 206、加速度センサ 207、地磁気センサ 208を備えている。 CPU201や RAM202等の構成要素は、システムバス 200を介し て、互いに各種データや後述のプログラムの命令等のやり取りを行っている。上記入 力装置 204は、データ入力キー(テンキー、 *キー、 #キー) 21、通話開始キー 22、 終話キー 23、方向キー 24、多機能キー 25、マイク 26など力も構成されている。上記 出力装置 205は、表示手段としての液晶ディスプレイ (LCD) 27、スピーカ 28等から 構成されている。上記携帯電話用通信装置 206は、携帯電話通信網 10を介して他 の携帯電話機や上記ダウンロードサーバ 11と通信するためのものである。また、 RA M202内には、後述する電話機プラットフォームが管理する第 1の記憶手段としての プラットフォーム用記憶領域と、後述するアプリケーション実行環境上で管理される第 2の記憶手段としてのアプリケーション用記憶領域とが存在する。
[0033] 上記加速度センサ 207は、データ入力キーが設けられた操作面に対して平行な面 内で互いに直交する 2方向(図 3中、 X軸方向及び Y軸方向)に向力う加速度 a , a
X
と、その面の法線方向(図 3中、 Z軸方向)に向力う加速度 a とを検出する 3軸の加
Y Z
速度センサである。この加速度センサ 207は、携帯電話機 20の内部に設けられた図 示しない回路基板上に実装されており、上記加速度 α , a , a を検出できる公知
X Y Z
のものを用いることができる。なお、加速度センサ 207として、例えば加速度 α , a
X Y
を検出できる 2軸の加速度センサを用いてもょ 、。
また、上記地磁気センサ 208は、上記 X軸、 Υ軸、 Ζ軸からなる 3次元座標上におけ る地磁気の磁界強度成分 (磁束密度成分)を検知する 3軸のセンサである。そして、 本実施形態では、この地磁気センサ 208の検知結果を利用して、 X軸、 Y軸及び Z軸 のまわりの角度 0 , θ , Θ を検出する。具体的には、地磁気の方向が、基準となる
X Y Z
地磁気の方向(基準方向)に対して変化したときの変化量を、 X軸、 Y軸及び Z軸のま わりの角度 0 , θ , Θ を用いて検出する。これにより、地磁気の方向が基準方向に
X Y Z
あるときの姿勢力も携帯電話機がその姿勢を変化させたとき、その変化後の姿勢を 各角度 0 , θ , Θ によって特定することができる。なお、以下の説明では、 X軸まわ
X Y Z
りの角度 Θ をピッチ角といい、 Y軸まわりの角度 Θ をローノレ角といい、 Z軸まわりの
X Y
角度 Θ をョ一角という。また、ここでいうロール角 Θ は、上記 Z軸を水平面上に投影
Z Y
した水平投影 Z軸と北方位との角度を示すものである。よって、このロール角 Θ により
Y
、携帯電話機 20の水平投影 Z軸が向いている方位を把握することができる。この地 磁気センサ 208も、携帯電話機 20の内部に設けられた図示しない回路基板上に実 装されている。
[0034] なお、上記加速度センサ 207及び上記地磁気センサ 208は、携帯電話機 20の本 体とは別体の装置として構成してもよい。この場合、上記加速度センサ 207及び上記 地磁気センサ 208については、これらのセンサ 207, 208を備えた外部装置を、携帯 電話機 20の本体と一体になるように接続する。
[0035] 図 5は本発明に係る携帯電話機 20の機能ブロック図である。図 6は、携帯電話機 2 0の主要構成を示すブロック図であり、図 7は、携帯電話機 20におけるソフトウェア構 造の説明図である。
この携帯電話機 20は、無線通信手段としての電話通信部 211及びデータ通信部 2 12、キー操作手段 223としての操作部 213、アプリケーションプログラム実行手段 22 0としてのアプリケーションプログラム実行管理部 214、主制御部 215、出力部 216、 検知手段 221としてのセンサ検知部 217等を備えている。
[0036] 上記電話通信部 211は、他の携帯電話機や固定電話機と電話通信を行うために、 携帯電話通信網 10の基地局と無線通信を行うものであり、上述のハードウェア構成 上の携帯電話用通信装置 206等に対応する。
上記データ通信部 212は、上記電話通信部 211と同様に、上述のハードウェア構 成上の携帯電話用通信装置 206等に対応する。このデータ通信部 212は、携帯電 話通信網 10を介して他の携帯電話機とメールのやり取りを行ったり、携帯電話通信 網 10からゲートウェイサーバを介して、インターネット等の外部の通信ネットワークに 接続し、インターネット上での電子メールのやり取りや Webページの閲覧等を行った りするためのものである。また、このデータ通信部 212は、携帯電話通信網 10を介し て、ダウンロードサーバ 11が提供するアプリケーションプログラムをダウンロードする ためにも用いられる。
[0037] 上記操作部 213は、ユーザー 1により操作される上述の方向キー 24、テンキー 21、 通話開始キー 22、終話キー 23等で構成されている。この操作部 213を操作すること により、ユーザーは、携帯電話機 20に対して URL等のデータを入力したり、電話着 信の際に通話の開始及び終了を行ったり、アプリケーションプログラムの選択、起動 及び停止を行ったりすることができる。また、ユーザーは操作部 213を操作することに より、上記ダウンロードサーバ 11からアプリケーションプログラムをダウンロードするこ とちでさる。
[0038] 上記アプリケーションプログラム実行管理部 214は、上述のシステムバス 200、 CP U201や RAM202の一部等で構成されている。このアプリケーションプログラム実行 管理部 214は、図 7のソフトウェア構造上において中央の「アプリケーション実行環境 」に対応しており、オブジェクト指向プログラミングで開発されたアプリケーションプロ グラムに利用されるクラスライブラリ、実行環境管理ライブラリ、アプリケーション管理 等のソフトウェアを提供し、アプリケーションプログラムの実行環境を管理する。このァ プリケーシヨン実行環境は、実行するアプリケーションプログラムに応じて適宜選定さ れる。例えば、実行するアプリケーションプログラム力 SJAVAで記述されたものである 場合には、 JAVAのアプリケーション実行環境を選定する。また、実行するアプリケー シヨンプログラムが BREWの実行環境上で動作する C言語で記述されたものである 場合には、 BREWのアプリケーション実行環境を選定する。なお、実行するアプリケ ーシヨンプログラム力 SJAVAで記述されたものである場合には、 BREWのアプリケー シヨン実行環境上に更に JAVAのアプリケーション実行環境を構築することで、これを 実行することができる。 [0039] ここで、アプリケーションプログラムは、クラスライブラリ API (アプリケーションインタ 一フェース)を介して上記アプリケーション実行環境内にある関数等のクラスライブラリ を呼び出して使用できるようになつている。この関数等のクラスライブラリの呼び出し の履歴は、アプリケーションプログラムの仮想的な実行環境 (仮想マシン: VM)が終 了するまで、 RAM202内におけるアプリケーション用記憶領域に記憶される。また、 アプリケーション実行環境は、アプリケーションプログラムの実行に際して用いる各種 データも、そのアプリケーション用記憶領域に保存する。そして、この各種データを用 いるときには、このアプリケーション用記憶領域力 読み出したり、書き込んだりする。 また、アプリケーション実行環境内の実行環境管理ライブラリは、電話機プラットフォ ーム APIを介して後述の電話機プラットフォーム内の電話機プラットフォームライブラ リを呼び出して使用できるようになつている。
[0040] 本実施形態において、加速度センサ 207及び地磁気センサ 208等で構成される後 述のセンサ検知部 217で検知した検知データ (加速度 α , a , a及びピッチ角 0
X Y Z X
、ロール角 0 、ョ一角 0 )は、アプリケーションプログラムで利用される。従来のァプ
Y Z
リケーシヨン実行環境にぉ 、ては、アプリケーションプログラムが上記検知データを利 用する手段がな力 たため、本実施形態では、クラスライブラリに新しいクラス(Orient ationクラス)を追加している。この Orientationクラスには、加速度 α , a , a のデー
X Y z タを取得するための getXGravityO、 getYGravityO及び getZGravitvOや、ピッチ角 Θ
X、 ロール角 Θ 、ョ一角 Θ の各データを取得するための getPitchO、 getRollO
Υ ζ 、 getComp assBearingO等の命令セットであるメソッドが用意されている。よって、本実施形態によ れば、アプリケーションプログラムは、これらのメソッドを使用して上記検知データを取 得し、これを利用することができる。
[0041] 上記主制御部 215は、上記電話通信部 211、データ通信部 212、出力部 216、セ ンサ検知部 217を制御するものであり、上述のシステムバス 200、 CPU201や RAM 202等で構成されている。この主制御部 215は、アプリケーションプログラム実行管 理部 214との間で制御命令や各種データのやりとりを行い、これと協働して制御を行 う。主制御部 215は、図 7のソフトウェア構造上において最下部の「電話機プラットフ オーム」に対応しており、上記電話通信部 211等を制御するための制御用プログラム やユーザインターフェースを実行したり、電話機プラットフォームライブラリを提供した りする。この電話機プラットフォームは、上記アプリケーション実行環境内の実行環境 管理ライブラリに対してイベントを送ることにより、アプリケーションプログラムにおいて 各種処理を実行したり、アプリケーション管理 APIを介して上記アプリケーション実行 環境内のアプリケーション管理のソフトウェアを呼び出して使用したりできるようになつ ている。また、アプリケーション実行環境が電話機プラットフォーム APIを介して電話 機プラットフォームライブラリを呼び出して使用したとき、電話機プラットフォームは、そ の電話機プラットフォームライブラリに応じた処理を実行する。例えば、電話機プラット フォームは、電話機プラットフォームライブラリを利用したアプリケーション実行環境か らの指示に基づき、 RAM202内における電話機プラットフォームが管理するプラット フォーム用記憶領域に記憶されたデータを読み出して、これをアプリケーション用記 憶領域に移行することができる。
[0042] 上記出力部 216は、表示手段 222としての液晶ディスプレイ 27、スピーカ 28等から なる出力装置 205等で構成されている。また、この出力部 216は、上記データ通信部 212で受信した Webページ画面を液晶ディスプレイ 27に表示する。また、この出力 部 216の液晶ディスプレイ 27は、上記電話通信部 211やデータ通信部 212で情報 を着信した旨をユーザーに報知するときに用いられる。具体的には、その情報を着信 すると、主制御部 215により、出力部 216の液晶ディスプレイ 27に着信報知画像を表 示したり、スピーカ 28から着信音を出力させたりする。更に、この出力部 216は、アブ リケーシヨン実行環境で実行されるアプリケーションプログラムの実行中に、そのプロ グラム実行に関連したメニュー画面等の表示や音楽の出力にも用いられる。
[0043] 上記センサ検知部 217は、上述の加速度センサ 207や地磁気センサ 208等で構 成されている。このセンサ検知部 217は、上記主制御部 215の制御の下で動作し、 その検知データは主制御部 215が取得する。検知データである加速度 α , a , a
X Y z のデータ、ピッチ角 θ 、ロール角 0 及びョ一角 Θ のデータは、上述したように RA
X Υ Ζ
Μ202のプラットフォーム用記憶領域に記憶される。例えば携帯電話機 20の位置が 変化するなどして加速度が発生すると、その X軸方向、 Υ軸方向及び Ζ軸方向の加 速度成分がセンサ検知部 217を構成する加速度センサ 207によって検知される。検 知データが主制御部 215に入力されると、主制御部 215は、その検知データから X 軸方向、 Y軸方向及び Z軸方向の各加速度を把握することができる。加速度 a , a
X Y
, aのデータは、主制御部 215によって、 RAM202内のプラットフォーム用記憶領
Z
域に一時保存される。
また、携帯電話機 20の姿勢が変わると、その姿勢の変化後における磁界強度成分 (磁束密度成分)がセンサ検知部 217を構成する地磁気センサ 208によって検知さ れる。センサ検知部 217は、地磁気センサ 208で検知された検出信号から姿勢変化 後のそれぞれの角度 0 , θ , Θ を算出する。算出した各角度 0 , θ , Θ のデー
Y Z Y Z
タは、加速度 α , a , aの場合と同様に、主制御部 215へ出力され、主制御部 21
Y Z
5によって RAM202内のプラットフォーム用記憶領域に一時保存される。
また、携帯電話機 20の向きが変わると、その向きの変化後における磁界強度成分 ( 磁束密度成分)がセンサ検知部 217を構成する地磁気センサ 208によって検知され る。センサ検知部 217は、地磁気センサ 208で検知された検出信号から向きの変化 後におけるョ一角 Θ を算出する。算出したョ一角 Θ のデータも、同様に、主制御部
Z Z
215へ出力され、主制御部 215によって RAM202内のプラットフォーム用記憶領域 に一時保存される。
[0044] なお、プラットフォーム記憶領域へ保存する加速度 α , a , aや各角度 0 , θ ,
Y Z Y
Θ のデータを、主制御部 215がセンサ検知部 217から取得する方法としては、次の
Z
ようなものが挙げられる。例えば、主制御部 215からセンサ検知部 217へリクエストを 送り、これに応じてセンサ検知部 217が出力したデータを主制御部 215が受信する 取得方法である。また、例えば、リクエストがなくてもセンサ検知部 217が連続的に出 力するデータを、主制御部 215が適宜受信する取得方法を採用してもよい。また、ァ プリケーシヨンプログラムがアプリケーションプログラム実行管理部 214を介して出力 したリクエストに応じて主制御部 215がセンサ検知部 217へリクエストを送り、これに 応じてセンサ検知部 217が出力したデータを主制御部 215が受信する取得方法を 採用することちできる。
[0045] 携帯電話機 20を所定の手順に従って動作させる電話機プラットフォームを構築す るための制御用プログラムは、 RAM202や ROM203に記憶されている。また、基本 OS (オペレーティングシステム)のプログラムや、上記アプリケーション実行環境を構 築するためのプログラム及びアプリケーションプログラムも、 RAM202や ROM203に 記憶されている。そして、これらのプログラムは、必要に応じて CPU201や RAM202 中の作業エリアに呼び出されて実行される。
[0046] 〔動作例 1〕
次に、本発明の特徴部分である、アプリケーションプログラムによる処理の一動作例 (以下、本動作例を「動作例 1」という。 )について説明する。本動作例 1では、上記ピ ツチ角 Θ 、ロール角 0 及びョ一角 0 を用いたアプリケーションプログラムを実行す
X Y Z
るための処理動作に適用した場合を例に挙げて説明する。本動作例 1のアプリケー シヨンプログラムは、ゲームであるフライトシミュレータである。
[0047] 図 8は、フライトシミュレータ用アプリケーションプログラムを実行するための処理の 流れを示すフローチャートである。
まず、ユーザー iは、フライトシミュレータ用アプリケーションプログラムを上記ダウン ロードサーバ 11からダウンロードして取得し、これを登録する(Sl)。具体的には、ュ 一ザ一 1は、操作部 213の各種キーを操作して、ダウンロードサーバ 11にアクセスす る。これにより、ダウンロード可能なアプリケーションプログラムを選択するためのダウ ンロード選択画面が液晶ディスプレイ 27上に表示される。そして、そのダウンロード選 択画面において、実行対象となるアプリケーションプログラムを方向キー 24を用いて 選択し、多機能キー 25を押下すると、主制御部 215がデータ通信部 212を制御して 、そのアプリケーションプログラムをダウンロードサーバ 11からダウンロードする。この ようにしてダウンロードされたアプリケーションプログラムは、主制御部 215により、 RA M102に記憶される。
[0048] ダウンロードしたアプリケーションプログラムを実行する場合、ユーザー 1は、操作部 213の各種キーを操作して、実行するアプリケーションプログラムを選択するための アプリケーション選択画面を液晶ディスプレイ 27上に表示させる。そして、そのアプリ ケーシヨン選択画面において、実行対象であるフライトシミュレータ用アプリケーション プログラムを方向キー 24を用いて選択し、多機能キー 25を押下する。すると、図 7に 示した電話機プラットフォームすなわち図 6に示した主制御部 215に、アプリケーショ ンプログラムの実行指示が入力される(S2)。これにより、主制御部 215は、フライトシ ミュレータ用アプリケーションプログラムを読み出してこれを起動する(S3)。アプリケ ーシヨンプログラムが起動すると、図 7に示したアプリケーション実行環境すなわち図 6に示したアプリケーションプログラム実行管理部 214上で、そのアプリケーションプロ グラムが動作する。
[0049] このプログラムが起動し、ユーザー 1がゲームを開始するための所定の操作を操作 部 213の各種キーに対して行うと(S4)、ゲームが開始され、出力部 216の液晶ディ スプレイ 27に、仮想のゲーム空間内において飛行機 (仮想物体)の操縦席に座った 操縦者の視点力 見た視界を擬似的に表したゲーム画面が表示される。初期状態に おいては、その視点からの視線方向が飛行機の進路方向正面に向力う方向である ので、ゲーム画面には、仮想の飛行機の操縦席力 その進路方向正面に向力う擬似 的な視界が映し出される。
[0050] 本フライトシミュレータでは、方向キー 24のキー操作信号に基づき決定される方向 パラメータと、センサ検知部 217によって検知されるピッチ角 Θ 、ロール角 Θ 及びョ
X Y
一角 Θ のデータに基づき決定される方向パラメータの 2つの方向パラメータを用い
Z
て、ゲームが進行される。
本動作例 1では、前者の方向パラメータに応じて飛行機の進路方向(移動方向)を 変える方向変更処理を行う。なお、本動作例 1では、ゲーム画面に映し出される画像 の視点が飛行機の操縦席に座った操縦者の視点であるので、飛行機の移動に伴つ て視点も移動する。よって、上述した飛行機の進路方向を変える方向変更処理は、 視点の移動方向を変える方向変更処理でもある。
一方、後者の方向パラメータについては、その方向パラメータに応じて操縦者の視 点からの視線方向を変える方向変更処理を行う。これにより、仮想のゲーム空間内に おいて操縦者の視線方向が変わることになる。すなわち、本動作例 1において、ユー ザ一 1は、方向キー 24を操作して仮想のゲーム空間内の飛行機の進路方向を変え ると同時に、これとは別個に、携帯電話機 20の姿勢を変える操作を行って仮想のゲ ーム空間内の飛行機の操縦者の視線方向を変えることができる。
[0051] 本動作例 1においては、ユーザー 1がゲームを開始するための所定の操作を行うと (S4)、アプリケーションプログラム実行管理部 214が保存手段として機能し、アプリケ ーシヨンプログラムが最初に取得した角度データ 0 , Θ , Θ を、基準データとして、
X Y Z
RAM202内のアプリケーション用記憶領域における基準データ記憶領域 (基準デ ータ記憶手段)に保存する(S5, S6)。この基準データに基づき、ユーザー 1がフライ トシミュレータを行うときの携帯電話機 20の姿勢 (基本姿勢)を把握する。
[0052] 上記基本姿勢を把握した後、アプリケーションプログラム実行管理部 214は、方向 キー 24の上下左右のキー操作信号をリアルタイムで受け付ける処理を開始する(S7 )。ユーザー 1が仮想のゲーム空間内における飛行機を操縦するために携帯電話機 20の方向キー 24を操作すると、そのキー操作信号が操作部 213から主制御部 215 を介してアプリケーションプログラム実行管理部 214に送られる。このキー操作信号を 受け取ったアプリケーションプログラム実行管理部 214は、飛行機の進路変更処理を 行う(S8)。この進路変更処理では、例えばユーザー 1が携帯電話機 20の方向キー 2 4の上側を押すと、そのキー操作信号により仮想のゲーム空間内における飛行機の 機首が鉛直方向下方に向き、これにより飛行機の進路が鉛直方向下方へ変更される ように、ゲーム進行がなされる。また、例えばユーザー 1が携帯電話機 20の方向キー 24の左側を押すと、そのキー操作信号により仮想のゲーム空間内における飛行機が 左向きにロールし、これにより飛行機の進路が進路方向正面に向力つて左側へ変更 されるように、ゲーム進行がなされる。
[0053] また、アプリケーションプログラム実行管理部 214は、このゲーム進行に伴 、、液晶 ディスプレイ 27にゲーム画面を表示させるためのゲーム画面情報を更新する処理も 行う(S10)。具体的には、仮想のゲーム空間内における飛行機の進路方向が変更さ れているようなゲーム画面となるようにする。例えば、ユーザー 1が携帯電話機 20の 方向キー 24の上側を押した場合、ゲーム画面において飛行機の進路が鉛直方向下 方へ変更されたかのような操縦席力 の視界が再現されるように、ゲーム画面情報を 更新する。その後、更新後のゲーム画面を液晶ディスプレイ 27の表示面に描画する ための処理を実行する(S 11)。
[0054] 一方で、上記基本姿勢を把握した後、アプリケーションプログラム実行管理部 214 は、センサ検知部 217によって検知されるピッチ角 Θ 、ロール角 Θ 及びョ一角 Θ の データをほぼリアルタイムで取得する(S9)。そして、ユーザー 1が仮想のゲーム空間 内における操縦者の視線方向を変えるために携帯電話機 20の姿勢を変えると、その 姿勢変化がセンサ検知部 217の地磁気センサ 208によって検知され、その角度 θ ,
X
θ , Θ のデータがアプリケーションプログラム実行管理部 214に受け渡される。ァプ
Y Z
リケーシヨンプログラム実行管理部 214は、受け取った角度データに応じて、液晶デ イスプレイ 27にゲーム画面を表示させるためのゲーム画面情報を更新する処理を行 う(S10)。具体的には、仮想のゲーム空間内における飛行機の操縦者の視線方向 が変更されているようなゲーム画面となるようにする。詳しく説明すると、アプリケーシ ヨンプログラムを実行するアプリケーションプログラム実行管理部 214は、上記 S9で 取得した各角度 0 , θ , Θ のデータと、アプリケーション用記憶領域に記憶された
X Y Z
基本姿勢データ 0 , θ , Θ との差分をそれぞれ算出する。ここで、例えば、携帯
XO YO Z0
電話機 20を Z軸まわりに左回転させたとする。この場合、ョ一角 Θ だけが基本姿勢
Z
から変化する。このときのョ一角 Θ の の
Z データと基本姿勢データ Θ と
Z0 差分を算出す ることにより、携帯電話機 20の Y軸が基本姿勢力 Z軸のまわりを左方向へどのくらい の角度で回転したかを把握することができる。そして、アプリケーションプログラム実行 管理部 214は、把握した回転方向と回転角度に応じて、ゲーム画面を右側ヘスクロ ールし、あた力も操縦者の視線方向が左方向へ変更されたかのようなゲーム画面情 報に更新する。その後、更新後のゲーム画面を液晶ディスプレイ 27の表示面に描画 するための処理を実行する(S 11)。
以上のように、本動作例 1においては、ユーザーが携帯電話機 20の姿勢を変えず に方向キー 24を操作した場合、そのキー操作信号に応じて仮想のゲーム空間内に おける飛行機の進路方向が変更される。また、この進路方向の変更に伴って、飛行 機の移動とともに移動する操縦者の視点の移動方向も変更される。このような場合、 仮想のゲーム空間内における飛行機の操縦席に座った操縦者の視線方向は、その 進路方向正面に一致した状態に維持される。したがって、ゲーム画面には、その進 路方向正面に向力 操縦者の視点から見た視界が映し出される。
また、ユーザーが方向キー 24を操作しないまま携帯電話機 20の姿勢を変えた場 合、検知した角度データに応じて仮想のゲーム空間内における操縦者の視線方向 が変更される。この場合、仮想のゲーム空間内における飛行機の進路方向は維持さ れたまま、その進路方向とは異なる方向、例えば進路方向から水平方向へ 90° 回転 した方向を操縦者が見たときの視界がゲーム画面に映し出される。
また、ユーザーが方向キー 24を操作しながら携帯電話機 20の姿勢を変えた場合、 そのキー操作信号に応じて仮想のゲーム空間内における飛行機の進路方向が変更 されると同時に、検知した角度データに応じて仮想のゲーム空間内における操縦者 の視線方向が変更される。この場合、仮想のゲーム空間内における視点及び視線方 向の両方が変化したゲーム画面情報の更新処理が行われ (S 10)、その更新後のゲ ーム画面を液晶ディスプレイ 27の表示面に描画するための処理が実行される(S11)
[0056] なお、本動作例 1では、センサ検知部 217の地磁気センサ 208により検知されるピ ツチ角 Θ 、ロール角 Θ 、ョ一角 0 を利用して携帯電話機 20の姿勢を把握したが、
X Y Z
加速度センサ 207により検知される 3つの加速度 α , a , a を利用して携帯電話
X Y Z
機 20の姿勢を把握することもできる。すなわち、加速度センサ 207により重力加速度 を検知することで、その加速度 α , α , α
X Υ Ζはそれぞれ X軸、 Υ軸、 Ζ軸の各重力加 速度成分となる。この各重力加速度成分から、重力方向に対する携帯電話機 20の 姿勢を把握することができる。
また、本動作例 1において、方向キー 24のキー操作信号に基づき決定される方向 ノ メータと、角度データに基づき決定される方向パラメータとを入れ替えても同様で ある。すなわち、方向キー 24の操作により仮想のゲーム空間内の操縦者の視線方向 を変え、携帯電話機 20の姿勢により仮想のゲーム空間内の飛行機の進路方向すな わち操縦者の視点の移動方向を変えるようにしてもよい。
[0057] 〔動作例 2〕
次に、上記動作例 1で説明したフライトシミュレータにおいて、そのゲーム開始前に ゲームで使用する飛行機の機種を選択する処理について説明する。
図 9は、本動作例 2における機種選択処理の流れを示すフローチャートである。 ユーザーがプログラムが起動した後、ゲームを開始するための操作ではなぐ機種 選択処理を行うための操作を操作部 213に対して行うと、角度データ 0 , 0 , 0 の 取得処理を行う(S21)。そして、取得した角度データ 0 , θ , Θ のうち、ロール角
X Y Z
Θ のデータを、基準データとして RAM202内に保存する(S22)。上述したように、
Y
このロール角 θ によって、携帯電話機 20の水平投影 Z軸が向いている方位を把握
Y
することができる。そして、ユーザーの正面方向と水平投影 Z軸方向とは通常一致し ていることから、このロール角 Θ によって、ユーザーが正面を向いている方位を把握
Y
することができる。本動作例 2では、ロール角 Θ が基準データと一致し、かつ、液晶
Y
ディスプレイの表示面の法線方向(ほぼ Z軸方向)が水平方向を向いているときを、基 本姿勢として把握する。携帯電話機 20がこの基本姿勢にあるとき、出力部 216の液 晶ディスプレイ 27には、仮想空間内に存在する 1つ目の飛行機 (仮想物体)を正面 側から見たときの外観画像が表示される(S23)。この液晶ディスプレイ 27に表示され る外観画像は、上記仮想空間内に設定された視点から視線方向へその仮想空間内 を見たときの擬似的な視界の画像である。
[0058] ここで、ユーザーが基本姿勢の携帯電話機 20を把持したまま左回りに 90° だけ向 きを変えたとする。このとき、携帯電話機 20は、図 10Aに示す基本姿勢から、鉛直方 向を回転軸として、その液晶ディスプレイ 27の表示面の法線方向(ほぼ Z軸方向)が 90° 回転した姿勢に変化することになる。アプリケーションプログラム実行管理部 21 4は、この変化を角度データ 0 , θ , Θ によって把握することができる(S24)。そし
X Y Z
て、アプリケーションプログラム実行管理部 214は、取得した角度データ 0 , θ , Θ
X Y Z
と基準データとに基づき、視点の移動方向を変更する視点移動方向変更処理と、そ の視点力 の視線方向を変更する視線方向変更処理とを並行して行 、、画像情報 の更新処理を行う(S25)。具体的には、仮想空間内において飛行機の中心点を中 心として規定された仮想球体の表面上に沿って、視点を飛行機の左側面に対向する 位置に向力つて移動させる。この移動中、その視点からの視線方向は常に飛行機の 中心点を向くように変更される。そして、この位置にある視点からその視線方向へ仮 想空間内を見たときの擬似的な視界、すなわち、図 10Bに示すような飛行機の左側 面の外観画像を、液晶ディスプレイ 27に描画するための描画処理を行う(S26)。
[0059] その後、ユーザーが、携帯電話機 20のアンテナをユーザーから見て奥側に倒す方 向へ携帯電話機 20を 90° 回転させてその姿勢を変化させたとする。アプリケーショ ンプログラム実行管理部 214は、この変化を角度データ 0 , θ , Θ によって把握す
X Y Z
ることができる(S24)。そして、アプリケーションプログラム実行管理部 214は、取得し た角度データ 0 , θ , Θ と基準データとに基づき、画像情報の更新処理を行う(S2
X Y Z
5)。具体的には、上記仮想球体の表面上に沿って、視点を飛行機の上面に対向す る位置に向力つて移動させる。この移動中も、その視点からの視線方向は常に飛行 機の中心点を向くように変更される。そして、この位置にある視点力 その視線方向 へ仮想空間内を見たときの擬似的な視界、すなわち、図 10Cに示すような飛行機の 上面の外観画像を、液晶ディスプレイ 27に描画するための描画処理を行う(S26)。
[0060] このように、取得した角度データ 0 , Θ , Θ に基づいて画像情報の更新処理を行
X Y Z
つて描画処理を行うという一連の処理(S24, S25, S26)は、連続的に行われる。よ つて、ユーザーは、フライトシミュレータで使用する飛行機を選択するにあたり、姿勢 が変化するように携帯電話機 20を動かすと ヽぅ操作を行うことで、その外観を 360° 方向から自由に確認することができる。
[0061] なお、ユーザーが方向キー 24を操作した場合 (S27)、そのキー操作信号に応じて 次に用意されている別機種の飛行機の外観画像が表示される(S28)。別機種の飛 行機についても、ユーザーは、姿勢が変化するように携帯電話機 20を動かすという 操作を行うことで、その外観を 360° 方向から自由に確認することができる。
[0062] 以上のようにして、ユーザーはいろいろな飛行機の外観を確認して自分の好みに あった飛行機を見つけたら、、その飛行機の外観が液晶ディスプレイ 27に表示され ている状態で、多機能キー 25を押す (S29)。すると、その飛行機の機種を特定する データが RAM202内の使用機種記憶領域に記憶される(S30)。その後、ユーザー がゲームを開始するための所定の操作を操作部 213の各種キーに対して行うと、そ の使用機種記憶領域に記憶されたデータにより特定される機種の飛行機を使用した フライトシミュレータゲームが開始される。
[0063] 本動作例 2においては、フライトシミュレータで使用する飛行機の機種選択処理を 例に挙げ、仮想空間内に設定される視点から視線方向へその仮想空間内を見たとき の擬似的な視界の画像を液晶ディスプレイ 27に表示させるための表示制御を行う画 像表示制御装置として、画像変更処理手段としてのアプリケーションプログラム実行 管理部 214を有する携帯電話機 20である場合について説明した。しかし、本動作例 2のように、操作体の位置、向き、姿勢及び動きのうちの少なくとも 1っを検知するた めの検知手段によって検知した検知データに基づいて、上記視点の移動方向を変 更する視点移動方向変更処理及び上記視線方向を変更する視線方向変更処理の 少なくとも一方を行って、上記擬似的な視界の画像を変更する画像変更処理手段を 有する画像表示制御装置は、このような携帯電話機に限らず、このような画像変更処 理手段を有する装置であれば、他の移動体通信端末ある 、はパーソナルコンビユー タ等の汎用コンピュータなどであってもよい。
また、本動作例 2では、操作体が画像表示制御装置である携帯電話機自体である 場合を例に挙げたが、操作体は、画像表示制御装置とは別体のものであってもよい 。この場合、例えば、上記センサ検知部 217を内蔵した操作体を、携帯電話機 20や その他の画像表示制御装置に対して有線通信又は無線通信が可能なように接続す る。特に、液晶ディスプレイ等の表示手段と画像表示制御装置とが一体構成になつ ている場合、操作体をこれとは別体に設ければ、利用者が操作体を動かす際に、そ の一体構成された装置を動かす必要はない。したがって、表示手段の大型化が可能 となり、上記擬似的な視界の画像を大画面で見ることが可能となる。
[0064] 〔動作例 3〕
次に、上記加速度 α , a , a を用いたアプリケーションプログラムを実行するため
X Y Z
の処理動作 (以下、「動作例 3」という。)について説明する。本動作例 3のアプリケー シヨンプログラムは、上記携帯電話機 20を、ノートパソコン等の携帯型パーソナルコン ピュータゃ PDA等のポインティングデバイスであるマウスとして動作させるためのもの である。もちろん、据え置き型のパーソナルコンピュータなどのポインティングデバイス としてち同様〖こ動作させることができる。
[0065] 図 11は、本動作例 3におけるアプリケーションプログラムを実行するための処理の 流れを示すフローチャートである。
まず、ユーザー ;Lは、マウス用のアプリケーションプログラムを上記動作例 1の場合と 同様に取得してこれを登録する(S31)。このアプリケーションプログラムを実行する場 合、ユーザー丄は、まず、携帯電話機 20の図示しない USB (Universal Serial Bus)端 子と、ノートパソコン等の USB端子とを接続する。本実施形態の接続方式は、 USB 端子を利用した有線接続である力 その他の有線接続又は無線接続を用いた方式 であってもよい。また、本携帯電話機 20をノートパソコン等に接続する場合に用いる 携帯電話機 20側の通信手段としては、その USB端子に限らず、ノートパソコン等と の間でデータ通信が可能なあらゆる通信手段を利用することが可能である。携帯電 話機 20とノートパソコン等とを接続したら、ユーザー 1は、操作部 213のキーを操作し て(S32)、マウス用のアプリケーションプログラムを起動させる(S33)。
[0066] マウス用のアプリケーションプログラムが起動した後、アプリケーションプログラム実 行管理部 214は、方向キー 24の上下左右のキー操作信号をリアルタイムで受け付け る処理を開始する(S34)。ユーザー 1がノートパソコン等の画面を所定方向ヘスクロ ールさせるために携帯電話機 20の方向キー 24を操作すると、そのキー操作信号が 操作部 213から主制御部 215を介してアプリケーションプログラム実行管理部 214に 送られる。このキー操作信号を受け取ったアプリケーションプログラム実行管理部 21 4は、その画面スクロールの方向を示す画面スクロール信号を外部端子力 ノートパ ソコン等に出力する方向変更処理を実行する(S35)。これにより、ノートパソコン等の 制御部では、その画面スクロール信号が示す方向に画面をスクロールさせる処理が 行われる。
[0067] 一方で、マウス用のアプリケーションプログラムが起動した後、そのアプリケーション プログラム実行管理部 214は、センサ検知部 217によって検知される加速度 α , a
X Y
, α のデータをほぼリアルタイムで取得する。そして、アプリケーションプログラム実
Z
行管理部 214は、取得したデータに基づいて携帯電話機 20の移動量及び移動方向 (方向パラメータ)を決定する。この移動量及び移動方向は、所定の短い時間間隔で 、連続的に携帯電話機 20の外部端子を介してノートパソコン等に出力される。なお、 本動作例 3では、加速度 α のデータは使用しない。
Ζ
具体的に説明すると、アプリケーション実行環境において、起動したアプリケーショ ンプログラムは、アプリケーションプログラム実行管理部 214に対して、加速度データ の取得要求を送る。これを受けたアプリケーションプログラム実行管理部 214は、電 話機プラットフォームの主制御部 215に対してデータ移行命令である加速度データ の取得要求を送る。これを受けた主制御部 215は、 RAM202内のプラットフォーム 用記憶領域に記憶した加速度 α , a , a のデータを、アプリケーションプログラム
X Y Z
実行管理部 214に送り、このデータはアプリケーションプログラムに渡される(S36)。 そして、加速度 α , a のデータは、 RAM202内のアプリケーション用記憶領域に
X Y
記憶される。その後、これらの加速度 α , a のデータから携帯電話機 20の移動量
X Y
及び移動方向を算出し (S37)、その移動量及び移動方向を示すポインタ移動信号 を外部端子力もノートパソコン等に出力する方向変更処理を実行する(S38)。本動 作例 3において、主制御部 215は、アプリケーションプログラム実行管理部 214から 加速度データの取得要求を受け取ると、その後、プラットフォーム記憶領域内の加速 度 α , α , α が更新されるたびに、更新後のデータをアプリケーションプログラム実
X Υ Ζ
行管理部 214に送る。よって、マウス用のアプリケーションプログラムは、ほぼリアルタ ィムで、加速度 α , a , a のデータを取得し、ノートパソコン等に移動量及び移動
X Y Z
方向を示すポインタ移動信号を出力することができる。これにより、ノートパソコン等の 制御部では、そのポインタ移動信号が示す移動方向に、その移動量分だけ、その画 面上に映し出されているポインタ画像を移動させる処理が行われる。
[0068] 以上、本動作例 3によれば、携帯電話機 20を、携帯型パーソナルコンピュータ等の ポインティングデバイスとして利用することができる。一般に、携帯型パーソナルコン ピュータ等は小型化のため、備え付けのポインティングデバイスの操作性は、ディスク トップ型パーソナルコンピュータには劣るものである。そのため、ユーザーの中には、 携帯型パーソナルコンピュータ等とは別個に、いわゆる外付けマウスを携帯する者も 多い。本動作例 3においては、一般のユーザーであればほぼ常時携帯している携帯 電話機 20を、スクロール機能付きの外付けマウスとして利用することができる。よって 、従来のように、外付けマウスをわざわざ持ち歩かなくても、ディスクトップ型パーソナ ルコンピュータと同様の操作性を得ることができる。
[0069] なお、本動作例 3では、加速度 α , a のデータを用いたアプリケーションプロダラ
X Y
ムとして、マウス用のアプリケーションプログラムを例に挙げて説明した力 これに限ら れるものではない。
[0070] また、上述した動作例 1乃至 3においては、センサ検知部 217から送信されてくる角 度データや加速度データを、電話機プラットフォーム上に構築されるアプリケーション 実行環境上で動作するプラットフォームに依存しないアプリケーションプログラムで利 用する場合について説明した力 プラットフォームに依存するアプリケーションプログ ラムすなわち電話機プラットフォーム上で直接動作するものであっても同様である。 以上、本発明の好ましい実施形態を説明したが、本発明の範囲又は精神から逸脱 することなぐ請求の範囲に記載された技術的事項の範囲内において、開示した実 施形態に種々の変更をカ卩えることができる。
例えば、本発明は、上記動作例 1や上記動作例 2で説明したフライトシミュレータの ようなゲーム以外の他のゲームについても同様に適用することが可能である。例えば 、ゲーム空間内を仮想登場人物 (仮想物体)が移動するゲームなどにも適用できる。 また、上記動作例 3で説明したマウス用アプリケーションプログラム以外のゲームでな いアプリケーションプログラムについても同様に適用することが可能である。
また、本発明は、上述した携帯電話機 20に限らず、広く移動体通信端末全般につ いて適用することができ、同様な効果が得られるものである。

Claims

請求の範囲
[1] 方向パラメータを用いてアプリケーションプログラムを実行するアプリケーションプロ グラム実行手段と、
移動体通信端末の位置、向き、姿勢及び動きのうちの少なくとも 1っを検知するた めの検知手段とを備え、
該アプリケーションプログラム実行手段は、該アプリケーションプログラムを実行する ことにより、 2つの方向パラメータに応じて互いに異なる 2つの方向変更処理を並行し て行うことが可能なものであって、該 2つの方向パラメータのうちの少なくとも一方は該 検知手段の検知データに基づいて決定することを特徴とする移動体通信端末。
[2] 請求項 1の移動体通信端末において、
仮想空間内に設定される視点力 視線方向へ該仮想空間内を見たときの擬似的な 視界の画像を表示する表示手段を備え、
上記 2つの方向変更処理は、該視点の移動方向を変更する視点移動方向変更処 理と、該視線方向を変更する視線方向変更処理であることを特徴とする移動体通信 端末。
[3] 請求項 2の移動体通信端末において、
上記アプリケーションプログラム実行手段は、上記検知手段の検知データに基づ 、 て上記 2つの方向パラメータの両方を決定し、
上記視線方向変更処理は、上記視点が移動しても上記視線方向が上記仮想空間 内に存在する仮想物体に向力う方向へ維持されるように該視線方向を変更するもの であることを特徴とする移動体通信端末。
[4] 請求項 1の移動体通信端末において、
利用者により操作されるキーを備えたキー操作手段を備え、
上記アプリケーションプログラム実行手段は、上記 2つの方向パラメータの一方は上 記検知手段の検知データに基づ 、て決定し、他方は該キー操作手段からのキー操 作信号に基づいて決定することを特徴とする移動体通信端末。
[5] 請求項 4の移動体通信端末において、
上記アプリケーションプログラム実行手段は、上記アプリケーションプログラムを実 行することにより、仮想のゲーム空間内を仮想物体が移動するゲームを進行するもの であり、
上記 2つの方向変更処理のいずれか一方は、該仮想のゲーム空間内における該 仮想物体の移動方向を変更する処理であることを特徴とする移動体通信端末。
[6] 請求項 4の移動体通信端末において、
上記アプリケーションプログラム実行手段は、上記アプリケーションプログラムを実 行することにより、仮想のゲーム空間内を仮想物体が移動するゲームを進行するもの であり、
該仮想のゲーム空間内に設定される視点力 視線方向へ該ゲーム空間内を見たと きの擬似的な視界を表示する表示手段を備え、
上記 2つの方向変更処理のいずれか一方は、該視点の移動方向を変更する処理 又は該視線方向を変更する処理であることを特徴とする移動体通信端末。
[7] 請求項 4の移動体通信端末において、
上記アプリケーションプログラム実行手段は、上記アプリケーションプログラムを実 行することにより、仮想のゲーム空間内を仮想物体が移動するゲームを進行するもの であり、
該仮想のゲーム空間内に設定される視点力 視線方向へ該ゲーム空間内を見たと きの擬似的な視界を表示する表示手段を備え、
上記 2つの方向変更処理の一方は該視点の移動方向を変更する処理であり、他方 は該視線方向を変更する処理であることを特徴とする移動体通信端末。
[8] 当該移動体通信端末の位置、向き、姿勢及び動きのうちの少なくとも 1っを検知す るための検知手段を備えた移動体通信端末に設けられるコンピュータを機能させる ためのアプリケーションプログラムであって、
2つの方向パラメータに応じて互いに異なる 2つの方向変更処理を並行して行うこと が可能であって、該 2つの方向パラメータのうちの少なくとも一方を該知手段の検知 データに基づ 、て決定するアプリケーションプログラム実行手段として、該コンピュー タを機能させることを特徴とするアプリケーションプログラム。
[9] 仮想空間内に設定される視点力 視線方向へ該仮想空間内を見たときの擬似的な 視界の画像を表示手段に表示させるための表示制御を行う画像表示制御装置であ つて、
操作体の位置、向き、姿勢及び動きのうちの少なくとも 1っを検知するための検知 手段によって検知した検知データに基づいて、上記視点を変更する視点変更処理 及び上記視線方向を変更する視線方向変更処理の少なくとも一方を行って、上記擬 似的な視界の画像を変更する画像変更処理手段を備えたことを特徴とする画像表 示制御装置。
[10] 表示手段と、仮想空間内に設定される視点から視線方向へ該仮想空間内を見たと きの擬似的な視界の画像を該表示手段に表示させるための表示制御を行う画像表 示制御手段と、電子機器の位置、向き、姿勢及び動きのうちの少なくとも 1つを検知 するための検知手段とを備え、
該画像表示制御手段として、請求項 9の画像表示制御装置を備えたことを特徴とす る電子機器。
[11] 仮想空間内に設定される視点力 視線方向へ該仮想空間内を見たときの擬似的な 視界の画像を表示手段に表示させるための表示制御を行う画像表示制御方法であ つて、
操作体の位置、向き、姿勢及び動きのうちの少なくとも 1っを検知し、その検知デ一 タに基づいて、該視点を変更する視点変更処理及び該視線方向を変更する視線方 向変更処理の少なくとも一方を行って、該擬似的な視界の画像を変更することを特 徴とする画像表示制御方法。
PCT/JP2005/012316 2004-07-20 2005-07-04 移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子機器及び画像表示制御方法 WO2006008947A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP05765175.4A EP1783592B1 (en) 2004-07-20 2005-07-04 Mobile communication terminal, application program, image display control apparatus, electronic device, and image display control method
US11/632,749 US8619028B2 (en) 2004-07-20 2005-07-04 Mobile communication terminal, application program, image display control apparatus, electronic apparatus, and image display control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-211244 2004-07-20
JP2004211244A JP2006031515A (ja) 2004-07-20 2004-07-20 移動体通信端末、アプリケーションプログラム、画像表示制御装置及び画像表示制御方法

Publications (1)

Publication Number Publication Date
WO2006008947A1 true WO2006008947A1 (ja) 2006-01-26

Family

ID=35785067

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/012316 WO2006008947A1 (ja) 2004-07-20 2005-07-04 移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子機器及び画像表示制御方法

Country Status (4)

Country Link
US (1) US8619028B2 (ja)
EP (1) EP1783592B1 (ja)
JP (1) JP2006031515A (ja)
WO (1) WO2006008947A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US7850526B2 (en) 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US10086282B2 (en) 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
JP4220943B2 (ja) * 2004-07-15 2009-02-04 ソフトバンクモバイル株式会社 電子機器
WO2006074290A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Optical flow based tilt sensor
EP1886509B1 (en) 2005-05-17 2017-01-18 Qualcomm Incorporated Orientation-sensitive signal output
KR20070073273A (ko) * 2006-01-04 2007-07-10 삼성전자주식회사 휴대용 단말기에서 폴더의 회전 상태를 감지하는 장치 및방법
CN102580314B (zh) * 2006-05-04 2015-05-20 美国索尼电脑娱乐公司 获得用于控制游戏程序的运行的输入
KR100836139B1 (ko) * 2006-12-28 2008-06-09 삼성전자주식회사 스위블 바디의 회전 방향 감지 장치를 갖는 스위블 타입휴대용 단말기 및 그것을 이용한 스위블 바디의 회전 방향감지 방법
JP4322942B2 (ja) * 2007-10-29 2009-09-02 株式会社東芝 情報処理装置、スクロール制御プログラムおよびスクロール制御方法
EP2249237A4 (en) * 2008-01-07 2012-05-09 Ntt Docomo Inc INFORMATION PROCESSING DEVICE AND PROGRAM
JP5750831B2 (ja) * 2010-03-30 2015-07-22 沖電気工業株式会社 情報処理装置およびそのスクリーンセーバ制御方法
JP5520772B2 (ja) * 2010-10-05 2014-06-11 株式会社日立製作所 立体画像の表示システム及び表示方法
JP2013003708A (ja) * 2011-06-14 2013-01-07 Nikon Corp 表示装置、電子機器、およびプログラム
WO2013128078A1 (en) * 2012-02-29 2013-09-06 Nokia Corporation Method and apparatus for rendering items in a user interface
KR101324327B1 (ko) * 2011-12-14 2013-10-31 건국대학교 산학협력단 가상 세계를 사용한 무인 이동체 원격 제어 장치 및 방법
US9583019B1 (en) * 2012-03-23 2017-02-28 The Boeing Company Cockpit flow training system
KR102142067B1 (ko) * 2013-07-12 2020-08-06 삼성전자주식회사 휴대 단말 및 이의 정보 제공 방법
JP6187454B2 (ja) * 2014-12-29 2017-08-30 コニカミノルタ株式会社 画像処理装置
US12230144B2 (en) * 2018-11-21 2025-02-18 Rakuten Group, Inc. Flight route guidance system, flight route guidance device and flight route guidance method
CN113769370B (zh) * 2021-09-13 2024-11-08 网易(杭州)网络有限公司 游戏操作模式切换方法及装置、存储介质及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000214988A (ja) * 1999-01-06 2000-08-04 Motorola Inc 動作パタ―ンを利用して無線通信装置への情報を入力する方法
JP2002298160A (ja) 2001-03-29 2002-10-11 Namco Ltd 携帯型画像生成装置、プログラム及び情報記憶媒体
WO2002088853A1 (en) 2001-04-26 2002-11-07 Caveo Technology, Llc Motion-based input system for handheld devices
JP2003334379A (ja) 2002-05-20 2003-11-25 Nintendo Co Ltd ゲームシステムおよびゲームプログラム
JP2004005272A (ja) 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
JP2004271671A (ja) * 2003-03-06 2004-09-30 Sharp Corp 画像表示装置及びそれを備えた端末装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57144589A (en) * 1981-03-04 1982-09-07 Nissan Motor Picture display unit
US4969647A (en) * 1989-06-02 1990-11-13 Atari Corporation Invertible hand-held electronic game apparatus
JPH1049290A (ja) * 1996-08-05 1998-02-20 Sony Corp 情報処理装置および方法
US6201554B1 (en) * 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
JP2000347867A (ja) 1999-06-02 2000-12-15 Toshiba Corp 携帯無線電話機およびその制御方法
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
JP2002169645A (ja) 2000-12-01 2002-06-14 Toshiba Corp 移動通信端末
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
TW200407025A (en) 2002-08-27 2004-05-01 Vitec Co Ltd Pocket terminal device
US7173604B2 (en) * 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
JP2006068027A (ja) * 2004-08-31 2006-03-16 Nintendo Co Ltd ゲーム装置およびゲームプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000214988A (ja) * 1999-01-06 2000-08-04 Motorola Inc 動作パタ―ンを利用して無線通信装置への情報を入力する方法
JP2002298160A (ja) 2001-03-29 2002-10-11 Namco Ltd 携帯型画像生成装置、プログラム及び情報記憶媒体
WO2002088853A1 (en) 2001-04-26 2002-11-07 Caveo Technology, Llc Motion-based input system for handheld devices
JP2003334379A (ja) 2002-05-20 2003-11-25 Nintendo Co Ltd ゲームシステムおよびゲームプログラム
JP2004005272A (ja) 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
JP2004271671A (ja) * 2003-03-06 2004-09-30 Sharp Corp 画像表示装置及びそれを備えた端末装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1783592A4

Also Published As

Publication number Publication date
EP1783592B1 (en) 2016-03-16
JP2006031515A (ja) 2006-02-02
EP1783592A1 (en) 2007-05-09
US8619028B2 (en) 2013-12-31
US20080014987A1 (en) 2008-01-17
EP1783592A4 (en) 2011-12-07

Similar Documents

Publication Publication Date Title
WO2006008947A1 (ja) 移動体通信端末、アプリケーションプログラム、画像表示制御装置、電子機器及び画像表示制御方法
JP4179614B2 (ja) 移動体通信端末用外部装置、移動体通信端末及び移動体通信端末用外部表示システム
US8624838B2 (en) Electronic apparatus
US11954200B2 (en) Control information processing method and apparatus, electronic device, and storage medium
US20220300302A1 (en) Application sharing method and electronic device
CN109032486B (zh) 一种显示控制方法及终端设备
WO2021036531A1 (zh) 截屏方法及终端设备
WO2005039154A1 (ja) 移動体通信端末及びアプリケーションプログラム
WO2021208991A1 (zh) 屏幕扩展方法及电子设备
CN109032468A (zh) 一种调节设备参数的方法及终端
CN110489045A (zh) 一种对象显示方法及终端设备
US11526320B2 (en) Multi-screen interface control method and terminal device
CN109710151B (zh) 一种文件处理方法及终端设备
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
JP4559140B2 (ja) 電子機器
CN109857292B (zh) 一种对象显示方法及终端设备
JP4149893B2 (ja) 移動体通信端末及びアプリケーションプログラム
JP4394742B2 (ja) 移動体通信端末及びアプリケーションプログラム
JP4331239B2 (ja) 移動体通信端末及びアプリケーションプログラム
JP2006011106A (ja) 表示装置及びこれを備えた移動体通信端末

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2005765175

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005765175

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11632749

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 11632749

Country of ref document: US

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载