+

WO1996036017A1 - Appareil de traitement d'images et procede associe - Google Patents

Appareil de traitement d'images et procede associe Download PDF

Info

Publication number
WO1996036017A1
WO1996036017A1 PCT/JP1996/001249 JP9601249W WO9636017A1 WO 1996036017 A1 WO1996036017 A1 WO 1996036017A1 JP 9601249 W JP9601249 W JP 9601249W WO 9636017 A1 WO9636017 A1 WO 9636017A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
fielder
image processing
polygon
polygons
Prior art date
Application number
PCT/JP1996/001249
Other languages
English (en)
French (fr)
Inventor
Masaru Sugahara
Original Assignee
Sega Enterprises, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=14612832&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO1996036017(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sega Enterprises, Ltd. filed Critical Sega Enterprises, Ltd.
Priority to DE69631945T priority Critical patent/DE69631945T2/de
Priority to EP96913729A priority patent/EP0778547B1/en
Priority to US08/765,254 priority patent/US6102801A/en
Priority to BR9606387A priority patent/BR9606387A/pt
Publication of WO1996036017A1 publication Critical patent/WO1996036017A1/ja
Priority to HK98114222A priority patent/HK1014066A1/xx

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/20Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of the game platform
    • A63F2300/206Game information storage, e.g. cartridges, CD ROM's, DVD's, smart cards
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6027Methods for processing data by generating or executing the game program using adaptive systems learning from user actions, e.g. for skill level adjustment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/638Methods for processing data by generating or executing the game program for controlling the execution of the game in time according to the timing of operation or a time limit
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • A63F2300/643Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car by determining the impact between objects, e.g. collision detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8011Ball

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and more particularly, to an image processing apparatus and an image processing method that can smoothly perform a character's action on a pole in a video game simulating a ball game such as baseball or soccer.
  • Conventional video game machines generally include a display for displaying a batter, a fielder, etc., an operation stick for operating a batter, a fielder, etc. on the screen, and a desired image on a screen according to the operation of the operation stick. And an image processing circuit for displaying the same.
  • a plane image called a split is prepared for each movement posture of each fielder, and a split corresponding to the progress of the game is displayed on the screen.
  • a virtual area for collision determination called a collision area was provided near the fielder, and when the pole entered the collision area, the fielder's catching action was performed. For example, when a player operates a stick, a fielder on the screen follows the ball in response to the stick operation.
  • the collision area moves with the fielder.
  • the fielder catches up with the pole and the pole enters the collision area near the fielder, the fielder catches the ball.
  • the video game machine determines that the pole on the screen has reached the vicinity of the fielder, and displays a split that indicates the ball catching action. Was showing. For this reason, the fielder does not start catching unless the pole enters the collision area on the screen.
  • a collision between the hit ball and a fence is determined. For example, when a fence is displayed with multiple polygons (polygons), it has been determined whether or not the coordinates of the pole are on the polygon. Then, when it is determined that the pole has collided with the polygon constituting the fence, the pole is bounced off the fence.
  • one representative point must be determined for each polygon.
  • a method of determining the representative point a method of setting the vertex located on the most front side among the vertices of the polygon as the representative point, a method of setting the vertex located on the innermost side of the polygon as the representative point, or a method of determining the polygon
  • the polygon takes precedence. It is difficult to determine the order accurately. In other words, erroneous hidden surface processing was sometimes performed, such as the identification number being hidden under the uniform.
  • a first object of the present invention is to provide an image processing device and an image processing method capable of performing a ball catching operation smoothly.
  • a second object of the present invention is to provide an image processing apparatus and an image processing method capable of executing a collision determination between a hit ball and a fence by a simple calculation.
  • a third object of the present invention is to provide an image processing apparatus and an image processing method capable of accurately performing hidden surface processing on polygons closely contacting each other, such as a uniform number and a uniform. Disclosure of the invention
  • the invention according to claim 1 is for achieving the first object, and is an image for changing the shape of the second image when it is determined that the first image and the second image collide.
  • a virtual area generating means for generating a virtual area at a position separated from the first image by a distance that the first image can move within a predetermined time, and whether or not the second image is located in the virtual area
  • An image processing apparatus comprising: a determination unit that determines whether the second image is located in the virtual area; and an image change unit that changes a shape of the second image when it is determined that the second image is located in the virtual area.
  • the invention according to claim 2 is for achieving the first object, and comprises a position determining means for determining a moving speed and a position of the first image, wherein the virtual region generating means includes a position determining unit. 2.
  • the invention according to claim 3 is for achieving the first object, and the virtual area generation means is for achieving the first object, 3.
  • the invention according to claim 4 is for achieving the first object, and the virtual region has a shape extending in a direction perpendicular to a moving direction of the first image.
  • An image processing apparatus according to any one of claims 1 to 3.
  • the invention according to claim 5 is for achieving the first object, and the image changing means generates a second image having a shape corresponding to a position of the first image on the virtual area.
  • An image processing apparatus according to claim 1.
  • the invention according to claim 6 is for achieving the first object, and the image changing means generates a second image having a shape corresponding to a height of the first image with respect to a reference plane image.
  • the invention according to claim 7 is for achieving the first object, wherein the first image represents a baseball pole, the second image represents a baseball fielder, and the image modification is performed.
  • the means is the image processing apparatus according to any one of claims 1 to 6, wherein the attitude of the fielder is gradually changed according to a ball catching operation.
  • the invention according to claim 8 is for achieving the third object, and comprises a coordinate conversion means for projecting a plurality of polygons represented by a three-dimensional coordinate system onto a two-dimensional coordinate system;
  • the display order of the plurality of polygons projected on the coordinate system is determined based on the magnitude of the coordinate values in the depth direction of the 3D coordinate system on the display screen, and the polygons are displayed preferentially according to the display order.
  • An image processing apparatus provided with a hidden surface processing unit that performs a display order of a polygon group composed of a plurality of polygons having a predetermined description order.
  • Each of the polygons that make up the polygon group is determined based on the above coordinate values in the depth direction, and only when it is determined that the polygon group is to be displayed.
  • An image processing apparatus that preferentially displayed based on the description order.
  • the invention according to claim 9 is for achieving the third object, wherein the hidden surface processing means is configured to display the display order of the polygon group based on the depth direction coordinate value of the polygon having the highest description order.
  • the image processing device according to claim 8 which determines:
  • the invention according to claim 10 is for achieving the third object, wherein the one polygon represents a uniform number, and the other polygon represents a uniform. Device.
  • the invention according to claim 11 is intended to achieve the second object, and in the image processing apparatus for determining a collision between a curved surface image having a radius R from a center point and the first image,
  • This is an image processing apparatus that calculates a distance r from a point to a first image and, when the distance r reaches the distance R, determines that the first image has collided with the curved surface image.
  • the invention according to claim 12 is for achieving the second object, wherein the curved surface image represents a baseball fence, and the first image represents a pole.
  • An image processing device is for achieving the second object, wherein the curved surface image represents a baseball fence, and the first image represents a pole.
  • the invention according to claim 13 is for achieving the first object, and changes the shape of the second image when it is determined that the first image and the second image collide.
  • a virtual region is generated at a position separated from the first image by a distance that the first image can move within a predetermined time, and whether or not the second image is located in the virtual region is determined. If it is determined that the second image is located in the virtual area, the image processing method changes the shape of the second image.
  • the invention according to claim 14 is for achieving the first object, and determines the moving speed and the position of the first image, and based on the moving speed and the position of the virtual area,
  • the invention according to claim 15 is for achieving the third object, and projects a plurality of polygons represented by a three-dimensional coordinate system onto a two-dimensional coordinate system and projects onto the two-dimensional coordinate system.
  • the display order of the plurality of shaded polygons is determined based on the magnitude of the coordinate values in the depth direction of the three-dimensional coordinate system with respect to the display screen, and an image that preferentially displays the polygons according to the display order.
  • the display order of a polygon group including a plurality of polygons whose description order is predetermined is determined based on the coordinate values in the depth direction of one of the polygons constituting the polygon group, and the polygon group is displayed. This is an image processing method that preferentially displays each of the polygons that make up the polygon group based on the description order only when determined.
  • the invention according to claim 16 is for achieving the second object, and comprises an image processing method for determining a collision between a curved surface image having a radius R from a center point and a first image.
  • This is an image processing method in which a distance r from a point to the first image is calculated, and when the distance r reaches the distance R, it is determined that the first image has collided with the curved surface image.
  • the virtual region generating means generates a virtual region at a position away from the first image by a distance that the first image can move within a predetermined time. That is, a virtual area is generated at a position separated by a predetermined distance from the moving direction of the first image. Then, the determining means determines whether the second image is located in the virtual area, and if it is determined that the second image is located in the virtual area, the image changing means changes the shape of the second image .
  • the fielder's posture gradually changes from the standby posture to the posture when catching a ball.
  • the first image showing the ball is sent to the fielder
  • the fielder's attitude is that of catching the ball.
  • the virtual area for collision determination is located at a position distant from the first image, the time from when the second image enters the virtual area until when the first image and the second image collide is lengthened. can do. Therefore, when the present invention is applied to a baseball game, it is possible to sufficiently secure time for a change in the attitude of a fielder when catching a ball, and it is possible to realize a smooth ball catching operation.
  • the position judging means judges the moving speed and the position of the first image
  • the virtual area generating means changes the shape of the virtual area based on the judgment result by the position judging means.
  • the virtual area generating means reduces the area of the virtual area.
  • the virtual region has a shape extending in a direction perpendicular to the moving direction of the first image. Therefore, the fielder (second image) can catch the ball (first image) that has flew in the left-right direction from the position of the fielder.
  • the image changing means generates a second image having a shape corresponding to the position of the first image on the virtual area. For example, if the fielder (second image) is located at the center of the virtual area, the fielder who catches the ball in a forward-facing posture is displayed because the pole (first image) comes in front of the fielder. On the other hand, if the fielder is located at the end of the virtual area, the pole flies to the side of the fielder, so the fielder catching the ball in a sideways posture is displayed. In this way, by changing the attitude of the fielder in accordance with the position of the fielder on the virtual area, it is possible to reproduce a ball-catching action close to the real thing.
  • the image changing means generates a second image having a shape corresponding to a height of the first image with respect to a reference plane image. For example, if the position of the pole (first image) is higher than the ground (reference plane image), a fielder catching the fly is displayed. A fielder is displayed. In this way, by changing the fielder's catching posture according to the height of the pole, It is possible to reproduce a fielder's catching posture close to.
  • the coordinate conversion means projects a plurality of polygons represented by a three-dimensional coordinate system onto a two-dimensional coordinate system.
  • the hidden surface processing means determines the display order of the plurality of polygons projected on the two-dimensional coordinate system based on the magnitude of the coordinate value in the depth direction with respect to the display screen, and gives priority to the polygons according to the display order. Is displayed.
  • the hidden surface processing means determines the display order of a polygon group composed of a plurality of polygons whose description order is predetermined based on the coordinate values in the depth direction of one of the polygons constituting the polygon group. Then, only when it is determined that the polygon group is to be displayed, the hidden surface processing means preferentially displays each polygon constituting the polygon group based on the description order.
  • the coordinate values in the depth direction of each polygon are not compared (for example, Z-sort), and the polygons are displayed according to a predetermined description order. Therefore, even when two polygons are in close contact with each other, accurate hidden surface processing can be performed.
  • a polygon representing a uniform and a polygon representing a uniform number can be accurately displayed.
  • the hidden surface processing means determines the display order of the polygon group based on the coordinate values in the depth direction of the polygon having the highest description order. Therefore, according to the present invention, the display order of polygon groups can be determined in the same manner as other polygons. For example, the conventional hidden surface processing using the Z Compatibility of the hidden surface processing according to the above can be ensured.
  • a curved surface image having a radius R from the center point is assumed, and first, a distance r from the gift to the center point is calculated. Then, when the distance r reaches the distance R, the image processing device determines that the first image has collided with the curved surface image. For example, in the invention described in claim 11, when the curved surface image represents a baseball fence and the first image represents a pole, by comparing the distance R and the distance r, the content is obtained. The collision between the pole and the fence can be easily determined.
  • a virtual area is generated from the first image at a position separated by a distance that the first image can move within a predetermined time. Then, it is determined whether or not the second image is located in the virtual area. If it is determined that the second image is located in the virtual area, the shape of the second image is changed. For example, according to the present invention, since the virtual area for collision determination is located at a position distant from the first image, the time from when the second image enters the virtual area until when the first image and the second image collide is obtained. Can be lengthened. Therefore, when the present invention is applied to a baseball game, it is possible to sufficiently secure time for a change in the attitude of a fielder when catching a ball, and it is possible to realize a smooth ball catching operation.
  • the moving speed and the position of the first image are determined, and the shape of the virtual area is changed based on the moving speed and the position.
  • a display order of the plurality of polygons projected on a two-dimensional coordinate system is determined based on a magnitude of a coordinate value in a depth direction with respect to a display screen, and according to the display order.
  • Display polygons with priority The display order of a polygon group composed of a plurality of polygons whose description order is predetermined is determined based on the coordinate values in the depth direction of one of the polygons constituting the polygon group. Then, only when it is determined that the polygon group is to be displayed, the respective polygons constituting the polygon group are displayed with priority based on the description order.
  • the coordinate values in the depth direction of each polygon are not compared (for example, Z-sort), and the polygons are displayed according to a predetermined description order. Therefore, even when two polygons are in close contact with each other, accurate hidden surface processing can be performed.
  • the first is to calculate a distance r from the gift to the center point.
  • the distance r it is determined that the first image has collided with the curved surface image.
  • the curved surface image represents a baseball fence and the first image represents a pole, the collision between the pole and the fence can be easily determined by comparing the distance R and the distance r. it can.
  • the invention according to claim 17 is a storage medium storing a procedure for causing an image processing apparatus to execute the above-described method.
  • the recording medium includes, for example, a floppy disk, a magnetic tape, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, a RAM cartridge with a battery backup, and a nonvolatile RAM cartridge.
  • a storage medium is a medium on which information (mainly digital data and programs) is recorded by some physical means, and which allows a processing device such as a computer or a dedicated processor to perform a predetermined function. is there.
  • FIG. 1 is an external view of a video game machine according to a first embodiment of the present invention.
  • FIG. 2 is a schematic configuration diagram of the video game machine according to the first embodiment of the present invention.
  • FIG. 3 is a functional block diagram of the image processing apparatus according to the first embodiment of the present invention.
  • FIG. 4 is a diagram showing a screen of a baseball game according to the first embodiment of the present invention.
  • FIG. 5 is a diagram showing a positional relationship between a collision area, a pole, and a fielder according to the first embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a state where a fielder enters a collision area according to the first embodiment of the present invention.
  • FIG. 1 is an external view of a video game machine according to a first embodiment of the present invention.
  • FIG. 2 is a schematic configuration diagram of the video game machine according to the first embodiment of the present invention.
  • FIG. 3 is a functional block diagram of the image processing apparatus according to the first embodiment of the
  • FIG. 7 is a diagram showing a correspondence between each area of the collision area and the ball catching posture according to the first embodiment of the present invention.
  • FIG. 8 is a diagram for explaining details of the collision area according to the first embodiment of the present invention.
  • FIG. 9 is a diagram for explaining a change in the shape of the collision area according to the first embodiment of the present invention.
  • FIG. 10 is a diagram for explaining a ball catching posture of a fielder according to the first embodiment of the present invention.
  • FIG. 11 is a flowchart showing the operation of the video game machine according to the first embodiment of the present invention.
  • FIG. 12 is a flowchart showing the operation of the video game machine according to the first embodiment of the present invention.
  • FIG. 13 is a view for explaining a video game machine according to a second embodiment of the present invention.
  • FIG. 14 is a flowchart showing the operation of the video game machine according to the second embodiment of the present invention.
  • FIG. 15 is a view for explaining a video game machine according to a third embodiment of the present invention.
  • FIG. 1 is an external view of a video game machine using an image processing device according to a first embodiment of the present invention.
  • the video game machine main body 1 has a substantially box shape, and a substrate for game processing and the like are provided in the inside thereof.
  • two connectors 2a are provided on the front of the video game machine body 1, and a PAD 2b for game operation is connected to these connectors 2a via a cable 2c.
  • two PADs 2b are used.
  • FIG. 2 is a block diagram illustrating an outline of the TV game machine according to the present embodiment.
  • This image processing device has a CPU block 10 that controls the entire device, a video block 11 that controls the display of game screens, a sound block 12 that generates sound effects, etc., and a subsystem that reads out CD-ROMs. It is composed of 13 and so on.
  • CPU block 10 is SCU (System Control Unit) 100, main CPU 101, RAM 102, ROM 103, cartridge I ZF la, sub CPU 104, CPU bus It is composed of 103 and the like.
  • the main CPU 101 controls the entire device.
  • This main C P U 101 has D S P inside
  • the SCU 100 controls the paths 105, 106, and 107 to control the main CPU 101, VDP 120, 130, DSP It facilitates data input and output between the CPU 140, the CPU 141 and the like. Also, the SCU 100 has an internal DMA controller, and can transfer the split data during the game to the VRAM in the video block 11. This makes it possible to execute application software such as games at high speed.
  • the cartridge I ZF1a is for inputting application software supplied in the form of a ROM cartridge.
  • the sub CPU 104 is called SMP C (System Manager & Peripheral Control), and collects peripheral data from PAD 2b via connector 2a in response to a request from the main CPU 101. Function.
  • the main CPU 101 performs processing such as moving a fielder in the game screen based on the peripheral received from the sub CPU 104.
  • An arbitrary peripheral such as a PAD, a joystick, and a keyboard can be connected to the connector 2a.
  • the sub CPU 104 has the function of automatically recognizing the type of peripheral connected to the connector 2a (terminal on the main unit) and collecting peripheral data etc. according to the communication method according to the type of the peripheral. .
  • VDP Video Display Processor 1.20, which draws characters composed of polygons in a video game, and performs background screen drawing, composition of polygon image data and background images, clipping processing, etc.
  • VDP 122 is connected to VRAM 122 and frame buffers 122, 123.
  • the rendering data of polygons representing the characters of the video game machine is sent from the main CPU 101 to the VDP 120 via the SCU 100 and written to the VRAM I 21.
  • the drawing data written in the VRAM 122 is drawn, for example, in a drawing frame buffer 122 or 123 in a 16 or 8-bit pixel format.
  • the data of the drawn frame buffer 122 or 123 is sent to VDP130.
  • Information for controlling the drawing is given from the main CPU 101 to the VDP 120 via the SCU 100. Then, the VDP 120 executes the drawing process according to this instruction.
  • the VDP 130 is connected to the VRAM 131, and the image data output from the VDP 130 is output to the encoder 160 via the memory 132.
  • the encoder 160 generates a video signal by adding a synchronization signal or the like to the image data, and outputs the video signal to the TV receiver 5. Thereby, the screen of the baseball game is displayed on the TV receiver 5.
  • the sound block 12 includes a DSP 140 for performing voice synthesis according to the PCM method or the FM method, and a CPU 141 for controlling the DSP 140 and the like.
  • the audio data generated by the DSP 140 is converted to a two-channel signal by the DZA converter 170 and then output to the speaker 5b.
  • Subsystem 13 is CD-ROM drive lb, CD I ZF 180, CPU
  • the subsystem 13 has a function of reading application software supplied in the form of a CD-ROM, reproducing a moving image, and the like.
  • CD-ROM drive 1b reads data from CD-ROM.
  • the CPU 181 controls the CD-ROM drive 1 b and performs processing such as error correction of the read data.
  • Data read from the CD-ROM is supplied to the main CPU 101 via the CD IZF 180, the node 106, and the SCU 100, and is used as application software.
  • MPEG AUD I0182 and MPEGVIDE0183 are devices for restoring data compressed by the MPEG standard (Motion Picture Expert Groug). These MP E G AUD I
  • FIG. 3 is a functional block diagram of an image processing apparatus including the main CPU 101, the RAM 102, the ROM 103, and the like.
  • the virtual area generation means 31 has a function of generating a collision area (virtual area) at a position ahead of the moving direction of the pole (first image).
  • the position judging means 34 judges the speed and height (position) of the pole, and gives the judgment result to the virtual area generating means 31.
  • the judging means 32 judges the positional relationship between the collision area and the fielder, and gives the judgment result to the image changing means 33.
  • the image changing means 33 changes the attitude of the fielder (second image) based on the determination result (the positional relationship between the collision area and the fielder) by the determining means 32. To change. That is, when a fielder enters the collision area, the fielder catches a ball.
  • FIG. 4 shows an example of a screen of a baseball game displayed by the video game machine according to the present embodiment.
  • This baseball game can be played by one or two players. In other words, when there are two players, two players alternately defend and attack, and when there is only one player, the players use a computer (video game machine) as an opponent. Attack alternately.
  • a scene according to the progress of the game is displayed as three-dimensional graphics. When the ball is thrown, the scene seen from behind the batter is displayed, but immediately after the hit, the scene centered on the fielder is displayed as shown in the figure.
  • the fielders J and K can be moved by the operation of PAD2b. That is, when the player operates the pad 2b, the main CPU 101 moves the fielder J located on the infield side among the fielders J and K located in the flying direction of the pole 42 first. Then, when the fielder J misses the ball, the main CPU 101 moves the fielder K on the outfield side next according to the operation of the pad 2b. In this way, it is possible to move a plurality of fielders by a simple operation.
  • the main CPU 101 calculates the speed and direction of the pole 42, and calculates the expected drop point 44 of the pole 42 from these calculation results. Note that the expected fall point 4 4 is actually displayed on the screen. If the fielder J or K is moved to the vicinity of the expected point 44 before the pole 42 falls, the fielder J or K can catch the fly.
  • a virtual collision area 43 is located on the ground (reference plane image) in the flight direction (forward) of the pole 42.
  • the collision area 43 is used when judging a collision (collision) between the pole 42 and the fielder, and is not actually displayed. If fielder J or K moves into collision area 43, fielder J or K can catch pole 42. On the other hand, as long as the fielder J or K is located outside the collision area 43, the fielder J or K does not catch the ball.
  • FIGS. Figure 5 shows the collage It is a figure for demonstrating the positional relationship of a yeon area, a pole, and a fielder.
  • the collision area 43 is located on the ground separated from the ball 42 by a predetermined distance forward. That is, the collision area 43 moves on the ground in front of the pole 43 according to the flight of the pole 43.
  • the distance between the collision area 4 3 and the pole 42 corresponds to the distance traveled by the pole 42 at the time of the 12 interrupt.
  • the fielder can perform 12 frames of motion at the time of 12 interactive hours. For example, as shown in Fig. 6, after fielder J enters collision area 43 and starts catching the ball, fielder J turns his body toward the pole before completing the catching. 12 frames of operation can be performed. Therefore, it is possible to smoothly display the catching action of the fielder.
  • FIG. 7 is a diagram for explaining the collision area 43 and the attitude of catching a ball.
  • collision area 4 3 the area A, B!, B 2, C 1, C 2 is constituted by, respective areas A, B a, B 2, C i, C 2
  • the fielder's catching attitudes 7 1 to 75 are associated with. For example, if the fielder enters area A, the pole will be in front of the fielder, and the fielder's ball-catching attitude will be similar to the ball-catching attitude 73. When the fielder enters the area, the pole comes to the left of the fielder (the ball passes through area A), so the fielder's catching attitude is similar to the balling attitude 71.
  • the ball catching postures 71 to 75 shown in the figure are for the case where the height of the pole is low, and the ball catching posture according to the height of the ball is selected.
  • FIG. 8 is a top view of the collision area.
  • the collision area ⁇ 43 the area A, B a, is composed of B 2, C 1, C 2 .
  • Area A the most central area, is located below Paul's flight path and is circular. Outside the area A, fan-shaped areas BB 2 , C a, and C 2 are respectively provided in order.
  • Areas B 1; B 2, C 1, and C 2 disappear in order as Paul's Pu slows. For example, the pole bounces to the ground and the ball slows down In such a case, the areas C i and C 2 first disappear.
  • FIG. 9 shows how the shape of the collision area 43 changes as the pole moves. After the pole is hit and before it stops, the collision area 43 is in position.
  • the position (a) indicates the position of the collision area immediately after the impact.
  • the effective angles 0 b and 0 C are increased to reduce the difficulty of catching the ball.
  • the effective angle 0 b, 0 c is small, the surface product of Korijo's palette 4 3 decreases (position (b)).
  • the area CC 2 of the collision area 43 disappears.
  • the area BB 2 of collision area 4 3 disappears.
  • the collision area 43 is only the circular area A, so that the fielder can catch the ball from all directions. As described above, by changing the shape of the collision area 43 according to the speed of the ball, it is possible to reproduce the catching action of a real fielder.
  • FIG. 10 is a diagram showing a fielder's catching posture according to the position of the fielder on the collision area and the height of the pole.
  • the vertical axis indicates the pole height
  • the horizontal axis Indicates the position of the fielder on the collision area.
  • the catching postures 1 1 1 to 1 13 represent fielders who catch balls while jumping
  • the catching postures 1 1 4 represent fielders catching fly.
  • the ball-catching postures 1 15 to 1 19 represent fielders catching a ball at the height of the fielder's chest
  • the ball-catching postures 120 to 124 represent fielders catching a goro.
  • the catching posture 1 25 represents a fielder who catches a ball while jumping to the front.
  • the catching postures 115, 119, 120, 124 are for catching a ball while moving.
  • a ball catching posture corresponding to the position of the fielder on the collision area is selected. For example, if the fielder is located in area A and the ball is in a high position (fly), the catching posture 114 with the grab raised is displayed. When the fielder is located in the area and the pole is located at the height of the fielder's chest, the catching posture 115 with the grab extended to the left is displayed. As described above, by changing the fielder's catching posture in accordance with the position of the fielder on the collision area and the height of the pole, it is possible to provide a realistic baseball game.
  • FIG. 11 is a flowchart showing the operation of a video game machine using image processing. This flowchart is executed every interrupt (one frame), provided that the pole is hit by the batter.
  • the position judging means 34 judges the moving direction, angle and speed of the pole immediately after the impact (S l).
  • the virtual area generating means 31 determines the shape (size, effective angle) of the collision area 43 based on the speed of the pole. For example, immediately after hitting, when the speed of the pole is fast, area of the collision area 4 3 B, the effective angle of 0 There area C 1, C 2 of B 2 effective angle 0 c increased (Fig. 8, 9 ).
  • the collision area 43 determined in this way is located on the ground, which is separated from the pole by a predetermined distance forward.
  • area A is associated with a ball-catching posture in which a ball is captured in front of a fielder
  • area B! , B 2 , Ci, and C 2 are associated with the ball-catching posture in which the fielder catches the ball.
  • the judging means 32 selects a fielder who is likely to catch the pole from all the fielders (at a position close to the pole), and determines a distance D between this fielder and the center position of the collision area 43. Is calculated (S3). For example, in FIG. 1, when the fielder J is selected, the distance D between the fielder J and the center position of the collision area 43 is calculated. If the distance D is larger than the maximum radius of the collision area 43, that is, if the fielder J is located outside the collision area 43 ( ⁇ ES at 54), the determination means 3 2 Executes the processing of S 10.
  • the determination means 32 determines whether there is a fielder other than the fielder J who may catch the pole. If there is a fielder K who may catch the pole other than the fielder J (NO in S10), the processing target is transferred to the fielder K (S9). Then, the processing of S3 and S4 described above is executed for the fielder K. As a result, when it is determined that the distance D between the fielder K and the center position of the collision area 43 is larger than the maximum size of the collision area 43, S10 is further executed. In S 10, when the determination means 32 determines that there is no fielder other than the fielders J and K that may catch the pole (YE S in S 10), The process ends, and the process returns to the main flowchart (not shown).
  • the pole position determining means 34 determines the moving direction, angle, and speed of the pole at this time (S l), and the virtual area generating means 31 determines the shape (size) of the collision area 43 based on the speed of the pole.
  • the effective angle) is determined again. For example, when the speed of the pole decreases, the effective angle ⁇ b and the effective angle 0 c of the collision area 43 become smaller.
  • the judging means 32 judges whether the distance D is smaller than the radius Ar of the area A, that is, whether the fielder J is located in the area A (S5). If the result of the determination is NO, the determining means 32 determines whether or not the distance D is smaller than the radius B r of the areas Bi and B 2 (S 6). Further, if the result of the determination is NO, it is determined whether or not the distance D is smaller than the radius C r of the area (: C 2 (S 7). In S7, it is determined to which area of the collision area 43 the fielder J is located.
  • the determination means 32 determines that the fielder J is located in the area B (YE S in S6), the subroutine of S8 is executed.
  • FIG. 12 shows the subroutine of S8.
  • the image changing means 33 calculates an angle between the center point of the collision area 43 and the fielder J. Then, the image changing means 33 determines whether or not the catching posture corresponding to the calculated angle is defined (S82). If the catching posture is not defined (NO in S82), the process is shifted to the next fielder (S86), and then the process returns to the main flow chart in FIG. For example, when the fielder J enters the left side of the collision area 43 (area Bi side), since the catching posture 1 15 in FIG. 10 is defined (YES in S82), The processing after S83 is executed.
  • the image changing means 33 determines an accurate catching posture based on the information of the PAD (or stick) 2b, the direction of the fielder, the height of the ball, and the like (S83). If the catching posture determined in this way does not exist (NO in S84), the process is shifted to the next fielder, for example, fielder K (S86), and the main flowchart of FIG. Return to On the other hand, if the catching posture determined in S83 exists ( ⁇ ES in 5884), the posture of the fielder J on the screen is changed to the catching posture (S85), and FIG. The process ends after returning to the main flowchart of FIG. After the fielder who performs catching is determined in this way, the subroutine of FIG.
  • the video game machine according to the second embodiment is obtained by adding a function for displaying a uniform number to the video game machine according to the first embodiment.
  • this function will be described with reference to FIGS.
  • FIG. 14 is a diagram for explaining the data structure of a polygon representing the upper body of a player.
  • the uniform is composed of four polygon groups 14A, 14B, 14C, and 14D.
  • Each polygon group is composed of a polygon representing a — part of the uniform and a polygon representing a part of the uniform number. That is, the polygon 14A is composed of a polygon 1401 representing a part of a uniform divided into four parts, and a polygon 1441 representing a part of a uniform number divided into four parts.
  • polygon group 14B is composed of polygons 1402 and 1412
  • polygon group 14C is composed of polygons 1403 and 1413.
  • the polygon group 144D is composed of polygons 144 and 114.
  • the description order (priority order) of polygons is set for each of the polygon groups 14 A, 14 B, 14 C, and 14 D.
  • the description order is determined in the order of the uniform polygon 140 1 and the uniform number polygon 141 1 1.
  • the polygon having the highest description rank is selected as a polygon representing each polygon group.
  • the polygons 140 1, 140 2, 140 3, and 144 4 that display uniforms are polygons representing polygon groups 14 A, 14 B, 14 C, and 14 D, respectively. Selected.
  • polygons representing uniforms 1401- 1404, a polygon representing a uniform number 1411 to 1414 are represented by coordinates in a three-dimensional coordinate system.
  • the main CPU 101 (FIG. 2) performs a coordinate transformation on the three-dimensional coordinate system to generate a two-dimensional coordinate system shown in FIG.
  • the coordinate transformation is performed by projecting the coordinates of the vertices of the polygons 1401 to 1404, 1411 to 1414 into a two-dimensional coordinate system.
  • the main CPU 101 is a polygon that represents each of the polygon groups 14 A, 14 B, 14 C, and 14 D.
  • the polygons 1 4 0 1, 1 4 0 2, 1 4 0 3, 1 4 0 4 and other polygons are determined in priority order. For example, if the fielder is facing the front (the chest is facing the screen), the back is behind the chest. That is, the Z coordinate values of the polygons 1401, 1402, 1403, and 1404, which represent the polygon groups 14A, 14B, 14C, and 14D, respectively, represent the chest. It is larger than the Z coordinate value of the polygon to represent. Therefore, in this case, the entire polygon groups 14A, 14B, 14C, and 14D are not displayed (the back is hidden behind the chest).
  • polygons 1401, 1400, 1400 representing polygon groups 14A, 14B, 14C, and 14D, respectively.
  • the Z coordinate value of 3, 1404 is smaller than the Z coordinate value of the polygon representing the breast.
  • the polygon groups 14 A, 14 B, 14 C, and 14 D are displayed in preference to the breast polygon.
  • polygons are displayed in accordance with a predetermined description order. For example, in the polygon group 14 A, the polygon 144 1 1 representing the uniform number is overwritten on the polygon 1 401 representing the uniform. That is, within the same polygon group, the comparison of the Z coordinate values of each polygon (Z sorting) is not performed, and the polygons are displayed according to a predetermined description order.
  • the Z coordinate values of each polygon are not compared, and the polygons are displayed according to a predetermined description order. Therefore, even when two polygons are in close contact with each other, such as a uniform and a polygon, accurate hidden surface processing can be performed. For example, as shown in the invention of claim 10, a polygon representing a uniform and a polygon And the polygons representing the numbers can be displayed accurately. Also, since the display order of the polygon group is determined based on the Z coordinate value of the polygon with the highest description order, it is necessary to ensure compatibility between the hidden surface processing according to the present embodiment and the z-sort method. Is possible.
  • the present embodiment is not limited to the display of uniform numbers on uniforms, but can be applied to numbers on racing cars.
  • the video game machine according to the present embodiment is obtained by adding the following functions to the video game machine according to the first embodiment described above.
  • a video game machine according to a third embodiment of the present invention will be described with reference to FIG.
  • FIG. 15 is an external view of the stadium 1500 on the screen.
  • a virtual center point 1502 is set behind the second base, and an arc having a radius R and an angle of 0 with respect to the center point 1502 is displayed as an outfield fence 1501.
  • reference numeral 1503 denotes a pole hit by a grasshopper.
  • the main CPU 101 calculates the distance r from the center point 1502 to the pole 1503 and determines whether the angle ⁇ in the figure is within the range of the angle 0. In addition to these two conditions, if the condition that the height of the ball 1503 is equal to or less than the height of the outfield fuence 1501 is satisfied, the main CPU 101 sets the ball 1503 It is determined that has collided with the outfield fence 1501. Then, the main CPU 101 performs a process of bouncing the pole 1503 from the outfield fence 1501, and the bouncing pole is displayed on the display 5.
  • the present invention is not limited to the above embodiments, and can be modified and implemented without departing from the spirit of the present invention.
  • the present invention may be applied to not only a baseball game but also a soccer game, a tennis game and the like.
  • Industrial applicability is not limited to the above embodiments, and can be modified and implemented without departing from the spirit of the present invention.
  • the present invention may be applied to not only a baseball game but also a soccer game, a tennis game and the like.
  • a collision area (virtual area) is generated at a position separated by a predetermined distance from the pole (first image). Then, the determining means determines whether or not the fielder (second image) is located in the collision area, and if it is determined that the fielder is located in the virtual area, the image changing means determines the attitude (shape) of the fielder To change. For example, when a fielder enters the collision area, the attitude of the fielder gradually changes from a state of waiting to a state of catching a ball.
  • the attitude of the fielder is in the state at the time of catching the ball.
  • the collision area for collision determination is located away from the pole, the time from when the fielder enters the collision area to when the pole reaches the fielder can be lengthened. Therefore, a sufficient time from the start of the ball catching operation by the fielder to the completion of the ball catching (time for changing the attitude of the fielder) can be sufficiently secured, and a smooth ball catching operation can be realized. It becomes possible.
  • the fielder's catching posture is changed according to the position of the fielder on the collision area. For example, if the fielder is located in the center of the collision area, the action of the fielder to catch the ball in the forward direction is displayed, and if the fielder is located at the end of the collision area, the action of the fielder to catch the ball in the sideways direction is displayed. Can be displayed. This makes it possible to display a realistic ball catching motion.
  • the shape of the collision area according to the speed and position (height) of the pole, it is possible to reproduce a ball-catching action that is close to the real thing. For example, if the position of the pole is higher than the ground (reference plane image), a fielder catching a fly is displayed, and if the position of the ball is lower, a fielder catching a goro is displayed.
  • a fence curved surface image
  • a distance r from the pole to the center point is appropriately calculated.
  • the collision determination process can be easily performed by determining that the pole has collided with the fence.
  • hidden surface processing of polygons that are in close contact with each other can be performed accurately. According to the present invention, within the same polygon group, the Z coordinate values of the polygons are not compared with each other, and the polygons are displayed according to a predetermined description order.
  • the display order of polygon groups is determined by an algorithm such as the Z-sort method in the same manner as the display order of other polygons. Therefore, the hidden surface processing according to the present invention and the conventional hidden surface processing (eg, ) Can be ensured.
  • the ROM 103 corresponds to the recording medium described above, and is not only installed in the game device main body, but also newly connected / applied to the game device main body from outside the device. Of course you can.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Description

明 細 書 画像処理装置および画像処理方法 技術分野
本発明は、 画像処理装置および画像処理方法に関し、 詳しくは野球、 サッカー 等の球技を摸したビデオゲーム等においてポールに対するキャラクタの動作を円 滑に行うことのできる画像処理装置および画像処理方法に関する。
背景技術
コンピュータ技術の進歩に伴い、 コンピュータグラフィ ックス技術を用いたビ デォゲーム機 (画像処理装置) が広く利用されるようになってきた。 中でも、 野 球、 サッカー等の球技を模したビデオゲーム機に対する人気は根強いものがあり、 この種のビデオゲーム機が数多く案出されている。
しかしながら、 従来のビデオゲーム機は、 以下のように多くの問題を抱えてい た。
第 1 に、 野手の捕球動作を円滑に表示するのが困難であった。
従来のビデオゲーム機は一般に、 打者、 野手等を表示するディスプレイと、 画 面上の打者あるいは野手等を操作する操作スティ ックと、 操作スティ ックの操作 に応じて画面上に所望の映像を表示する画像処理回路とを備えて構成されていた。 このようなビデオゲーム機においては、 各野手の動作姿勢毎にスプライ トと呼ば れる平面画像が用意され、 ゲーム進行に応じたスプライ 卜が画面上に表示される。 また、 野手の近傍にはコリジョンエリァと呼ばれる衝突判定用の仮想領域が設け られ、 ポールがコリジョンエリアに入った場合に野手の捕球動作が行われていた。 例えば、 遊戯者がスティ ックを操作すると、 画面上の野手はスティ ック操作に 応じて打球を追いかける。 このとき、 野手に伴いコリジョ ンエリアも移動する。 そして、 野手がポールに追い付き、 ポールが野手の近傍のコリジョ ンエリアに入 つた場合には、 野手は捕球動作を行う。 すなわち、 ビデオゲーム機は、 画面上に おけるポールが野手の近傍に達しことを判断し、 捕球動作を表すスプライ トを表 示していた。 このため、 画面上においてポールがコリジョンエリアに入らない限 り、 野手は捕球動作を開始することはない。
ところが、 ポールがコリジョンエリァに入ってから野手が捕球するまでの時間 は極めて短く、 ポールがコリジョ ンエリァに入ってから極めて短時間に野手に捕 球動作を行わせなければならない。 このため、 野手の捕球動作はぎこちないもの となり、 臨場感のあるゲームを提供するのが困難となっていた。 かかる問題を解 決する方法として、 野手の近傍のコリジョンエリアを大きくする方法が考えられ る。 すなわち、 ポールがコリジョンエリアに入ってから野手が捕球するまでの時 間を長くする方法が考えられる。 ところが、 コリジョ ンエリアを大きく したので は、 野手から遠く離れたポールに対しても野手が捕球動作を開始してしまい、 捕 球不可能なポールに対してまで野手の捕球動作が行われるという不都合が新たに 生じる。
第 2に、 打球とフェンスとの衝突判定処理のために多くの演算を要し、 高速処 理の妨げとなっていた。
ビデオゲーム機において、 打球が外野手を超えて飛んだ場合には、 打球とフエ ンスとの衝突判定が行われる。 例えば、 フェンスが複数のポリゴン (多角形) で 表示されている場合には、 ポールの座標がポリゴン上にあるか否かが判断されて いた。 そして、 ポールがフェンスを構成するポリゴンに衝突したと判断された場 合には、 ポールをフェンスから跳ね返す処理が行われる。
すなわち、 従来の野球ゲームにおいては、 ポールの座標値が、 フェンスを構成 するポリゴン上に位置するか否かによって、 ポールとフェンスとの衝突判定を行 つていた。 しかしながら、 ポールおよびポリゴンの座標値は、 3次元データによ つて表現されているため、 両者の位置関係を判断するためには多くの演算処理を 費やさなければならなかった。 したがって、 ゲーム全体の処理速度の低下等の問 題が生じていた。
第 3に、 背番号とユニフォームのように、 互いに密着したポリゴン同士の隠面 処理を正確に行うのは困難であった。
野球、 サッカー等のビデオゲームにおいては、 ゲームの臨場感を増すためには、 各選手にそれぞれ異なった背番号を付するこどが望ましい。 ところが、 、 各選手 のユニフォーム毎に異なった画像を用意したのでは表示データは膨大なものとな つてしまう。 このため、 ユニフォームの画像と背番号の画像を別に用意し、 背番 号の画像をユニフォームの画像上に重ねる手法が採られている。
しかしながら、 背番号およびユニフォームをポリゴンによって表示する場合に は、 以下の問題が生じる。 ポリゴンが重なり合った場合には、 画面の奥側にある ポリゴンのうち重なり合った部分を表示しない処理 (隠面処理) が行われる。 こ のような隠面処理の方法として、 ポリゴンの奥行き方向の座標 ( Z座標値) の大 小により各ポリゴンの優先順位を決定し、 優先順位に従いポリゴンを表示する方 法 (Zソート法) が案出されている。 すなわち、 Zソート法においては、 ポリゴ ン毎に代表点が決定され、 代表点同士の z座標値の大小に従いポリゴンの優先順 位が定められる。
このように、 Zソート法においては、 各ポリゴン毎に一つの代表点を決定しな ければならない。 代表点の決定方法としては、 ポリゴンの頂点のうち、 最も手前 側にある頂点を代表点とする方法、 ポリゴンの頂点のうち、 最も奥側にある頂点 を代表点とする方法、 あるいは、 ポリゴンの重心を代表点とする方法がある。 し かしながら、 いずれの方法をとるにしても、 背番号とユニフォームのように 2つ のポリゴンが互いに密着 ( 2つの z座標値の値が近似) している場合には、 ポリ ゴンの優先順位を正確に決定するのが困難である。 すなわち、 背番号がュニフォ ームの下に隠れて表示される等、 誤った隠面処理がなされることがあった。
がかる問題を回避する方法として、 背番号の優先順位をユニフォームの優先順 位よりも高くし、 背番号を常にユニフォーム上に重ねる方法が考えられる。 しか しながら、 この方法によっては、 野手が正面を向いた場合 (背中が表示されない 場合) に背番号が表示されるという問題が新たに生じ得る。 したがって、 従来は、 互いに密着したポリゴン同士の隠面処理を正確に行うのが極めて困難であった。 本発明は、 上記課題に鑑みてなされたものであって、 本発明の第 1の目的は、 捕球動作を円滑に行うことの可能な画像処理装置および画像処理方法を提供する ことにある。
本発明の第 2の目的は、 打球とフェンスとの衝突判定を簡易な演算により実行 可能な画像処理装置および画像処理方法を提供することにある。 本発明の第 3の目的は、 背番号とユニフォームのように互いに密着したポリゴ ンにおける隠面処理を正確に行うことのできる画像処理装置および画像処理方法 を提供することにある。 発明の開示
請求項 1記載の発明は、 上記第 1の目的を達成するためのものであって、 第 1 画像および第 2画像が衝突することを判定した場合に、 第 2画像の形状を変更す る画像処理装置において、 第 1画像から、 所定時間内に第 1画像が移動し得る距 離だけ離れた位置に、 仮想領域を生成する仮想領域生成手段と、 仮想領域に第 2 画像が位置するか否かを判定する判定手段と、 第 2画像が仮想領域に位置すると 判定された場合には、 第 2画像の形状を変更する画像変更手段とを備えた画像処 理装置である。
請求項 2記載の発明は、 上記第 1の目的を達成するためのものであって、 第 1 画像の移動速度および位置を判断する位置判断手段を備え、 上記仮想領域生成手 段は、 位置判断手段による判断結果に基づき上記仮想領域の形状を変更する請求 項 1記載の画像処理装置である。
請求項 3記載の発明は、 上記第 1の目的を達成するためのものであって、 上記 仮想領域生成手段は、 上記第 1の目的を達成するためのものであって、 上記第 1 画像の速度の低下に伴い、 上記仮想領域の面積を減少させる請求項 2記載の画像 処理装置である。
請求項 4記載の発明は、 上記第 1の目的を達成するためのものでつて、 上記仮 想領域は、 上記第 1画像の移動方向に対して直角方向に延出した形状をなす請求 項 1乃至請求項 3のいずれか一項記載の画像処理装置である。
請求項 5記載の発明は、 上記第 1の目的を達成するためのものであって、 上記 画像変更手段は、 上記仮想領域上における第 1画像の位置に対応した形状の第 2 画像を生成する請求項 1記載の画像処理装置である。
請求項 6記載の発明は、 上記第 1の目的を達成するためのものであって、 上記 画像変更手段は、 基準平面画像に対する上記第 1画像の高さに対応した形状の第 2画像を生成する請求項 1記載の画像処理装置である。 請求項 7記載の発明は、 上記第 1の目的を達成するためのものであって、 上記 第 1画像は野球のポールを表し、 上記第 2画像は野球の野手を表すとともに、 上 記画像変更手段は捕球動作に応じて野手の姿勢を除々に変更する請求項 1乃至請 求項 6のいずれか一項記載の画像処理装置である。
請求項 8記載の発明は、 上記第 3の目的を達成するためのものであって、 3次 元座標系で表された複数のポリゴンを 2次元座標系に投影する座標変換手段と、 2次元座標系に投影された上記複数のポリゴン同士の表示順位を、 表示画面に対 する上記 3次元座標系の奥行き方向の座標値の大小に基づき決定するとともに、 この表示順位に従いポリゴンを優先的に表示する隠面処理手段とを備えた画像処 理装置において、 上記隠面処理手段は、 記述順位が予め定められた複数のポリゴ ンよりなるポリゴングループの表示順位を当該ポリゴングループを構成する一の ポリゴンの上記奥行き方向の座標値に基づき決定するとともに、 当該ポリゴング ループを表示すると決定した場合に限り、 当該ポリゴングループを構成するそれ ぞれのポリゴンを上記記述順位に基づき優先的に表示する画像処理装置である。 請求項 9記載の発明は、 上記第 3の目的を達成するためのものであって、 上記 隠面処理手段は、 上記記述順位の最も高いポリゴンの奥行き方向座標値に基づき 上記ポリゴングループの表示順位を決定する請求項 8記載の画像処理装置である。 請求項 1 0記載の発明は、 上記第 3の目的を達成するためのものであって、 上 記一のポリゴンは背番号を表し、 上記他のポリゴンはユニフォームを表す請求項 8記載の画像処理装置である。
請求項 1 1記載の発明は、 上記第 2の目的を達成するためのものであって、 中 心点から半径 Rの曲面画像と第 1画像との衝突判定を行う画像処理装置において、 上記中心点から第 1画像までの距離 rを算出し、 距離 rが距離 Rに達した場合に は、 第 1画像が曲面画像に衝突したと判定する画像処理装置である。
請求項 1 2記載の発明は、 上記第 2の目的を達成するためのものであって、 上 記曲面画像は野球のフェンスを表し、 上記第 1画像はポールを表す請求項 1 1記 載の画像処理装置である。
請求項 1 3記載の発明は、 上記第 1の目的を達成するためのものであつって、 第 1画像および第 2画像が衝突することを判定した場合に、 第 2画像の形状を変 更する画像処理方法において、 第 1画像から、 所定時間内に第 1画像が移動し得 る距離だけ離れた位置に、 仮想領域を生成し、 仮想領域に第 2画像が位置するか 否かを判定し、 第 2画像が仮想領域に位置すると判定された場合には、 第 2画像 の形状を変更する画像処理方法である。
請求項 1 4記載の発明は、 上記第 1の目的を達成するためのものであって、 上 記第 1画像の移動速度および位置を判断し、 この移動速度および位置に基づき上 記仮想領域の形状を変更する請求項 1 1記載の画像処理方法である。
請求項 1 5記載の発明は、 上記第 3の目的を達成するためのものであって、 次 元座標系で表された複数のポリゴンを 2次元座標系に投影し、 2次元座標系に投 影された上記複数のポリゴン同士の表示順位を、 表示画面に対する上記 3次元座 標系の奥行き方向の座標値の大小に基づき決定するとともに、 この表示順位に従 いポリゴンを優先的に表示する画像処理方法において、 記述順位が予め定められ た複数のポリゴンよりなるポリゴングループの表示順位を当該ポリゴングループ を構成する一のポリゴンの上記奥行き方向の座標値に基づき決定するとともに、 当該ポリゴングループを表示すると決定した場合に限り、 当該ポリゴングループ を構成するそれぞれのポリゴンを上記記述順位に基づき優先的に表示する画像処 理方法である。
請求項 1 6記載の発明は、 上記第 2の目的を達成するためのものであって、 中 心点から半径 Rの曲面画像と第 1画像との衝突判定を行う画像処理方法において、 上記中心点から第 1画像までの距離 rを算出し、 距離 rが距離 Rに達した場合に は、 第 1画像が曲面画像に衝突したと判定する画像処理方法である。
請求項 1記載の発明において、 仮想領域生成手段は、 第 1画像から、 所定時間 内に第 1画像が移動し得る距離だけ離れた位置に、 仮想領域を生成する。 すなわ ち、 第 1画像の移動方向に対して、 所定距離だけ離れた位置に仮想領域が生成さ れる。 そして、 判定手段は、 仮想領域に第 2画像が位置するか否かを判定し、 第 2画像が仮想領域に位置すると判定された場合には、 画像変更手段は第 2画像の 形状を変更する。
例えば、 野手を表す第 2画像が仮想領域に入ると、 野手の姿勢は待機時の姿勢 から捕球時の姿勢へと除々に変化する。 この後、 ボールを表す第 1画像が野手に 到達した際には、 野手の姿勢は捕球時の姿勢になっている。 本発明によれば、 衝 突判定用の仮想領域は第 1画像から離れた位置にあるため、 第 2画像が仮想領域 に入ってから第 1画像および第 2画像が衝突するまでの時間を長くすることがで きる。 したがって、 本発明を野球ゲームに適用した場合には、 捕球時における野 手の姿勢変化のための時間を十分に確保することができ、 円滑な捕球動作を実現 することが可能となる。
請求項 2記載の発明において、 位置判断手段は第 1画像の移動速度および位置 を判断し、 仮想領域生成手段は、 位置判断手段による判断結果に基づき仮想領域 の形状を変更する。 例えば、 請求項 3記載の発明において、 第 1画像の速度が低 い場合には、 仮想領域生成手段は仮想領域の面積を減少させる。 ポール (第 1画 像) の速度が遅い場合には、 野手 (第 2画像) がボールから離れた位置において 捕球動作を開始するという不都合を回避することができる。 すなわち、 いまにも 止まりそうなポールに対して野手が飛びつきながら捕球をするというような問題 を解消することができる。
請求項 4記載の発明において、 仮想領域は、 第 1画像の移動方向に対して直角 方向にに延出した形状をなしている。 したがって、 野手 (第 2画像) は、 野手の 位置から左右方向に飛来したボール (第 1画像) を捕球することができる。
請求項 5記載の発明において、 画像変更手段は、 仮想領域上における第 1画像 の位置に対応した形状の第 2画像を生成する。 例えば、 野手 (第 2画像) が仮想 領域の中央に位置する場合には、 野手の正面にポール (第 1画像) が飛来するた め、 前向きの姿勢で捕球を行う野手が表示される。 一方、 野手が仮想領域の端部 に位置する場合には、 野手の側方にポールが飛来するため、 横向きの姿勢で捕球 を行う野手が表示される。 このように、 仮想領域上における野手の位置に応じて 野手の姿勢を変更することにより、 本物に近い捕球動作を再現することができる。 請求項 6記載の発明において、 画像変更手段は、 基準平面画像に対する上記第 1画像の高さに対応した形状の第 2画像を生成する。 例えば、 ポール (第 1画像) の位置がグランド (基準平面画像) に対して高い場合には, フライを捕球する野 手が表示され、 ボールの位置が低い場合には、 ゴロを捕球する野手が表示される。 このように、 ポールの高さに応じて野手の捕球姿勢を変更することにより、 本物 に近い野手の捕球姿勢を再現することが可能となる。
請求項 7記載の発明において、 第 1画像は野球のポールを表し、 上記第 2画像 は野球の野手を表すとともに、 画像変更手段は捕球動作に応じて野手の姿勢を除 々に変更する。 これにより、 円滑な捕球動作を実現することが可能となる。 請求項 8記載の発明において、 座標変換手段は、 3次元座標系で表された複数 のポリゴンを 2次元座標系に投影する。 そして、 隠面処理手段は 2次元座標系に 投影された上記複数のポリゴン同士の表示順位を、 表示画面に対して奥行き方向 の座標値の大小に基づき決定するとともに、 この表示順位に従いポリゴンを優先 的に表示する。 また、 隠面処理手段は、 記述順位が予め定められた複数のポリゴ ンよりなるポリゴングループの表示順位をポリゴングループを構成する一のポリ ゴンの奥行き方向の座標値に基づき決定する。 そして、 隠面処理手段は、 ポリゴ ングループを表示すると決定した場合に限り、 ポリゴングループを構成するそれ ぞれのポリゴンを記述順位に基づき優先的に表示する。
すなわち、 同一ポリゴングループ内においては、 各ポリゴンの奥行き方向の座 標値の比較 (例えば Zソート) は行われず、 予め定められた記述順位に従ってポ リゴンが表示される。 したがって、 2つのポリゴンが密着しているような場合で あっても、 正確な隠面処理を行うことが可能となる。 例えば、 請求項 1 0記載の 発明に示されるように、 ユニフォームを表すポリゴンおよび背番号を表すポリゴ ンを正確に表示することができる。
請求項 9記載の発明において、 隠面処理手段は、 記述順位の最も高いポリゴン の奥行き方向座標値に基づきポリゴングループの表示順位を決定している。 した がって、 本発明によれば、 ポリゴングループ同士の表示順位を、 他のポリゴンと 同様に決定することができるため、 例えば Zソ一ト法を用いた従来の隠面処理お よび本発明に係る隠面処理の互換性を確保すること 可能となる。
請求項 1 1記載の発明において、 中心点から半径 Rの曲面画像を想定し、 第 1 が贈から中心点までの距離 rを算出する。 そして、 画像処理装置は、 距離 rが距 離 Rに達した場合には、 第 1画像が曲面画像に衝突したと判定する。 例えば、 請 求項 1 1記載の発明において、 曲面画像は野球のフェンスを表し、 第 1画像はポ ールを表している場合には、 距離 Rおよび距離 rの比較をすることによって、 容 易にポールとフェンスとの衝突判定を行うことができる。
請求項 1 3記載の発明において、 第 1画像から、 所定時間内に第 1画像が移動 し得る距離だけ離れた位置に仮想領域を生成する。 そして、 仮想領域に第 2画像 が位置するか否かを判定し、 第 2画像が仮想領域に位置すると判定された場合に は、 第 2画像の形状を変更する。 例えば、 本発明によれば、 衝突判定用の仮想領 域は第 1画像から離れた位置にあるため、 第 2画像が仮想領域に入ってから第 1 画像および第 2画像が衝突するまでの時間を長くすることができる。 したがって、 本発明を野球ゲームに適用した場合には、 捕球時における野手の姿勢変化のため の時間を十分に確保することができ、 円滑な捕球動作を実現することが可能とな る。
請求項 1 4記載の発明において、 第 1画像の移動速度および位置を判断し、 こ の移動速度および位置に基づき上記仮想領域の形状を変更する。
請求項 1 5記載の発明において、 2次元座標系に投影された上記複数のポリゴ ン同士の表示順位を、 表示画面に対して奥行き方向の座標値の大小に基づき決定 するとともに、 この表示順位に従いポリゴンを優先的に表示する。 また、 記述順 位が予め定められた複数のポリゴンよりなるポリゴングループの表示順位をポリ ゴングループを構成する一のポリゴンの奥行き方向の座標値に基づき決定する。 そして、 ポリゴングループを表示すると決定した場合に限り、 ポリゴングループ を構成するそれぞれのポリゴンを記述順位に基づき優先的に表示する。
すなわち、 同一ポリゴングループ内においては、 各ポリゴンの奥行き方向の座 標値の比較 (例えば Zソート) は行われず、 予め定められた記述順位に従ってポ リゴンが表示される。 したがって、 2つのポリゴンが密着しているような場合で あっても、 正確な隠面処理を行うことが可能となる。
請求項 1 6記載の発明において、 中心点から半径 Rの曲面画像を想定し、 第 1 が贈から中心点までの距離 rを算出する。 そして、 距離 rが距離 Rに達した場合 には、 第 1画像が曲面画像に衝突したと判定する。 例えば、 曲面画像は野球のフ エンスを表し、 第 1画像はポールを表している場合には、 距離 Rおよび距離 rの 比較をすることによって、 容易にポールとフェンスとの衝突判定を行うことがで きる。 また、 請求項 1 7記載の発明は、 既述の方法を画像処理装置に実行させる手順 が記憶された記憶媒体である。 記録媒体には、 例えば、 フロッピーディスク、 磁 気テープ、 光磁気ディスク、 C D— R O M、 D V D , R O Mカートリッジ、 バッ テリバックアップ付きの R A Mカートリ ッジ、 不揮発性 R A Mカートリッジ等を 含む。 記憶媒体とは、 何らかの物理的手段により情報 (主にデジタルデータ、 プ ログラム) が記録されているものであって、 コンピュータ、 専用プロセッサ等の 処理装置に所定の機能を行わせることができるものである。 図面の簡単な説明
図 1は、 本発明の第 1実施例に係るビデオゲーム機の外観図である。 図 2は、 本 発明の第 1実施例に係るビデオゲーム機の概略構成図である。 図 3は、 本発明の 第 1実施例に係る画像処理装置の機能ブロック図である。 図 4は、 本発明の第 1 実施例に係る野球ゲームの画面を表す図である。 第 5図は、 本発明の第 1実施例 に係るコリジョンエリア、 ポール、 および、 野手の位置関係を表す図である。 図 6は、 本発明の第 1実施例に係るコリジョンエリァに野手が入った状態を表す図 である。 図 7は、 本発明の第 1実施例に係るコリジョンエリアの各エリアと捕球 姿勢との対応を示す図である。 図 8は、 本発明の第 1実施例に係るコリジョンェ リアの詳細を説明するための図である。 図 9は、 本発明の第 1実施例に係るコリ ジョンエリアの形状の変化を説明するための図である。 図 1 0は、 本発明の第 1 実施例に係る野手の捕球姿勢を説明するための図である。 図 1 1は、 本発明の第 1実施例に係るビデオゲーム機の作用を表すフローチャートである。 図 1 2は、 本発明の第 1実施例に係るビデオゲーム機の作用を表すフローチャートである。 図 1 3は、 本発明の第 2実施例に係るビデオゲーム機を説明するための図である。 図 1 4は、 本発明の第 2実施例に係るビデオゲーム機の作用を表すフローチヤ一 トである。 図 1 5は、 本発明の第 3実施例に係るビデオゲーム機を説明するため の図である。 発明を実施するための最良の形態
本発明をより詳細に説述するために、 添付の図面に従ってこれを説明する。 (第 1実施例)
I . 構成
図 1は本発明の第 1実施例に係る画像処理装置を用いたビデオゲーム機の外観 図である。 この図において、 ビデオゲーム機本体 1は略箱型をなし、 その内部に はゲーム処理用の基板等が設けられている。 また、 ビデオゲーム機本体 1 の前面 には、 2つのコネクタ 2 aが設けられており、 これらのコネクタ 2 aにはゲーム 操作用の PAD 2 bがケーブル 2 cを介して接続されている。 2人の遊戯者が野 球ゲーム等を楽しむ場合には、 2つの P AD 2 bが使用される。
ビデオゲーム機本体 1の上部には、 R OM力一トリ ッジ接続用の力一トリッジ I / F 1 a、 C D- R O M読み取り用の CD— R OMドライブ 1 bが設けられて いる。 ビデオゲーム機本体 1の背面には、 図示されていないが、 ビデオ出力端子 およびオーディォ出力端子が設けられている。 このビデオ出力端子はケーブル 4 aを介して TV受像機 5のビデオ入力端子に接続されるとともに、 オーディオ出 力端子はケーブル 4 bを介して TV受像機 5のオーディオ入力端子に接続されて いる。 このようなビデオゲーム機において、 ユーザが PAD 2 bを操作すること により、 TV受像機 5に映し出された画面を見ながらゲームを行うことができる。 図 2は本実施例に係る TVゲーム機の概要を表すブロック図である。 この画像 処理装置は、 装置全体の制御を行う C P Uブロック 1 0、 ゲーム画面の表示制御 を行うビデオブロック 1 1、 効果音等を生成するサウンドブロック 1 2、 CD— R OMの読み出しを行うサブシステム 1 3等により構成されている。
C P Uブロック 1 0は、 S C U (System Control Uni t) 1 0 0、 メイン C PU 1 0 1、 RAM 1 0 2, ROM 1 0 3、 カートリ ッジ I ZF l a、 サブ C PU 1 0 4、 C P Uバス 1 0 3等により構成されている。 メイン C P U 1 0 1は、 装置 全体の制御を行うものである。 このメイン C P U 1 0 1は、 内部に D S P
(Digital Signal Processor) と同様の演算機能を備え、 アプリケーショ ンソフ トを高速に実行可能である。 RAM I 0 2は、 メイン C P U 1 0 1のワークエリ ァとして使用されるものである。 ROM 1 0 3には、 初期化処理用のイニシャル プログラム等が書き込まれている。 S CU 1 0 0は、 パス 1 0 5、 1 0 6、 1 0 7を制御することにより、 メイン C P U 1 0 1、 VD P 1 2 0、 1 3 0、 D S P 1 40、 C PU 1 4 1等の間におけるデータ入出力を円滑に行うものである。 ま た、 S CU 1 0 0は、 内部に DMAコントローラを備え、 ゲーム中のスプライ ト デ一夕をビデオブロック 1 1 内の V R AMに転送することができる。 これにより、 ゲーム等のアプリケーションソフ トを高速に実行することが可能である。 カート リ ッジ I ZF 1 aは、 R OMカートリ ッジの形態で供給されるアプリケ一ション ソフトを入力するためのものである。
サブ C P U 1 04は、 SMP C (System Manager & Peripheral Control) と呼 ばれるもので、 メイン C PU 1 0 1からの要求に応じて、 PAD 2 bからペリフ ェラルデ一夕をコネクタ 2 aを介して収集する機能等を備えている。 メイン C P U 1 0 1はサブ C P U 1 0 4から受け取ったペリフエラルデ一夕に基づき、 例え ばゲーム画面中の野手を移動させる等の処理を行うものである。 コネクタ 2 aに は、 P AD、 ジョイスティ ック、 キーボード等のうちの任意のペリフエラルが接 続可能である。 サブ C P U 1 04は、 コネクタ 2 a (本体側端子) に接続された ペリフエラルの種類を自動的に認識し、 ペリフエラルの種類に応じた通信方式に 従いペリフエラルデ一夕等を収集する機能を備えている。
ビデオブロック 1 1は、 ビデオゲームのポリゴンデ一夕から成るキャラクタ等 の描画を行う VD P (Video Display Processor) 1.2 0、 背景画面の描画、 ポリ ゴン画像データおよび背景画像の合成、 クリッビング処理等を行う VD P 1 3 0 とを備えている。 VD P 1 2 0は VRAM 1 2 1およびフレームバッファ 1 2 2、 1 2 3に接続されている。 ビデオゲーム機のキャラクタを表すポリゴンの描画デ 一夕はメイン C PU 1 0 1から S CU 1 0 0を介して VD P 1 2 0に送られ、 V RAM I 2 1に書き込まれる。 VRAM 1 2 1に書き込まれた描画データは、 例 えば、 1 6または 8 ビッ ト pixelの形式で描画用のフレームバッファ 1 2 2また は 1 2 3に描画される。 描画されたフレームバッファ 1 2 2または 1 2 3のデー 夕は VD P 1 3 0に送られる。 描画を制御する情報は、 メイン C P U 1 0 1から S CU 1 0 0を介して VD P 1 2 0に与えられる。 そして、 V D P 1 2 0は、 こ の指示に従い描画処理を実行する。
VD P 1 3 0は VRAM 1 3 1 に接続され、 VDP 1 3 0から出力された画像 データはメモリ 1 3 2を介してエンコーダ 1 6 0に出力される構成となっている。 エンコーダ 1 6 0は、 この画像デ一夕に同期信号等を付加することにより映像信 号を生成し、 TV受像機 5に出力する。 これにより、 TV受像機 5に野球ゲーム の画面が表示される。
サウンドブロック 1 2は、 P CM方式あるいは FM方式に従い音声合成を行う D S P 1 4 0と、 この D S P 1 4 0の制御等を行う C PU 1 4 1 とにより構成さ れている。 D S P 1 4 0により生成された音声データは、 DZAコンバータ 1 7 0により 2チャンネルの信号に変換された後にスピーカ 5 bに出力される。
サブシステム 1 3は、 CD— R OMドライブ l b、 CD I ZF 1 8 0、 C PU
1 8 1、 MP E G AUD I 01 8 2、 MP E G V I D E0 1 8 3等により構 成されている。 このサブシステム 1 3は、 C D— ROMの形態で供給されるアブ リケーシヨ ンソフトの読み込み、 動画の再生等を行う機能を備えている。 CD— ROMドライブ 1 bは CD— ROMからデータを読み取るものである。 C PU 1 8 1は、 C D— ROMドライブ 1 bの制御、 読み取られたデータの誤り訂正等の 処理を行うものである。 C D— R OMから読み取られたデータは、 CD I ZF 1 8 0、 ノ ス 1 0 6、 S C U 1 0 0を介してメイン C P U 1 0 1 に供給され、 ァプ リケ一シヨンソフトとして利用される。 また、 MP E G AUD I 01 8 2、 M P EG V I D E0 1 8 3は、 MP E G規格 (Motion Picture Expert Groug) に より圧縮されたデータを復元するデバイスである。 これらの MP E G AUD I
01 8 2、 MP EG V I D E O 1 8 3を用いて C D _ R OMに書き込まれた M P E G圧縮データの復元を行うことにより、 動画の再生を行うことが可能となる。 続いて、 本実施例に係る画像処理装置の構成を説明する。 図 3は、 メイン C P U 1 0 1 , RAM 1 0 2 , R O M 1 0 3等により構成される画像処理装置の機能 ブロック図である。 この図において、 仮想領域生成手段 3 1は、 ポール (第 1画 像) の移動方向に対して前方位置にコリジョ ンエリア (仮想領域) を生成する機 能を備えたものである。 位置判断手段 3 4はポールの速度および高さ (位置) を 判断し、 判断結果を仮想領域生成手段 3 1に与えるものである。 判定手段 3 2は コリジョンエリァと野手との位置関係を判定し、 判定結果を画像変更手段 3 3に 与える構成となっている。 画像変更手段 3 3は、 判定手段 3 2による判定結果 (コリジョンエリアおよび野手の位置関係) に基づき野手 (第 2画像) の姿勢を 変更するものである。 すなわち、 コリジョンエリア内に野手が入ると、 野手は捕 球動作を行う。
図 4は、 本実施例に係るビデオゲーム機によって表示される野球ゲームの画面 の一例を示している。 この野球ゲームは、 1人または 2人で実行可能なものであ る。 すなわち、 遊戯者が 2人いる場合には 2人の遊戯者が守備および攻擊を交互 に行い、 遊戯者が 1人のみの場合には遊戯者はコンピュータ (ビデオゲーム機) を対戦相手として守備および攻撃を交互に行う。 ディスプレイ 5上には、 ゲーム 進行に合わせた場面が 3次元グラフィ ックスとして表示される。 投球持において はバッターの背後から見た場面が表示されるが、 打撃直後は同図に示されるよう に野手を中心とした場面が表示される。
野手 J, Kは、 P A D 2 bの操作によって移動させることが可能である。 すな わち、 遊戯者が P A D 2 bを操作すると、 メイン C P U 1 0 1はポール 4 2の飛 行方向に位置する野手 J、 Kのうち、 先ず内野側に位置する野手 J を移動させる。 そして、 野手 Jがボールを取り損ねた場合には、 メイン C P U 1 0 1は P A D 2 bの操作に応じて次に外野側の野手 Kを移動させる。 このようにして、 簡単な操 作によって複数の野手を移動させることが可能となる。
打者 4 1がボールを打つと同時に、 メイン C P U 1 0 1はポール 4 2の速度お よび方向を算出し、 これらの算出結果からポール 4 2の落下予想地点 4 4を算出 する。 なお、 この落下予想地点 4 4は、 実際に画面上に表示される。 ポール 4 2 の落下持までに、 野手 J または Kを落下予想地点 4 4の近傍に移動した場合には、 野手 J または Kはフライを捕ることができる。
ポール 4 2の飛行方向 (前方) におけるグランド (基準平面画像) 上には仮想 的なコリジョンエリア 4 3が位置している。 このコリジョンエリア 4 3は、 ポー ル 4 2 と野手との衝突 (コリジョン) 判定に際して使用されるものであり、 実際 に表示されるものではない。 野手 Jまたは Kがコリジョンエリァ 4 3内に移動し た場合には、 野手 J または Kはポール 4 2を捕球することが可能である。 一方、 野手 J または Kがコリジョンエリア 4 3の範囲外に位置する限り、 野手 J または Kは捕球動作を行わない。
このコリジョンエリアを図 5〜図 9を参照しながら詳述する。 図 5は、 コリジ ヨンエリア、 ポール、 野手のそれぞれの位置関係を説明するための図である。 こ の図に示されるように、 コリジョ ンエリア 4 3は、 ボール 4 2から所定距離だけ 前方に離れたグランド上に位置している。 すなわち、 コリジョンエリア 4 3は、 ポール 4 3の飛行に従い、 ポール 4 3の前方のグランド上を移動する。 コリジョ ンエリア 4 3とポール 4 2との距離は、 1 2インタラプトの時間にポール 4 2が 進む距離に相当する。
なお、 本実施例にあっては、 1 フレーム (垂直帰線周期期間 l/60msecX 2=33.
3 msec) 毎にィンタラブトが発生することから、 1 2インタラプトの時間は約 0.
4 secとなる。 また、 野手】、 Kの姿勢は、 1インタラプト ( 1 フレーム) 毎に変 化するため、 1 2ィンタラブトの時間に野手は 1 2コマ分の動作を行うことが可 能である。 例えば、 図 6に示されるように、 コリジョンエリア 4 3内に入った野 手 Jが捕球動作を開始してから捕球を完了するまでに、 野手 Jは体の向きをポー ルに向けながら 1 2コマ分の動作を実行することができる。 したがって、 野手の 捕球動作を滑らかに表示することが可能となる。
図 7は、 コリジョンエリア 4 3および捕球姿勢を説明するための図である。 こ の図に示されるように、 コリジョンエリア 4 3は、 エリア A, B !, B2, C 1, C 2により構成されており、 各エリア A, B a, B2, C i, C2には野手の捕球姿勢 7 1 ~ 7 5が対応付けられている。 例えば、 野手がエリア Aに入った場合には、 ポ —ルは野手の正面に来るので、 野手の捕球時の姿勢は捕球姿勢 7 3のようになる。 野手がエリア に入った場合には、 ポールは野手の左側に来る (ボールはエリア Aを通過する) ので、 野手の捕球姿勢は捕球姿勢 7 1のようになる。 なお、 同図 に示された捕球姿勢 7 1〜 7 5は、 ポールの高さが低い場合におけるものであり、 ボールの高さに応じた捕球姿勢が選択される。
図 8は、 コリジョ ンエリアの上面図である。 上述したように、 コリジョンエリ ァ 43は、 エリア A, B a, B 2, C 1 , C2により構成されている。 最も中心のェ リア Aはポールの飛行経路下に位置し、 円形をなしている。 そして、 エリア Aの 外側には、 それぞれ扇型をなすエリア B B2, C a, C2が順に設けられている。 エリア B1; B 2, C 1, C2は、 ポールの溥度が遅くなるに従い、 順に消滅するも のである。 例えば、 ポールがグラウンドにバウンドし、 ボールの速度が低下した ような場合には、 エリア C i, C 2が先ず消滅する。
さらに、 ボールの速度が低下すると、 エリア B 1 ; B 2が消滅し、 エリア Aのみ が残存する。 現実の野球において、 ポールが止まりそうな場合に野手がポールに 飛びつく (図 7の捕球姿勢 7 1、 7 5を参照) ことは通常あり得ない。 したがつ て、 ポールの速度に応じてコリジョンエリア 4 3の大きさを適宜変更することに より、 画面上の野手の動作を現実の野手の動作に近づけることが可能となる。 また、 エリア B , B 2の有効角度 0 b、 エリア( C 2の有効角度 0 cも同様に ボールの速度等によって変化する。 例えば、 ポールの速度が速い場合には、 ポー ルの通過位置に野手を素早く移動させなければならない。 このとき、 コリジョン エリア 4 3の面積が狭い場合には、 ポールを捕球するのが極めて困難となってし まう。 そこで、 このような場合には、 有効角度 0 b、 0 Cを大きくし、 コリジョン エリア 4 3の面積を広げることによって、 ポールが高速である場合における捕球 の困難さを軽減している。
図 9は、 ポールの移動に伴うコリジョンエリア 4 3の形状の変化の様子を表し ている。 ポールが打たれた後、 停止するまでに、 コリジョ ンエリア 4 3は位置
( a ) 〜 (d ) を順に通過する。 位置(a ) は、 打撃直後のコリジョンエリアの位 置を示している。 上述したように、 ポールが高速である場合においては、 捕球の 困難さを軽減するために有効角度 0 b、 0 Cを大きくしている。 そして、 ポールの 速度が低下すると、 有効角度 0 b、 0 cは小さくなり、 コリジョ ンエリア 4 3の面 積は減少する (位置 (b ) ) 。
さらに、 ポールがその速度を減少させながら位置 ( c ) に到達すると、 コリジ ヨンエリア 4 3のエリア C C 2は消滅する。 ポールが停止する直前 (位置 (d ) ) には、 コリジョンエリア 4 3のエリア B B 2は消滅する。 このとこのコリジョ ンエリア 4 3は円形のエリア Aのみとなるため、 野手はポールに対して全方向か ら捕球を行うことができる。 このように、 ボールの速度に伴いコリジョンエリア 4 3の形状を変化させることにより、 本物らしい野手の捕球動作を再現すること が可能となる。
図 1 0は、 コリジョンエリア上の野手の位置およびポールの高さに応じた野手 の捕球姿勢を表す図である。 この図において、 縦軸はポールの高さを示し、 横軸 はコリジョ ンエリア上の野手の位置を示している。 捕球姿勢 1 1 1 〜 1 1 3はジ ヤンプしながら捕球を行う野手を表し、 捕球姿勢 1 1 4はフライを捕る野手を表 している。 さらに、 捕球姿勢 1 1 5 ~ 1 1 9は野手の胸の高さにおいて捕球する 野手を表し、 捕球姿勢 1 2 0〜 1 2 4はゴロを捕る野手を表している。 また、 捕 球姿勢 1 2 5は、 正面に飛びつきながら捕球する野手を表している。 これらの捕 球姿勢のうち、 捕球姿勢 1 1 5、 1 1 9、 1 2 0、 1 2 4は移動しながら捕球を 行うものである。
また、 コリジョンエリア上の野手の位置に応じた捕球姿勢が選択される。 例え ば、 野手がエリア Aに位置し、 かつ、 ボールが高い位置にある場合 (フライ) に は、 グラブを上に揚げた捕球姿勢 1 1 4が表示される。 また、 野手がエリア に 位置し、 かつ、 ポールが野手の胸の高さに位置する場合には、 グラブを左側に差 し出した捕球姿勢 1 1 5が表示される。 このように、 コリジョンエリア上の野手 の位置、 および、 ポールの高さに応じて野手の捕球姿勢を変更することにより、 現実感溢れる野球ゲームを提供することができる。
I I . 作用
続いて、 図 1 1、 図 1 2に示されたフローチャートを参照しながら、 本実施例 に係る画像位置判定装置の作用を説明する。
図 1 1は画像処理を用いたビデオゲーム機の作用を表すフローチャートである。 このフローチャートは、 ポールがバッターによって打たれたことを条件として、 1インタラプト ( 1 フレーム) 毎に実行されるものである。 先ず、 位置判断手段 3 4は、 打撃直後のポールの移動方向、 角度、 速度を判断する (S l ) 。 そして、 仮想領域生成手段 3 1は、 ポールの速度に基づき、 コリジョンエリア 4 3の形状 (大きさ、 有効角度) を決定する。 例えば、 打撃直後において、 ポールの速度が 速い場合には、 コリジョンエリア 4 3のエリア B , B 2の有効角度 0い エリア C 1 , C 2の有効角度 0 cを大きくする (図 8、 図 9 ) 。 このようにして、 決定された コリジョンエリア 4 3は、 ポールから所定距離だけ前方に離れたグランド上に位 置している。 コリジョンエリア 4 3とポールとの距離は、 1 2インタラプトの時 間にポール 4 2が進む距離に相当する。 なお、 コリジョンエリア 4 3は、 実際は 画面上に表示されない。 仮想領域生成手段 3 1 は、 コリジョ ンエリア 4 3のエリア A, B 1 , B2, C i, C2に野手の捕球姿勢を対応付ける (S 2) 。 例えば、 図 1 0に示されるように、 エリア Aに対しては、 野手の正面で捕球を行う捕球姿勢が対応付けられ、 エリア B!, B2, Ci, C2のそれぞれに対しては、 野手の側方で捕球を行う捕球姿勢が 対応付けられる。
続いて、 判定手段 3 2は、 全員の野手の中からポールを捕球する可能性のある (ポールに近い位置にある) 野手を選び出し、 この野手とコリジョ ンエリア 4 3 の中心位置との距離 Dを算出する (S 3 ) 。 例えば、 図 1 において、 野手 Jが選 択された場合には、 野手 J とコリジョ ンエリア 4 3の中心位置との距離 Dが算出 される。 そして、 距離 Dがコリジョンエリア 4 3の最大半径よりも大きい場合、 ずなわち、 野手 Jがコリジョ ンエリア 4 3の外側に位置している場合 (5 4で丫 E S) には、 判定手段 3 2は S 1 0の処理を実行する。
S 1 0において、 判定手段 3 2は、 野手 J以外にポールを捕球する可能性のあ る野手が存在するか否かを判断する。 野手 J以外にポールを捕球する可能性のあ る野手 Kが存在する場合 ( S 1 0で NO) には、 野手 Kに処理対象を移行する (S 9 ) 。 そして、 野手 Kについて、 上述した S 3, S 4の処理を実行する。 こ の結果、 野手 Kとコリジョンエリア 4 3の中心位置との距離 Dが、 コリジョンェ リア 4 3の最大サイズよりも大きいと判断された場合には、 さらに S 1 0が実行 される。 S 1 0において、 野手 J , K以外にポールを捕球する可能性のある野手 が存在しないと、 判定手段 3 2が判断した場合 (S 1 0で YE S) には、 本フロ 一チャートの処理を終了し、 図示されていないメインフローチャートに戻る。 この後、 1フレーム毎にインタラプトが発生し、 上述した図 1 0のフローチヤ 一卜が繰り返し実行される。 ボールが打たれてから所定時間経過することによつ て、 ポールは移動し、 ポールの速度および高さ等も変化する。 ポール位置判断手 段 34は、 このときのポールの移動方向、 角度、 速度を判断し (S l ) 、 仮想領 域生成手段 3 1は、 ポールの速度に基づき、 コリジョンエリア 4 3の形状 (大き さ、 有効角度) を改めて決定する。 例えば、 ポールの速度が遅くなつた場合には、 コリジョンエリア 4 3の有効角度 Θ b、 有効角度 0 cは小さくなる。
遊戯者が PAD 2 bを操作し、 遊戯者 Jがコリジョンエリア 4 3の中に入った とする。 すると、 ステップ S 4の判断結果は NOとなり、 S 5以降の処理が実行 される。 判定手段 3 2は、 距離 Dがエリア Aの半径 A rよりも小さいか否か、 す なわち、 野手 Jがエリア A内に位置するか否かを判断する (S 5 ) 。 判断の結果 が NOである場合には、 判定手段 3 2は、 距離 Dがエリア Bi, B2の半径 B rよ りも小さいか否かを判断する (S 6 ) 。 さらに、 判断の結果が NOである場合に は、 距離 Dがエリア(: C2の半径 C rよりも小さいか否かを判断する (S 7 ) 。 すなわち、 判定手段 3 2は、 S 5〜 S 7において野手 Jがコリジョ ンエリア 4 3 のいずれのエリァに位置するかを判断する。
例えば、 野手 Jがエリア B に位置すると判定手段 3 2が判断した場合 (S 6で YE S ) には、 S 8のサブルーチンが実行される。
S 8のサブルーチンを図 1 2に示す。 ステップ S 8 1において、 画像変更手段 3 3は、 コリジョンエリア 4 3の中心点と野手 J とのなす角度を算出する。 そし て、 画像変更手段 3 3は、 算出された角度に対応する捕球姿勢が定義されている か否かを判断する (S 8 2) 。 捕球姿勢が定義されていない場合 ( S 8 2で NO) には、 処理が次の野手に移行された後 (S 8 6) 、 図 1 1のメインフローチヤ一 卜に戻る。 例えば、 野手 Jがコリジョ ンエリア 4 3の左側 (エリア Bi側) に入つ た場合には、 図 1 0中の捕球姿勢 1 1 5が定義されているので (S 8 2で YE S) 、 S 8 3以降の処理が実行される。
画像変更手段 3 3は、 PAD (またはスティック) 2 bの情報、 野手の向き、 ボールの高さ等に基づき、 正確な捕球姿勢を決定する (S 8 3 ) 。 そして、 この ようにして決定された捕球姿勢が存在しない場合 (S 84で NO) には、 処理を 次の野手、 例えば野手 Kに移した後 (S 8 6 ) 、 図 1 1のメインフローチャート に戻る。 一方、 S 8 3において決定された捕球姿勢が存在する場合 (5 8 4で丫 E S) には、 画面上の野手 J の姿勢を捕球姿勢に変更し ( S 8 5 ) 、 図 1 1のメ インフローチャートに戻った後に処理を終了する。 このようにして、 捕球を行う 野手が決定された後は、 図 1 2のサブルーチンは実行されず、 図示されていない 姿勢変更処理が 1インタラプト毎に実行される。 この姿勢変更処理によって野手 J の姿勢は 1フレーム毎に除々に変化する。 そして、 野手 Jが捕球動作を開始し てから 1 2ィンタラブト後に、 野手 Jのグラブにボールが入る。 したがって、 本実施例によれば、 野手がコリジョンエリア 4 3に入ってから、 1 2インタラプト ( 1 2フレーム) 分の動作を野手に行わせることができるため, 本物に近い捕球動作を再現することが可能となる。 また、 コリジョンエリア 4 3 上における野手の位置に応じて捕球姿勢を変更することにより、 現実感溢れる捕 球動作を実現することができる。
(第 2実施例)
第 2実施例に係るビデオゲーム機は、 上述した第 1実施例に係るビデオゲーム 機に対して背番号の表示に関する機能が付加されたものである。 以下、 この機能 を、 図 1 3、 図 1 4を参照しながら説明する。
図 1 4は、 選手の上半身を表すポリゴンのデータ構造を説明するための図であ る。 この図において、 ユニフォームは 4つポリゴングループ 1 4 A、 1 4 B、 1 4 C、 1 4 Dによって構成されている。 各ポリゴングループは、 ユニフォームの —部を表すポリゴンおよび背番号の一部を表すポリゴンによって構成されている。 すなわち、 ポリゴン 1 4 Aは、 4分割されたユニフォームの一部を表すポリゴン 1 40 1、 および、 4分割された背番号の一部を表すポリゴン 1 4 1 1によって 構成されている。 同様に、 ポリゴングループ 1 4 Bはポリゴン 1 4 0 2、 1 4 1 2によって構成され、 ポリゴングループ 1 4 Cはポリゴン 1 4 0 3、 1 4 1 3に よって構成されている。 また、' ポリゴングループ 1 4 Dはポリゴン 1 4 0 4、 1 1 4によって構成されている。
ポリゴングループ 1 4 A、 1 4 B、 1 4 C、 1 4 Dのそれぞれについて、 ポリ ゴンの記述順位 (優先順位) が設定されている。 例えば、 ポリゴングループ 1 4 Aにおいては、 ユニフォームのポリゴン 1 4 0 1、 背番号のポリゴン 1 4 1 1の 順に記述順位が定められている。 また、 ポリゴングループ 1 4 A、. 1 4 B、 1 4 C, 1 4 Dのそれぞれの中で最も記述順位の高いポリゴンが各ポリゴングループ を代表するポリゴンとして選ばれている。 すなわち、 ユニフォームを表示するポ リゴン 1 4 0 1、 1 4 0 2、 1 4 0 3、 1 4 04がポリゴングループ 1 4 A、 1 4 B、 1 4 C、 1 4 Dを代表するポリゴンとしてそれぞれ選択される。
このように構成されたポリゴンデータの表示手順を図 1 3を参照しながら説明 する。 同図の (A) に示されるように、 ユニフォームを表すポリゴン 1 4 0 1〜 1 40 4、 背番号を表すポリゴン 1 4 1 1〜 1 4 1 4は 3次元座標系における座 標によって表されている。 メイン C P U 1 0 1 (図 2 ) は、 この 3次元座標系に 対する座標変換を行ない、 同図の (B) に示す 2次元座標系を生成する。 座標変 換は、 ポリゴン 1 4 0 1 ~ 1 4 0 4、 1 4 1 1〜: 1 4 1 4の各頂点の座標を 2次 元座標系に投影することによって行われる。
そして、 メイン C PU 1 0 1は、 ポリゴングループ 1 4 A、 1 4 B、 1 4 C、 1 4 Dのそれぞれを代表するポリゴン 1 4 0 1、 1 4 0 2、 1 4 0 3、 1 4 0 4、 および、 他のポリゴン (野手の胸、 腕等を表すポリゴン) についての優先順位を 判断する。 例えば、 野手が正面を向いている (胸が画面側を向いている) 場合に は、 背中は胸の裏側に位置する。 すなわち、 ポリゴングループ 1 4 A、 1 4 B、 1 4 C, 1 4 Dのそれぞれを代表するポリゴン 1 4 0 1、 1 4 0 2、 1 4 0 3、 1 40 4の Z座標値は胸を表すポリゴンの Z座標値よりも大きくなる。 したがつ て、 この場合にはポリゴングループ 1 4 A、 1 4 B、 1 4 C、 1 4 D全体が表示 されなくなる (背中は胸の裏側に隠れる) 。
一方、 野手が画面に対して後ろ向きである場合には、 ポリゴングループ 1 4 A、 1 4 B、 1 4 C, 1 4 Dのそれぞれを代表するポリゴン 1 40 1、 1 4 0 2、 1 4 0 3、 1 4 0 4の Z座標値は胸を表すポリゴンの Z座標値よりも小さくなる。 この場合にはポリゴングループ 1 4 A、 1 4 B、 1 4 C、 1 4 Dは胸のポリゴン に優先して表示される。 ポリゴングループ 1 4 A、 1 4 B、 1 4 C、 1 4 Dのそ れぞれにおいては、 予め定められた記述順位に従ってポリゴンが表示される。 例 えば、 ポリゴングループ 1 4 Aにおいては、 ユニフォームを表すポリゴン 1 4 0 1 に重ねて背番号を表すポリゴン 1 4 1 1が上書きされる。 すなわち、 同一ポリ ゴングループ内においては、 各ポリゴンの Z座標値の比較 (Zソート) は行われ ず、 予め定められた記述順位に従ってポリゴンが表示される。
上述したように、 同一のポリゴングループ内においては、 各ポリゴンの Z座標 値同士の比較は行われず、 予め定められた記述順位に従ってポリゴンが表示され る。 したがって、 ユニフォームおよびポリゴンのように、 2つのポリゴンが密着 しているような場合であっても、 正確な隠面処理を行うことが可能となる。 例え ば、 請求項 1 0記載の発明に示されるように、 ユニフォームを表すポリゴンおよ び背番号を表すポリゴンを正確に表示することができる。 また、 ポリゴングルー プの表示順位は、 最も記述順位の高いポリゴンの Z座標値に基づき決定されるた め、 本実施例に係る隠面処理と zソ一ト法との互換性を確保することが可能とな る。
なお、 本実施例はユニフォーム上の背番号の表示に限定されることなく、 競技 用自動車上の番号等に適用することも可能である。
(第 3実施例)
本実施例に係るビデオゲーム機は上述した第 1実施例に係るビデオゲーム機に 以下の機能が付加されたものである。 図 1 5を參照しながら本発明の第 3実施例 に係るビデオゲーム機を説明する。
図 1 5は、 画面上における球場 1 5 0 0の外観図である。 セカンドベースの後 方には仮想的な中心点 1 5 0 2が設定され、 この中心点 1 5 0 2に対して半径 R、 角度 0の円弧が外野フェンス 1 5 0 1 として表示されている。 また、 この図にお いて、 符号 1 5 0 3はバッタ一によって打たれたポールを示している。 メイン C P U 1 0 1は、 中心点 1 5 0 2からポール 1 5 0 3までの距離 rを算出するとと もに、 図中の角度 φが角度 0の範囲にあるか否かを判断する。 これら 2つの条件 に加えて、 ボール 1 5 0 3の高さが外野フエンス 1 5 0 1の高さ以下である条件 が満たされた場合には、 メイン C P U 1 0 1は、 ボール 1 5 0 3が外野フェンス 1 5 0 1に衝突したと判断する。 そして、 メイン C P U 1 0 1は、 ポール 1 5 0 3を外野フェンス 1 5 0 1から跳ね返す処理を行い、 ディスプレイ 5上に跳ね返 されたポールが映し出される。
本実施例によれば、 距離 r等の演算のみによってポールと外野フェンスとの衝 突判定を行うことができ、 ポリゴン同士の複雑な衝突判定処理を行う必要がない。 このため、 ポールと外野フェンスとの衝突を容易に判定することが可能となる。 (他の実施例)
本発明は以上の実施例に限定されることなく、 本発明の趣旨を逸脱しない範囲 において変形実施可能である。 例えば、 野球ゲームのみならずサッカーゲーム、 テニスゲーム等に本発明を適用してもよい。 産業上の利用可能性
以上説明してきたように、 本発明によれば以下の効果を得ることが可能である。 第 1 に、 円滑な捕球動作を表示することが可能となる。 本発明においては、 ポ ール (第 1画像) から所定距離だけ離れた位置に、 コリジョンエリア (仮想領域) が生成される。 そして、 判定手段は、 コリジョンエリアに野手 (第 2画像) が位 置するか否かを判定し、 野手が仮想領域に位置すると判定された場合には、 画像 変更手段は野手の姿勢 (形状) を変更する。 例えば、 野手がコリジョンエリアに 入ると、 野手の姿勢は待機時の状態から捕球時の状態へと除々に変化する。 この 後、 ボールが野手に到達した際には、 野手の姿勢は捕球時の状態になっている。 本発明によれば、 衝突判定用のコリジョンエリアはポールから離れた位置にある ため、 野手がコリジョンエリァに入ってからポールが野手に到達するまでの時間 を長くすることができる。 したがって、 野手が捕球動作を開始してから捕球を完 了するまでの時間 (野手の姿勢変化のための時間) を十分に確保することができ、 円滑な捕球動作を実現することが可能となる。
また、 野手の捕球姿勢は、 コリジョンエリア上における野手の位置に応じて変 更される。 例えば、 野手がコリジョンエリアの中央に位置する場合には、 野手が 前向きで捕球する動作を表示し、 野手がコリジョ ンエリアの端部に位置する場合 には、 野手が横向きで捕球する動作を表示することができる。 これによつて、 現 実感溢れる捕球動作を表示することが可能となる。
さらに、 ポールの速度および位置 (高さ) に応じてコリジョ ンエリアの形状を 変更することによつても、 本物に近い捕球動作を再現することができる。 例えば、 ポールの位置がグランド (基準平面画像) に対して高い場合には, フライを捕球 する野手が表示され、 ボールの位置が低い場合には、 ゴロを捕球する野手が表示 される。
第 2に、 打球とフェンスとの衝突判定を簡易な演算により行うことが可能とな るる。 本発明においては、 中心点から半径 Rのフェンス (曲面画像) が想定され、 ポールから中心点までの距離 rが適宜算出される。 そして、 距離 rが距離 Rに達 した場合には、 ポールがフェンスに衝突したと判定することによって、 衝突判定 処理を容易に行うことが可能である。 第 3に、 互いに密着したポリゴンの隠面処理を正確に行うことが可能となる。 本発明によれば、 同一のポリゴングループ内においては、 各ポリゴンの Z座標値 同士の比較は行われず、 予め定められた記述順位に従ってポリゴンが表示される。 したがって、 ユニフォームおよびポリゴンのように、 2つのポリゴンが密着して いるような場合であっても、 正確な隠面処理を行うことが可能となる。 また、 ポ リゴングループの表示順位は、 他のポリゴンの表示順位と同様に、 Zソート法等 のアルゴリズムによって決定されるため、 本発明に係る隠面処理と従来の隠面処 理 (例えば Zソート法) との互換性を確保することが可能となる。
なお、 前記 R O M 1 0 3は既述の記録媒体に相当するものであり、 ゲーム装置 本体に据え付けられている場合ばかりでなく、 装置外部より、 新たにゲーム装置 本体に接続 ·適用されることも当然にできる。

Claims

請 求 の 範 囲
1 . 第 1画像および第 2画像が衝突することを判定した場合に、 第 2画像の形状 を変更する画像処理装置において、
第 1画像から、 所定時間内に第 1画像が移動し得る距離だけ離れた位置に、 仮 想領域を生成する仮想領域生成手段と、
仮想領域に第 2画像が位置するか否かを判定する判定手段と、
第 2画像が仮想領域に位置すると判定された場合には、 第 2画像の形状を変更 する画像変更手段とを備えた画像処理装置。
2 . 第 1画像の移動速度および位置を判断する位置判断手段を備え、 上記仮想領 域生成手段は、 位置判断手段による判断結果に基づき上記仮想領域の形状を変更 する請求項 1記載の画像処理装置。
3 . 上記仮想領域生成手段は、 上記第 1画像の速度の低下に伴い、 上記仮想領域 の面積を減少させる請求項 2記載の画像処理装置。
4 . 上記仮想領域は、 上記第 1画像の移動方向に対して直角方向に延出した形状 をなす請求項 1乃至請求項 3のいずれか一項記載の画像処理装置。
5 . 上記画像変更手段は、 上記仮想領域上における第 1画像の位置に対応した形 状の第 2画像を生成する請求項 1記載の画像処理装置。
6 . 上記画像変更手段は、 基準平面画像に対する上記第 1画像の高さに対応した 形状の第 2画像を生成する請求項 1記載の画像処理装置。
7 . 上記第 1画像は野球のポールを表し、 上記第 2画像は野球の野手を表すとと もに、 上記画像変更手段は捕球動作に応じて野手の姿勢を除々に変更する請求項 1乃至請求項 6のいずれか一項記載の画像処理装置。
8 . 3次元座標系で表された複数のポリゴンを 2次元座標系に投影する座標変換 手段と、
2次元座標系に投影された上記複数のポリゴン同士の表示順位を、 表示画面に 対して上記 3次元座標系の奥行き方向の座標値の大小に基づき決定するとともに、 この表示順位に従いポリゴンを優先的に表示する隠面処理手段とを備えた画像処 理装置において、
上記隠面処理手段は、 記述順位が予め定められた複数のポリゴンよりなるポリ ゴングループの表示順位を当該ポリゴングループを構成する一のポリゴンの上記 奥行き方向の座標値に基づき決定するとともに、
当該ポリゴングループを表示すると決定した場合に限り、 当該ポリゴングルー プを構成するそれぞれのポリゴンを上記記述順位に基づき優先的に表示する画像 処理装置。
9 . 上記隠面処理手段は、 上記記述順位の最も高いポリゴンの奥行き方向座標値 に基づき上記ポリゴングループの表示順位を決定する請求項 8記載の画像処理装 m
1 0 . 上記一のポリゴンは背番号を表し、 上記他のポリゴンはユニフォームを表 す請求項 8記載の画像処理装置。
1 1 . 中心点から半径 Rの曲面画像と第 1画像との衝突判定を行う画像処理装置 において、
上記中心点から第 1画像までの距離 rを算出し、 距離 rが距離 Rに達した場合 には、 第 1画像が曲面画像に衝突したと判定する画像処理装置。
1 2 . 上記曲面画像は野球のフェンスを表し、 上記第 1画像はポールを表す請求 項 1 1記載の画像処理装置。
1 3 . 第 1画像および第 2画像が衝突することを判定した場合に、 第 2画像の形 状を変更する画像処理方法において、
第 1画像から、 所定時間内に第 1画像が移動し得る距離だけ離れた位置に、 仮 想領域を生成し、
仮想領域に第 2画像が位置するか否かを判定し、
第 2画像が仮想領域に位置すると判定された場合には、 第 2画像の形状を変更 する画像処理方法。
1 4 . 上記第 1画像の移動速度および位置を判断し、
この移動速度および位置に基づき上記仮想領域の形状を変更する請求項 1 2記 載の画像処理方法。
1 5 . 3次元座標系で表された複数のポリゴンを 2次元座標系に投影し、
2次元座標系に投影された上記複数のポリゴン同士の表示順位を、 表示画面に 対する上記 3次元座標系の奥行き方向の座標値の大小に基づき決定するとともに、 この表示順位に従いポリゴンを優先的に表示する画像処理方法において、
記述順位が予め定められた複数のポリゴンよりなるポリゴングループの表示順 位を当該ポリゴングループを構成する一のポリゴンの上記奥行き方向の座標値に 基づき決定するとともに、
当該ポリゴングループを表示すると決定した場合に限り、 当該ポリゴングルー プを構成するそれぞれのポリゴンを上記記述順位に基づき優先的に表示する画像 処理方法。
1 6 . 中心点から半径 Rの曲面画像と第 1画像との衝突判定を行う画像処理方法 において、
上記中心点から第 1画像までの距離 rを算出し、 距離! "が距離 Rに達した場合 には、 第 1画像が曲面画像に衝突したと判定する画像処理方法。
1 7 . 請求項 1 3乃至 1 6のいずれかに記載の方法を処理装置に実行させる手順 が記憶された記憶媒体。
PCT/JP1996/001249 1995-05-11 1996-05-10 Appareil de traitement d'images et procede associe WO1996036017A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE69631945T DE69631945T2 (de) 1995-05-11 1996-05-10 Bildverarbeitungsgerät und-verfahren
EP96913729A EP0778547B1 (en) 1995-05-11 1996-05-10 Image processing apparatus and image processing method
US08/765,254 US6102801A (en) 1995-05-11 1996-05-10 Picture processing device and method thereof
BR9606387A BR9606387A (pt) 1995-05-11 1996-05-10 Dispositívo de processamento de imagem e seu método
HK98114222A HK1014066A1 (en) 1995-05-11 1998-12-21 Image processing apparatus and image processing method.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP7/113461 1995-05-11
JP11346195A JP3239683B2 (ja) 1995-05-11 1995-05-11 画像処理装置および画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/566,631 Division US6558257B1 (en) 1995-05-11 2000-05-08 Imaging processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO1996036017A1 true WO1996036017A1 (fr) 1996-11-14

Family

ID=14612832

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1996/001249 WO1996036017A1 (fr) 1995-05-11 1996-05-10 Appareil de traitement d'images et procede associe

Country Status (9)

Country Link
US (2) US6102801A (ja)
EP (1) EP0778547B1 (ja)
JP (1) JP3239683B2 (ja)
KR (1) KR100404692B1 (ja)
CN (2) CN1093299C (ja)
BR (1) BR9606387A (ja)
DE (1) DE69631945T2 (ja)
HK (1) HK1014066A1 (ja)
WO (1) WO1996036017A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7148894B1 (en) 1999-06-17 2006-12-12 Namco Bandai Games Inc. Image generation system and program

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3861928B2 (ja) * 1997-04-03 2006-12-27 株式会社セガ・エンタープライゼス ゲームの画像表示方法及び制御方法
JPH1157212A (ja) * 1997-08-24 1999-03-02 Sony Computer Entertainment:Kk ゲーム装置、ゲーム機用操作装置、ゲームシステム及びゲーム装置の双方向通信方法
US6776717B2 (en) 1997-08-24 2004-08-17 Sony Computer Entertainment, Inc. Game apparatus, game machine manipulation device, game system and interactive communication method for game apparatus
TW389918B (en) 1997-08-24 2000-05-11 Sony Computer Entertainment Inc Game apparatus, game machine manipulation device, game system and interactive communication method for game apparatus
JP4042926B2 (ja) * 1997-11-07 2008-02-06 株式会社バンダイナムコゲームス 画像生成装置及び情報記憶媒体
JP4114824B2 (ja) * 1998-04-24 2008-07-09 株式会社バンダイナムコゲームス 画像生成装置及び情報記憶媒体
JP3765453B2 (ja) * 1998-04-27 2006-04-12 株式会社ハドソン 3dcgアニメーションの画像表示方法及びその装置並びにプログラムを記録した記録媒体
JP3771394B2 (ja) * 1999-05-13 2006-04-26 コナミ株式会社 対戦ビデオゲーム装置およびゲーム処理プログラムが記録された可読記録媒体
JP3249492B2 (ja) * 1999-06-30 2002-01-21 株式会社スクウェア コンピュータ読み取り可能な記録媒体、ゲームの制御方法およびゲーム装置
JP2001092988A (ja) * 1999-09-20 2001-04-06 Namco Ltd スポット光源表示装置
JP4319302B2 (ja) * 1999-10-20 2009-08-26 株式会社バンダイナムコゲームス ゲーム装置およびキャラクタ動作設定方法
US6273818B1 (en) * 1999-10-25 2001-08-14 Square Co., Ltd. Video game apparatus and method and storage medium
JP2001162048A (ja) * 1999-12-14 2001-06-19 Namco Ltd スポーツゲーム装置及びスポーツゲームのプレー制御方法
US7252588B2 (en) 1999-12-01 2007-08-07 Namco Bandai Games Inc. Sport video game machine and play control method of sport video game
US6461237B1 (en) * 2000-01-28 2002-10-08 Square Co., Ltd. Computer readable program product storing program for ball-playing type game, said program, and ball-playing type game processing apparatus and method
US6503144B1 (en) 2000-01-28 2003-01-07 Square Co., Ltd. Computer readable program product storing program for ball-playing type game, said program, and ball-playing type game processing apparatus and method
JP3372243B2 (ja) * 2000-01-28 2003-01-27 株式会社スクウェア 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体、球技系ゲーム処理装置およびその方法
JP2002052242A (ja) * 2000-01-28 2002-02-19 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP2001321566A (ja) * 2000-05-12 2001-11-20 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP2001321567A (ja) * 2000-05-15 2001-11-20 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP4465643B2 (ja) * 2000-05-17 2010-05-19 株式会社セガ 画像処理装置、電子遊戯装置及びテレビゲーム機用記憶媒体
JP2001327758A (ja) * 2000-05-19 2001-11-27 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP3433380B2 (ja) * 2000-06-07 2003-08-04 株式会社スクウェア・エニックス 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体、球技系ゲーム処理装置およびその方法
JP2002058867A (ja) * 2000-06-07 2002-02-26 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP2002058868A (ja) * 2000-06-07 2002-02-26 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP2002200333A (ja) 2000-11-01 2002-07-16 Sony Computer Entertainment Inc 記録媒体、プログラム、プログラム実行システムおよびプログラム実行装置
GB2381758A (en) * 2001-11-12 2003-05-14 Nokia Corp Electronic ball game
JP2002177638A (ja) * 2001-12-07 2002-06-25 Sony Computer Entertainment Inc ゲーム機本体、ゲーム機用操作装置、ゲームシステム、ゲーム機本体の双方向通信方法、ゲームシステムのプログラムが記憶されている記憶媒体
JP3927821B2 (ja) * 2002-01-25 2007-06-13 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP3534345B1 (ja) * 2002-10-22 2004-06-07 コナミ株式会社 ゲームプログラム及びゲーム装置
JP4330412B2 (ja) * 2003-09-25 2009-09-16 株式会社ディンプス ゲーム装置及びコンピュータを機能させるためのプログラム
US8187094B2 (en) * 2004-09-22 2012-05-29 Sega Corporation Game program
JP3868450B2 (ja) * 2005-01-31 2007-01-17 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
JP4335160B2 (ja) * 2005-03-02 2009-09-30 任天堂株式会社 衝突判定プログラムおよび衝突判定装置
JP3947549B2 (ja) * 2005-12-26 2007-07-25 株式会社コナミデジタルエンタテインメント ビデオゲームプログラム、ビデオゲーム装置及びビデオゲーム制御方法
JP3979540B2 (ja) 2005-12-28 2007-09-19 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、ゲームシステム、ゲームシステムの制御方法及びプログラム
JP4719579B2 (ja) * 2006-01-26 2011-07-06 任天堂株式会社 画像処理プログラムおよび画像処理装置
JP5031261B2 (ja) 2006-05-09 2012-09-19 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP4164101B2 (ja) * 2006-05-24 2008-10-08 株式会社コナミデジタルエンタテインメント ゲームプログラム、ゲーム装置及びゲーム制御方法
JP4589936B2 (ja) * 2007-03-28 2010-12-01 株式会社コナミデジタルエンタテインメント ゲームプログラム、ゲーム装置及びゲーム制御方法
JP5192779B2 (ja) * 2007-11-02 2013-05-08 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法及びプログラム
TWI366143B (en) * 2007-11-28 2012-06-11 Inst Information Industry System, method and recording medium for generating response motions of a virtual character dynamically in real time
JP4775773B2 (ja) * 2008-04-28 2011-09-21 株式会社バンダイナムコゲームス スポーツゲーム装置
JP2008183439A (ja) * 2008-04-28 2008-08-14 Namco Bandai Games Inc スポーツゲーム装置及びスポーツゲームのプレー制御方法
JP4775779B2 (ja) * 2009-03-27 2011-09-21 株式会社バンダイナムコゲームス スポーツゲーム装置
JP5011370B2 (ja) * 2009-12-15 2012-08-29 株式会社コナミデジタルエンタテインメント データ再現プログラム、データ再現装置、データ再現方法
CN102693739A (zh) * 2011-03-24 2012-09-26 腾讯科技(深圳)有限公司 视频片段生成方法及系统
JP5552469B2 (ja) * 2011-09-27 2014-07-16 株式会社コナミデジタルエンタテインメント ゲーム装置、及びプログラム
USD890803S1 (en) * 2018-03-02 2020-07-21 Chromaviso A/S Display panel or screen with graphical user interface
USD888087S1 (en) * 2018-03-02 2020-06-23 Chromaviso A/S Display panel or screen with a graphical user interface
JP6656572B1 (ja) * 2019-08-29 2020-03-04 株式会社Sally127 情報処理装置、表示制御方法および表示制御プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6426981A (en) * 1987-07-23 1989-01-30 Toshiba Corp Recognizing method for collision of objects
JPH01193974A (ja) * 1988-01-29 1989-08-03 Hitachi Ltd 動画像生成方法及び装置
JPH0434664A (ja) * 1990-05-31 1992-02-05 Sanyo Electric Co Ltd 衝突回避制御システム
JPH04245587A (ja) * 1990-09-03 1992-09-02 Philips Gloeilampenfab:Nv 情報担体と読取・書込ユニットを具えた情報交換用システム
JPH07114654A (ja) * 1993-10-15 1995-05-02 Sony Corp 描画データ作成装置及び描画データ作成方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58121091A (ja) * 1982-01-14 1983-07-19 池上通信機株式会社 立体感表示方式
JPS60118982A (ja) * 1983-11-15 1985-06-26 モトローラ・インコーポレーテツド ビデオ表示用信号発生装置において複数の同時可視物体の一つの画像比を変更するシステムとその方法
US4672541A (en) * 1984-05-31 1987-06-09 Coleco Industries, Inc. Video game with interactive enlarged play action inserts
US4905147A (en) * 1986-10-15 1990-02-27 Logg George E Collision detection system for video system
US4895376A (en) * 1988-06-17 1990-01-23 Tigers Electronics, Inc. Interactive video game
US5150899A (en) * 1990-01-26 1992-09-29 Konami Co., Ltd. Hand held video game with simulated rescue
DE69212149D1 (de) * 1991-03-21 1996-08-14 Atari Games Corp Fahrtsimulator mit überkreuzter netzwerkrückkoppelung
US5411272A (en) * 1992-11-20 1995-05-02 Sega Of America, Inc. Video game with spiral loop graphics
JPH06337918A (ja) * 1993-05-28 1994-12-06 Hudson Soft Co Ltd 不定形キャラクタ接触判定方法
JP3550733B2 (ja) * 1994-06-27 2004-08-04 株式会社ノーリツ 風呂追い焚き運転装置
JPH1193974A (ja) * 1997-09-24 1999-04-06 Mitsubishi Motors Corp 車両の変速機制御装置
JP4034664B2 (ja) * 2003-02-18 2008-01-16 株式会社Ihi 防水シート接合装置及び接合方法
JP4245587B2 (ja) * 2005-06-22 2009-03-25 シャープ株式会社 動き補償予測方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6426981A (en) * 1987-07-23 1989-01-30 Toshiba Corp Recognizing method for collision of objects
JPH01193974A (ja) * 1988-01-29 1989-08-03 Hitachi Ltd 動画像生成方法及び装置
JPH0434664A (ja) * 1990-05-31 1992-02-05 Sanyo Electric Co Ltd 衝突回避制御システム
JPH04245587A (ja) * 1990-09-03 1992-09-02 Philips Gloeilampenfab:Nv 情報担体と読取・書込ユニットを具えた情報交換用システム
JPH07114654A (ja) * 1993-10-15 1995-05-02 Sony Corp 描画データ作成装置及び描画データ作成方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7148894B1 (en) 1999-06-17 2006-12-12 Namco Bandai Games Inc. Image generation system and program

Also Published As

Publication number Publication date
EP0778547A4 (en) 1999-02-03
CN1423238A (zh) 2003-06-11
KR100404692B1 (ko) 2004-02-05
BR9606387A (pt) 1997-12-30
CN1423238B (zh) 2010-05-26
JP3239683B2 (ja) 2001-12-17
CN1093299C (zh) 2002-10-23
CN1154170A (zh) 1997-07-09
JPH08305891A (ja) 1996-11-22
DE69631945T2 (de) 2005-04-21
US6558257B1 (en) 2003-05-06
EP0778547A1 (en) 1997-06-11
KR970705102A (ko) 1997-09-06
HK1014066A1 (en) 1999-09-17
DE69631945D1 (de) 2004-04-29
US6102801A (en) 2000-08-15
EP0778547B1 (en) 2004-03-24

Similar Documents

Publication Publication Date Title
JP3239683B2 (ja) 画像処理装置および画像処理方法
EP0842682B9 (en) Image processor for games
US6394894B1 (en) Game device, collision determination method and information storing medium
JP3709491B2 (ja) 画像処理方法及びゲーム装置
JP3927821B2 (ja) プログラム、情報記憶媒体及びゲーム装置
JP3433380B2 (ja) 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体、球技系ゲーム処理装置およびその方法
JP2002058868A (ja) 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP4801854B2 (ja) プログラム、情報記憶媒体、および、ゲーム装置
JP2009000383A (ja) プログラム、情報記憶媒体及び画像生成システム
US6461237B1 (en) Computer readable program product storing program for ball-playing type game, said program, and ball-playing type game processing apparatus and method
JP3386803B2 (ja) 画像処理プログラム、画像処理プログラムを記憶したコンピュータ読み取り可能な記憶媒体、画像処理方法、及び画像処理装置
US20010044333A1 (en) Video game device, play result display method of video game, and readable recording medium where play result display method program is recorded
JP2010115244A (ja) ゲーム画像表示制御プログラム、ゲーム装置及びゲーム画像表示制御方法
JP4129651B2 (ja) 画像処理装置、ゲーム装置、画像処理方法および記録媒体
JPH11179052A (ja) ビデオゲーム装置、ビデオゲームにおける予測ガイド表示方法及び予測ガイド表示プログラムが記録された記録媒体
JP2002058867A (ja) 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
JP3594181B2 (ja) ゲーム装置及び当該ゲーム制御方法、記録媒体
JP3533393B1 (ja) ゲームプログラム、情報記憶媒体及びゲーム装置
JP4950394B2 (ja) プログラム、情報記憶媒体、および、ゲーム装置
JP3687558B2 (ja) 画像処理装置および画像処理方法
JP5117474B2 (ja) ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
JP2002200348A (ja) 野球ゲームの制御方法、記録媒体及びゲーム装置
JP2003030685A (ja) 画像処理装置および画像処理方法
JP4097235B2 (ja) 画像生成装置及び情報記憶媒体
JP2002052242A (ja) 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 96190478.X

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): BR CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE ES FR GB IT

WWE Wipo information: entry into national phase

Ref document number: 1019970700179

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 1996913729

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 08765254

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1996913729

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019970700179

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019970700179

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1996913729

Country of ref document: EP

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载