+

WO2017065065A1 - 映像生成システム、制御装置および加工装置 - Google Patents

映像生成システム、制御装置および加工装置 Download PDF

Info

Publication number
WO2017065065A1
WO2017065065A1 PCT/JP2016/079576 JP2016079576W WO2017065065A1 WO 2017065065 A1 WO2017065065 A1 WO 2017065065A1 JP 2016079576 W JP2016079576 W JP 2016079576W WO 2017065065 A1 WO2017065065 A1 WO 2017065065A1
Authority
WO
WIPO (PCT)
Prior art keywords
game
video
content
data
live
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/079576
Other languages
English (en)
French (fr)
Inventor
洋介 野口
宗平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Games Co Ltd filed Critical Sega Games Co Ltd
Priority to EP16855319.6A priority Critical patent/EP3363511B1/en
Publication of WO2017065065A1 publication Critical patent/WO2017065065A1/ja
Priority to US15/941,737 priority patent/US20180221762A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/27Output arrangements for video game devices characterised by a large display in a public venue, e.g. in a movie theatre, stadium or game arena
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/352Details of game servers involving special game server arrangements, e.g. regional servers connected to a national server or a plurality of servers managing partitions of the game world
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5372Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for tagging characters, objects or locations in the game scene, e.g. displaying a circle under the character controlled by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/63Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by the player, e.g. authoring using a level editor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players

Definitions

  • the present invention relates to a video generation system, a control device, and a processing device.
  • events such as competitions may be held for the purpose of promoting new games or interacting with game fans.
  • a game screen in which a game is actually played is displayed on a large monitor or the like, and commentary is often provided by commentators.
  • JP 2002-239225 A Japanese Patent Laid-Open No. 11-253659
  • game images are usually displayed on large monitors as they are at events, and commentators provide useful information as the game progresses in real time. There was a limit to commenting on the actual situation. For this reason, there was a case where the event did not rise and the purpose of the event could not be fully achieved.
  • the present invention has been proposed in view of the above-described conventional problems, and the object of the present invention is to allow various information along with the progress of the game to be added to the game video and displayed as live contents, The goal is to improve the quality of commentary at the event.
  • a game device that outputs a game image and game data indicating a game state according to the progress of the game, the game data is received, and is converted into a predetermined format.
  • a processing device for processing, a generation device for acquiring processed or unprocessed game data from the processing device, and generating content to be combined with the game video, and displaying a video in which the content is combined with the game video A display device.
  • various information in accordance with the progress of the game can be added to the game video and displayed as the live content, and the quality of the live commentary at the event can be improved.
  • FIG. 1 It is a figure which shows the structural example of the video generation system concerning one Embodiment of this invention. It is a figure which shows the function structural example of a game machine, a real condition controller, a video system workstation, and a portable terminal. It is a sequence diagram which shows the process example of embodiment. It is a figure which shows the example of a game image
  • FIG. 1 is a diagram showing a configuration example of a video generation system according to an embodiment of the present invention, which is constructed in an amusement facility such as a game center.
  • the game machine 2 includes various game machines such as a commercial game machine, a home game machine, a personal computer (running a game application), and a terminal (a game game provided with a live video display / replay playback recording function of a game) Equipment) and the like.
  • one or more video cameras 3 (3X, 3Y,%) That shoot the state of each player 1 who is playing the game are provided.
  • one or more vital measurement devices 4 (4X, 4Y,...) That measure vital data (various biological information such as heart rate and pulse) from each player 1 are provided.
  • the vital measuring device 4 it may be a device that handles other data.
  • one or more portable terminals 5 such as a tablet, a smartphone, a PC (Personal Computer), a digitizing pad, etc. that collect vital data from the vital measurement device 4 and process data such as graphs with an application compatible with the vital data measurement device. 5X, 5Y, ...) are provided.
  • the video output port (V: Video) of the game machine 2 is connected to the input port of the video switcher 6, and the audio output port (A: Audio) of the game machine 2 is connected to the input port of the audio switcher 8.
  • the output port of the video camera 3 is connected to the input port of the video dividing / combining device 7, and the output port of the video dividing / combining device 7 is connected to the input port of the video switcher 6.
  • the video output port of the portable terminal 5 (outputting the graphed vital data video or the like) is connected to the input port of the video switcher 6.
  • the video switcher 6 outputs a video signal selected from video signals input to a plurality of input ports.
  • the video divider / synthesizer 7 divides and synthesizes video signals input to a plurality of input ports into, for example, a plurality of tile-shaped areas, and outputs the synthesized video signals.
  • the voice switcher 8 outputs a voice signal selected from voice signals input to a plurality of input ports.
  • the data communication port of the game machine 2 and the data communication port of the portable terminal 5 are connected to a network 9 such as a LAN (Local Area Network).
  • the connection may be wired or wireless.
  • the video system workstation 13 described later the vital data or the like is transmitted via the live controller 12.
  • Data processing such as graphing can be performed in (input).
  • a live controller 12 and a video system workstation 13 which are computer devices operated by an operator 10 (which can also be used by the commentator 11) are provided, and the data communication ports of the live controller 12 and the video system workstation 13 are as follows.
  • the video system workstation 13 includes a production monitor used for content production work and an on-air monitor for confirming the final output video from the video system workstation 13.
  • a portable terminal 14 such as a tablet, a smartphone, a PC, a digitizing pad, or the like operated by the commentator 11 is provided, and a data communication port of the portable terminal 14 is connected to the network 9.
  • one or more microphones 15 for picking up the voice of the commentator 11 and one or more video cameras 16 for photographing the scenery of the venue are provided.
  • the video output port of the video system workstation 13 and the output port of the video camera 16 are connected to the input port of the video switcher 17.
  • the video switcher 17 has a function of synthesizing video in addition to a function of outputting a video signal selected from video signals input to a plurality of input ports.
  • the video system workstation 13 synthesizes the game video of the game machine 2 and the content image. By performing the synthesis up to the video system workstation 13, a dedicated device for the synthesis is not necessary. However, it is possible to perform composition in the video switcher 17 without performing composition in the video system workstation 13. As a result, the processing load on the video system workstation 13 can be reduced. In this case, the video output port of the game machine 2 is connected to the input port of the video switcher 17 as indicated by a broken line.
  • the output port of the audio switcher 8, the audio output port of the video system workstation 13, and the output port of the microphone 15 are connected to the input port of the audio mixer 18.
  • the audio mixer 18 mixes (mixes) audio signals input to a plurality of input ports.
  • one or more large monitors 19 such as a liquid crystal panel are provided, and a video signal is supplied from the output port of the video switcher 17.
  • the large monitor 19 is composed of a large liquid crystal panel or projector.
  • the large monitor 19 may be provided with a touch panel.
  • the operation signal of the touch panel is connected to the input port of the video system workstation 13 as indicated by a broken line.
  • the commentator 11 can operate the video from the touch panel of the large monitor 19 instead of the mobile terminal 14 or in combination with the mobile terminal 14.
  • one or more speakers 20 are provided, and an audio signal is supplied from the output port of the audio mixer 18.
  • a video stream distribution device 21 for performing video stream distribution via the Internet or the like is provided, and video signals and audio signals are supplied as sources from the output ports of the video switcher 17 and the audio mixer 18.
  • the video switcher 6, the audio switcher 8, the video switcher 17, and the audio mixer 18 are arranged at positions that can be directly operated by the operator 10, or can be operated remotely by the operator 10. ing.
  • FIG. 2 is a diagram illustrating a functional configuration example of the game machine 2, the actual condition controller 12, the video system workstation 13, and the mobile terminal 14.
  • the game machine 2 includes a game processing unit 201, a game video output unit 202, a game sound output unit 203, and a game data output unit 204.
  • the game processing unit 201 has a function of progressing the game in accordance with the operation of the player 1.
  • the game video output unit 202 has a function of outputting a game video.
  • the game sound output unit 203 has a function of outputting game sound.
  • the game data output unit 204 has a function of outputting various game data indicating the game state. If the game program of the target game has a function of outputting predetermined game data necessary for commentary on the actual situation at the event, the function can be used as it is.
  • a function for selectively extracting and outputting predetermined game data is added to the game program.
  • game data operation input information by the player 1, various in-game scores, position coordinates and states of in-game objects and characters, game progress and results, player names of players, game play results, and save data are stored.
  • ID card various save data information of each player linked to the player ID.
  • the actual condition controller 12 includes a synchronous game machine selection unit 121, a game data synchronization unit 122, a game data processing unit 123, and a game data transmission unit 124.
  • the synchronized game machine selection unit 121 has a function of accepting selection about the game machine 2 to be synchronized from the operator 10 and setting it as a synchronization object.
  • “synchronization” refers to continuously acquiring game data in real time from the game machine 2 that outputs the game video that is the subject of the commentary on the actual condition by the actual condition controller 12.
  • the game data synchronization unit 122 has a function of continuously acquiring game data output from the game data output unit 204 of the game machine 2.
  • the game data processing unit 123 has a function of processing the game data acquired by the game data synchronization unit 122 into a data format that can be handled by the video system workstation 13 in the subsequent stage. For example, in the case of a digital trading card game, the in-game data ID of the card is processed (converted) into card illustration image file path information, card name text, and text describing card effects in the live controller 12. Further, when a race game is targeted, the in-game data ID of the race car is converted into image file path information and car model name text in the live controller 12. Note that game data in a data format that does not require processing (for example, coordinate data) may not be processed.
  • the game data transmission unit 124 has a function of transmitting game data processed or not processed by the game data processing unit 123 to the video system workstation 13. Note that the transmission of game data from the game data transmission unit 124 is automatically performed based on the acquisition of game data from the game machine 2 (synchronous transmission), and a request is individually received from the video system workstation 13. (Individual transmission). The individual transmission is performed, for example, when the commentator 11 operates a user interface such as a button provided by the video system workstation 13 to acquire game data that is not included in the synchronous transmission. With such a configuration, variations of live contents are increased.
  • the video system workstation 13 includes a content production unit 131, a game video synchronization unit 132, a game data acquisition unit 133, a live screen generation unit 134, a live screen synthesis unit 135, a video output unit 136, an audio output unit 137, and an operation unit. 138.
  • the content production unit 131 has a function of producing in advance live content to be synthesized (superimposed) on a game video using various authoring applications.
  • the live content includes various buttons and menus.
  • 3D data, 2D data, text data, video clips, and the like are used as the material for live contents.
  • the game video synchronization unit 132 has a function of inputting a game video from the game machine 2 to be synchronized via the video switcher 6 (using a video input / output board function). As described above, when the video system workstation 13 does not combine the game video and the display content, the game video synchronization unit 132 can be omitted.
  • the game data acquisition unit 133 has a function of acquiring game data from the game data transmission unit 124 of the live situation controller 12. As described above, the game data may be acquired by synchronous transmission or individual transmission.
  • the live screen generating unit 134 has a function of generating a live screen including live content based on the game data acquired by the game data acquiring unit 133.
  • the live screen composition unit 135 has a function of combining (superimposing) the live screen generated by the game data obtaining unit 133 on the game image input by the game video synchronization unit 132. As described above, when the video system workstation 13 does not synthesize the game video and the display content, the live screen synthesis unit 135 can be omitted.
  • the video output unit 136 transmits, to the video switcher 17, the video of the live screen generated by the live screen generating unit 134 when the video signal combined by the live screen combining unit 135 is not combined. It has a function.
  • the audio output unit 137 has a function of outputting an audio signal such as a sound effect linked to the operation of the live content to the audio mixer 18.
  • the operation unit 138 provides a user interface for the operator 10 to operate functions in the video system workstation 13 and has a function of controlling each unit in the video system workstation 13 according to the operation.
  • the portable terminal 14 provides the commentator 11 with a screen in which the live content can be operated in the same manner as the video synthesized by the video system workstation 13, and responds according to the operation of the live content by the commentator 11.
  • the video system workstation 13 has an operation unit 141 for notifying operation input.
  • the operation is performed by a tap operation with a finger or a stylus pen.
  • the fact that the content for actual use is operable means, for example, that the content of the button can be tapped, and the process corresponding to the button is activated by the tap operation of the button.
  • the screen displayed on the mobile terminal 14 is also displayed on the operation unit 138 of the video system workstation 13, and the operation unit 138 can perform operations on the live content in the same manner as the mobile terminal 14.
  • the game machine 2 the live state controller 12, the video system workstation 13, and the mobile terminal 14 are a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), which are the main components of a general computer device. ), NVRAM (Non-Volatile Random Access Memory), HDD (Hard Disk Drive), SSD (Solid State Drive) / flash memory, and the like.
  • the above function is realized by executing a predetermined program in the CPU.
  • the program may be acquired via a recording medium, may be acquired via a network, or may be embedded in a ROM.
  • FIG. 3 is a sequence diagram showing a processing example of the above embodiment.
  • the video system workstation 13 inputs a game video from the game machine 2 (step S101), captures the game video synchronously (step S102), and includes effective live contents while referring to the game video.
  • a live screen is produced (step S103).
  • the live contents include commentary contents by text, contents by 3D display and 2D display, and contents by video clip.
  • various display contents buttons used by the commentator for operation, various graphs of game data, Various interfaces and display objects for displaying game data, various interfaces and display objects that determine the display position in synchronization with the game data coordinates, and various interfaces and display objects that set the game screen and coordinate position to set the area , Buttons, etc.
  • designs, animation behavior, and synchronization settings with various programs including designs, animation behavior, and synchronization settings with various programs.
  • FIG. 4 shows an example of a game image in the case of a digital trading card game.
  • FIG. 5 shows an example of a content production screen in the video system workstation 13.
  • a frame F1 for displaying a list of content production materials (plug-ins, media, etc.)
  • a frame F2 for displaying a combination of selected materials
  • a frame F3 for setting display
  • a game image And a frame F4 for displaying a state where the content for use is arranged.
  • the video system workstation 13 inputs a game video from the game machine 2 (step S111), and captures the game video in synchronization (step S112).
  • the actual condition controller 12 receives the selection of the synchronous game machine from the operator 10 and sets the synchronization target (step S113).
  • FIG. 6 shows an example of a user interface screen for selecting a synchronous game machine in the live controller 12, and a selection is made by selecting a game machine (specifying the game machine by the logged-in user) from the list L1.
  • a frame F5 indicating information of the user of the game machine that has been played, a frame F6 indicating information of the opponent, and the like are displayed.
  • step S114 when game data is transmitted from the game machine 2 set as the synchronization target (step S114), the live controller 12 acquires and synchronizes the game data (step S115).
  • the actual condition controller 12 processes the game data as necessary (step S116).
  • the in-game data ID of the card is converted into card illustration image file path information in the live controller 12, card name text, and text describing the card effect. There is no need to process the coordinates of the character or object.
  • the live state controller 12 transmits processed or unprocessed game data to the video system workstation 13 (step S117), and the video system workstation 13 acquires and synchronizes the game data (step S118).
  • the video system workstation 13 reflects the game data on the live content produced in advance to generate a live screen (step S119).
  • the acquired game data is displayed at a predetermined location in various display contents
  • the image or video is displayed in association with an image file or video file based on the file path information of the game data, or the position coordinates
  • the position of various display contents is synchronized based on the display.
  • the video from the video cameras 3 and 16 may be combined with the display content.
  • FIG. 7 shows an example of the live screen.
  • the live content C1 including a plurality of buttons is displayed at the lower left of the screen, and the live content C2 indicating the history is displayed from the center to the lower right of the screen.
  • live content consisting of transparent buttons on the screen.
  • live contents C3 with transparent buttons that accept the selection of each of the seven cards displayed in the lower center of the screen of FIG.
  • the video system workstation 13 synthesizes the game video continuously input from the game machine 2 and the generated live screen (step S120), and the synthesized video on the large screen 19 is displayed. (Step S121), and the large monitor 19 displays an image (Step S122).
  • FIG. 8 shows an example of the displayed video, in which a live screen (FIG. 7) including live content is synthesized with the game video.
  • the video switcher 17 can perform the synthesis without performing the synthesis at the video system workstation 13.
  • an audio signal (game audio, commentator's voice, sound effect of live content, etc.) is provided to the speaker 20 in parallel, and audio is output.
  • step S131 when the commentator 11 performs an operation (for example, a button tapping operation, an input operation using a dedicated controller or a dedicated remote controller) on the mobile terminal 14 by the commentator 11 (step S131), the mobile terminal 14 An operation input is notified to the video system workstation 13 (step S132). Upon receiving this, the video system workstation 13 makes a request for game data to the live controller 12 when determining that the game data currently held in the process activated for the operation cannot be handled. (Step S133).
  • an operation for example, a button tapping operation, an input operation using a dedicated controller or a dedicated remote controller
  • the live controller 12 transmits processed or unprocessed game data to the video system workstation 13 (step S134), and the video system workstation 13 acquires and synchronizes the game data (step S135). Then, the video system workstation 13 generates a live screen by reflecting the game data on the live content produced in advance (step S136), and synthesizes the game video and the live screen (step S137). The video system workstation 13 outputs the synthesized screen image to the large monitor 19 (step S138), and the large monitor 19 displays the image (step S139).
  • FIG. 9 is a diagram showing examples of content data and game data.
  • a table T1 in which a button ID, a type (usually transparent, etc.), a coordinate range (a range on the screen in which an operation on the button is effective), a processing ID, and the like are associated, a processing ID, a processing content, and the like.
  • An associated table T2 is held.
  • the buttons corresponding to the button IDs of the table T1 are provided corresponding to each of the seven cards displayed at the lower center of the screen of FIG.
  • the coordinate range is set corresponding to the outline of each card.
  • the processing content of the table T2 specified by the processing ID is to display information on the cards arranged under the buttons.
  • the cards arranged under the buttons differ depending on the progress of the game, and there may be no corresponding card.
  • a table T3 in which a card ID, a coordinate range, card information, and the like are associated is held as game data.
  • the coordinate range indicates the position on the screen when the card specified by the card ID is arranged on the screen.
  • FIG. 10 shows an example of a live screen on which live content C4 of card information is displayed
  • FIG. 11 shows a state after being combined with a game video.
  • the commentator 11 can explain the actual situation while appropriately displaying the detailed information of the card held by the player 1, and can provide a meaningful explanation with persuasive power.
  • FIG. 12 shows an example of an operation screen of the live controller 12.
  • the card information of the selected card is transmitted to the video system workstation 13. Is done.
  • the commentator 11 taps a “card display” button (for example, a button containing the title of “card display” at the lower left of the screen in FIG. 8), so that a plurality of display candidate cards can be selected.
  • the card information is displayed on the screen as additional live content.
  • FIG. 13 shows a state after the live content C5 of the card information is combined with the game video.
  • curd currently used for the player 1 is also included in the some display candidate card
  • the commentator 11 can explain the actual situation while displaying detailed information on the cards not used by the player 1 as appropriate, and can make a meaningful explanation with persuasive power.
  • FIG. 14 is a diagram showing an example of content data and game data.
  • a table T4 in which a button ID, a type (usually transparent, etc.), a coordinate range (a range on the screen in which an operation on the button is valid), a processing ID, and the like are associated, a processing ID, a processing content, and the like.
  • the associated table T5 is held.
  • the processing content specified by the processing ID is to compare and display the player's and opponent's decks.
  • the player IDs of the player and the opponent are held in the table T6.
  • a table T7 in which the player ID and the deck information are associated with each other is held.
  • FIG. 15 shows an example of a live screen on which deck content live content C6 and C7 are displayed
  • FIG. 16 shows a state after being combined with a game video.
  • the commentator 11 can explain the actual situation while comparing and displaying the deck information of both players in the battle, and can make a meaningful explanation with persuasive power.
  • all the configurations in FIG. 1 may not be in the same facility (game center, event venue, etc.).
  • at least one of devices that perform game event live state control such as the live state controller 12, the video system workstation 13, the mobile terminal 14, and the moving image stream distribution device 21, may be installed in another facility.
  • the game video is transmitted from the game machine 2 installed in each facility to the above-described game event live-control device via the network 9.
  • the game data received from the game machine 2 is used to provide a reproduction device (such as the same game machine as the facility side) for reproducing the game video, or a function for reproducing the game video on the video system workstation 13 itself. You may make it produce
  • the live image generated in this manner is distributed from the video stream distribution device 21 to each facility, but without providing a reproduction device for reproducing the game video, the live image data before being synthesized with the game video is obtained.
  • An apparatus is provided for synthesizing a live image and a game video that are distributed from the video stream distribution device 21 to each facility and received in the facility, and is synthesized with the game video output from the game machine 2 and displayed on the large monitor 19. It may be.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

ゲームの進行に沿った各種の情報を実況用コンテンツとしてゲーム映像に付加して表示できるようにし、イベントにおける実況解説の質を向上させる。 ゲームの進行に応じてゲーム映像とゲームの状態を示すゲームデータとを出力するゲーム装置と、前記ゲームデータを受信し、所定の形式に加工する加工装置と、前記加工装置から加工済または未加工のゲームデータを取得し、前記ゲーム映像と合成されるコンテンツを生成する生成装置と、前記ゲーム映像に前記コンテンツが合成された映像を表示する表示装置とを備える。

Description

映像生成システム、制御装置および加工装置
 本発明は、映像生成システム、制御装置および加工装置に関する。
 ゲームセンター等のアミューズメント施設やイベント会場等においては、新作ゲームのプロモーションやゲームファンの交流等を目的に、大会等のイベントが開催される場合がある。このようなイベントでは、実際にゲームプレイが行われているゲーム画面が大型モニタ等に表示され、解説者による実況解説が行われることが多い。
 また、イベントを対象としたものではないが、ギャラリー(見物人)も楽しめるように、ゲームの実況中継の音声を自動的に生成する技術が開示されている(例えば、特許文献1、2等を参照)。
特開2002-239225号公報 特開平11-253659号公報
 上述したように、従来、イベントにおいてはゲーム映像がそのまま大型モニタ等に表示されるのが一般的であり、リアルタイムに変化していくゲームの進行に沿って解説者が有用な情報を提供して実況解説を行うのには限界があった。そのため、イベントが今ひとつ盛り上がらず、イベントの目的を充分に達せられない場合があった。
 本発明は上記の従来の問題点に鑑み提案されたものであり、その目的とするところは、ゲームの進行に沿った各種の情報を実況用コンテンツとしてゲーム映像に付加して表示できるようにし、イベントにおける実況解説の質を向上させることにある。
 上記の課題を解決するため、本発明にあっては、ゲームの進行に応じてゲーム映像とゲームの状態を示すゲームデータとを出力するゲーム装置と、前記ゲームデータを受信し、所定の形式に加工する加工装置と、前記加工装置から加工済または未加工のゲームデータを取得し、前記ゲーム映像と合成されるコンテンツを生成する生成装置と、前記ゲーム映像に前記コンテンツが合成された映像を表示する表示装置とを備える。
 本発明にあっては、ゲームの進行に沿った各種の情報を実況用コンテンツとしてゲーム映像に付加して表示できるようにし、イベントにおける実況解説の質を向上させることができる。
本発明の一実施形態にかかる映像生成システムの構成例を示す図である。 ゲーム機、実況コントローラ、映像システムワークステーションおよび携帯端末の機能構成例を示す図である。 実施形態の処理例を示すシーケンス図である。 ゲーム映像の例を示す図である。 コンテンツ制作画面の例を示す図である。 実況コントローラの画面例を示す図である。 実況用表示コンテンツの例を示す図である。 ゲーム映像に実況用表示コンテンツを合成した画面例を示す図である。 コンテンツデータとゲームデータの例を示す図である。 実況用表示コンテンツの例を示す図である。 ゲーム映像に実況用表示コンテンツを合成した画面例を示す図である。 実況コントローラから映像システムワークステーションにカード情報を送信する操作画面の例を示す図である。 ゲーム映像に実況用表示コンテンツを合成した画面例を示す図である。 コンテンツデータとゲームデータの例を示す図である。 実況用表示コンテンツの例を示す図である。 ゲーム映像に実況用表示コンテンツを合成した画面例を示す図である。
 以下、本発明の好適な実施形態につき説明する。
 <構成>
 図1は本発明の一実施形態にかかる映像生成システムの構成例を示す図であり、ゲームセンター等のアミューズメント施設等に構築されるものである。
 図1において、1人以上のプレイヤ1(1X、1Y、・・)がそれぞれ操作する1台以上のゲーム機2(2X、2Y、・・)が設けられている。ゲーム機2には、業務用ゲーム機、家庭用ゲーム機、パーソナルコンピュータ(ゲームアプリが稼働)等の各種のゲーム機器や、ターミナル(ゲームのライブ映像表示・リプレイ再生録画機能を備えた業務用ゲーム機器)等が含まれる。
 また、ゲームプレイしている各プレイヤ1の様子を撮影する1台以上のビデオカメラ3(3X、3Y、・・)が設けられている。更に、各プレイヤ1からバイタルデータ(心拍数・脈拍等の各種の生体情報)を計測する1台以上のバイタル計測機器4(4X、4Y、・・)が設けられている。バイタル計測機器4に代え、他のデータを扱う機器としてもよい。また、バイタル計測機器4からバイタルデータを収集し、バイタルデータ計測機器対応アプリケーションによりグラフ化等のデータ加工を行うタブレットやスマートフォンやPC(Personal Computer)やデジタイズパッド等の1台以上の携帯端末5(5X、5Y、・・)が設けられている。
 ゲーム機2の映像出力ポート(V:Video)は映像スイッチャ6の入力ポートに接続され、ゲーム機2の音声出力ポート(A:Audio)は音声スイッチャ8の入力ポートに接続されている。ビデオカメラ3の出力ポートは映像分割・合成器7の入力ポートに接続され、映像分割・合成器7の出力ポートは映像スイッチャ6の入力ポートに接続されている。携帯端末5の映像出力ポート(グラフ化したバイタルデータの映像等が出力)は映像スイッチャ6の入力ポートに接続されている。映像スイッチャ6は、複数の入力ポートに入力された映像信号から選択された映像信号を出力するものである。映像分割・合成器7は、複数の入力ポートに入力された映像信号を、例えば、タイル状の複数の領域に分割して合成し、合成した映像信号を出力するものである。音声スイッチャ8は、複数の入力ポートに入力された音声信号から選択された音声信号を出力するものである。
 また、ゲーム機2のデータ通信ポートと携帯端末5のデータ通信ポートは、LAN(Local Area Network)等のネットワーク9に接続されている。接続は有線でも無線でもよい。携帯端末5からは計測したバイタルデータ等が出力され、携帯端末5からグラフ化したバイタルデータの映像等を出力しない場合に、後述する映像システムワークステーション13(実況コントローラ12を介してバイタルデータ等を入力)においてグラフ化等のデータ加工を行うことができる。バイタルデータを実況用コンテンツとして利用することで、プレイヤの生体状態を反映した実況映像を生成することができる。
 一方、オペレータ10(解説者11が兼用することも可)が操作するコンピュータ装置である実況コントローラ12と映像システムワークステーション13が設けられ、実況コントローラ12と映像システムワークステーション13のデータ通信ポートは、ネットワーク9に接続されている。映像システムワークステーション13は、コンテンツ制作作業に使用する制作用モニタと、映像システムワークステーション13からの最終出力映像を確認するためのオンエア用モニタとを備えている。また、解説者11が操作するタブレットやスマートフォンやPCやデジタイズパッド等の携帯端末14が設けられ、携帯端末14のデータ通信ポートは、ネットワーク9に接続されている。
 また、解説者11の声等を拾う1台以上のマイク15と、会場風景等を撮影する1台以上のビデオカメラ16が設けられている。映像システムワークステーション13の映像出力ポートとビデオカメラ16の出力ポートは映像スイッチャ17の入力ポートに接続されている。映像スイッチャ17は、複数の入力ポートに入力された映像信号から選択された映像信号を出力する機能のほか、映像を合成する機能も有している。後述するように、原則として映像システムワークステーション13においてゲーム機2のゲーム映像とコンテンツ画像を合成するものとしている。映像システムワークステーション13内で合成まで行うことで、合成するための専用装置が不要となる。ただし、映像システムワークステーション13において合成を行わず、映像スイッチャ17において合成を行うことができる。これにより映像システムワークステーション13における処理負荷を低減することができる。この場合、ゲーム機2の映像出力ポートを破線で示すように映像スイッチャ17の入力ポートに接続する。
 また、音声スイッチャ8の出力ポートと映像システムワークステーション13の音声出力ポートとマイク15の出力ポートは音声ミキサ18の入力ポートに接続されている。音声ミキサ18は、複数の入力ポートに入力された音声信号をミキシング(混合)するものである。
 また、液晶パネル等の1台以上の大型モニタ19が設けられており、映像スイッチャ17の出力ポートから映像信号が供給される。大型モニタ19は、大型の液晶パネルやプロジェクタにより構成される。なお、大型モニタ19は、タッチパネルを備える場合もあり、その場合、タッチパネルの操作信号が破線で示すように映像システムワークステーション13の入力ポートに接続される。この場合、解説者11は、携帯端末14に代えて、または、携帯端末14と併用して、大型モニタ19のタッチパネルから映像を操作することができる。
 また、1台以上のスピーカ20が設けられており、音声ミキサ18の出力ポートから音声信号が供給される。更に、インターネット等により動画ストリーム配信を行うための動画ストリーム配信装置21が設けられており、映像スイッチャ17と音声ミキサ18の出力ポートから映像信号と音声信号がソースとして供給される。
 なお、図では示していないが、映像スイッチャ6、音声スイッチャ8、映像スイッチャ17および音声ミキサ18は、オペレータ10により直接に操作できる位置に配置されるか、オペレータ10によりリモートで操作できるようになっている。
 図2はゲーム機2、実況コントローラ12、映像システムワークステーション13および携帯端末14の機能構成例を示す図である。
 図2において、ゲーム機2は、ゲーム処理部201とゲーム映像出力部202とゲーム音声出力部203とゲームデータ出力部204とを備えている。ゲーム処理部201は、プレイヤ1の操作に応じてゲームを進行していく機能を有している。ゲーム映像出力部202は、ゲーム映像を出力する機能を有している。ゲーム音声出力部203は、ゲーム音声を出力する機能を有している。ゲームデータ出力部204は、ゲームの状態を示す各種のゲームデータを出力する機能を有している。対象となるゲームのゲームプログラムがイベントでの実況解説に必要な所定のゲームデータを出力する機能を有している場合は、その機能をそのまま使用することができる。所定のゲームデータを出力する機能を有していない場合は、所定のゲームデータを選択的に抽出して出力する機能をゲームプログラムに追加することになる。ゲームデータとしては、プレイヤ1による操作入力情報、各種のゲーム内得点、ゲーム内オブジェクトやキャラクタ等の位置座標や状態、ゲームの進行状況や実績、プレイヤのプレイヤ名、ゲームプレイ実績、セーブデータを記憶したIDカード内の各種情報(プレイヤIDに紐づいたプレイヤ個々の各種セーブデータ情報)等がある。
 実況コントローラ12は、同期ゲーム機選択部121とゲームデータ同期部122とゲームデータ加工部123とゲームデータ送信部124とを備えている。同期ゲーム機選択部121は、同期の対象となるゲーム機2についての選択をオペレータ10から受け付け、同期対象に設定する機能を有している。ここで、同期とは、実況解説の対象となるゲーム映像を出力するゲーム機2から、実況コントローラ12によりゲームデータをリアルタイムに継続的に取得することをいう。
 ゲームデータ同期部122は、ゲーム機2のゲームデータ出力部204から出力されるゲームデータを継続的に取得する機能を有している。ゲームデータ加工部123は、ゲームデータ同期部122により取得されたゲームデータを、後段の映像システムワークステーション13で扱えるデータ形式に加工する機能を有している。例えば、デジタルトレーディングカードゲームを対象とした場合、カードのゲーム内データIDを実況コントローラ12内のカードイラスト画像ファイルパス情報やカード名テキストやカード効果を記述したテキストに加工(変換)する。また、レースゲームを対象とした場合、レースカーのゲーム内データIDを実況コントローラ12内の画像ファイルパス情報や車種名テキストに変換する。なお、加工を要しないデータ形式のゲームデータ(例えば、座標データ等)については、加工を行わないこともある。
 ゲームデータ送信部124は、ゲームデータ加工部123により加工されたまたは未加工のゲームデータを映像システムワークステーション13に送信する機能を有している。なお、ゲームデータ送信部124からのゲームデータの送信は、ゲーム機2からゲームデータを取得したことに基づいて自動的に行う場合(同期送信)と、映像システムワークステーション13から個別に要求を受けて行う場合(個別送信)とがある。個別送信は、例えば、解説者11が映像システムワークステーション13の提供するボタン等のユーザインタフェースを操作したことで、同期送信に含まれないゲームデータの取得が必要になった場合に行われる。このような構成により、実況用コンテンツのバリエーションが増える。
 映像システムワークステーション13は、コンテンツ制作部131とゲーム映像同期部132とゲームデータ取得部133と実況用画面生成部134と実況用画面合成部135と映像出力部136と音声出力部137と操作部138とを備えている。コンテンツ制作部131は、各種のオーサリング用アプリケーションを用い、ゲーム映像に合成(重畳)させる実況用コンテンツを事前に制作する機能を有している。実況用コンテンツとしては、各種ボタンやメニュー等がある。また、実況用コンテンツの素材として、3Dデータ、2Dデータ、テキストデータ、映像クリップ等が用いられる。
 ゲーム映像同期部132は、同期対象のゲーム機2から映像スイッチャ6を介してゲーム映像を入力(ビデオ入出力ボードの機能を使用して入力)する機能を有している。前述したように、映像システムワークステーション13においてゲーム映像と表示コンテンツとの合成を行わない場合は、ゲーム映像同期部132を省略することができる。ゲームデータ取得部133は、実況コントローラ12のゲームデータ送信部124からゲームデータを取得する機能を有している。ゲームデータの取得は、前述したように、同期送信による場合と個別送信による場合とがある。実況用画面生成部134は、ゲームデータ取得部133により取得したゲームデータに基づいて、実況用コンテンツを含む実況用画面を生成する機能を有している。
 実況用画面合成部135は、ゲーム映像同期部132により入力されたゲーム画像に、ゲームデータ取得部133により生成された実況用画面を合成(重畳)する機能を有している。前述したように、映像システムワークステーション13においてゲーム映像と表示コンテンツとの合成を行わない場合は、実況用画面合成部135を省略することができる。映像出力部136は、実況用画面合成部135による合成された映像信号を、合成が行われない場合は実況用画面生成部134により生成された実況用画面の映像を、映像スイッチャ17に送信する機能を有している。音声出力部137は、実況用コンテンツの操作に連動する効果音等の音声信号を音声ミキサ18に出力する機能を有している。操作部138は、映像システムワークステーション13における機能をオペレータ10が操作するためのユーザインタフェースを提供し、操作に応じて映像システムワークステーション13内の各部を制御する機能を有している。
 携帯端末14は、映像システムワークステーション13により合成された映像と同じで実況用コンテンツが操作可能とされた状態の画面を解説者11に提供し、解説者11による実況用コンテンツへの操作に応じて映像システムワークステーション13に操作入力を通知する操作部141を有している。なお、携帯端末14がタッチパネル機能を備えている場合、操作は指またはスタイラスペン等によるタップ操作等により行われる。また、実況用コンテンツが操作可能とは、例えば、ボタンのコンテンツがタップ操作可能とされており、ボタンのタップ操作によりボタンに対応する処理が発動するということである。なお、携帯端末14に表示される画面は映像システムワークステーション13の操作部138にも表示され、この操作部138からも携帯端末14と同様に実況用コンテンツに対する操作を行うことができる。
 なお、ゲーム機2、実況コントローラ12、映像システムワークステーション13および携帯端末14は、一般的なコンピュータ装置の主要構成であるCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、NVRAM(Non-Volatile Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)/フラッシュメモリ等を備えている。また、上記の機能は、CPUにおいて所定のプログラムが実行されることで実現される。プログラムは、記録媒体を経由して取得されるものでもよいし、ネットワークを経由して取得されるものでもよいし、ROM組込でもよい。
 <動作>
 図3は上記の実施形態の処理例を示すシーケンス図である。図3において、映像システムワークステーション13はゲーム機2からゲーム映像を入力し(ステップS101)、ゲーム映像を同期して取り込み(ステップS102)、ゲーム映像を参照しながら効果的な実況用コンテンツを含んだ実況用画面を制作する(ステップS103)。実況用コンテンツは、テキストによる解説のコンテンツや、3D表示や2D表示によるコンテンツや、ビデオクリップによるコンテンツを含む。より具体的には、映像システムワークステーション13内のソフトウェアを用いて、イベントの実況解説に用いる各種の表示コンテンツ(解説者が操作に使用するためのボタン、ゲームデータを各種のグラフ化したもの、ゲームデータを表示するための各種のインタフェースや表示物、ゲームデータ座標と同期して表示位置を決定する各種のインタフェースや表示物、ゲーム画面と座標位置を合わせ領域を設定した各種のインタフェースや表示物、ボタン等)を、図案やアニメーション挙動、各種のプログラムとの同期設定などを含め制作する。
 図4はデジタルトレーディングカードゲームの場合のゲーム映像の例を示している。また、図5は映像システムワークステーション13におけるコンテンツ制作画面の例を示している。図示の例では、コンテンツ制作の素材(プラグイン、メディア等)の一覧を表示するフレームF1、選択された素材の組み合わせを表示するフレームF2、表示の設定を行うフレームF3、ゲーム映像の上に実況用コンテンツが配置された状態を表示するフレームF4とが含まれている。
 図3に戻り、アミューズメント施設等におけるイベント開催時において、映像システムワークステーション13はゲーム機2からゲーム映像を入力し(ステップS111)、ゲーム映像を同期して取り込む(ステップS112)。
 また、実況コントローラ12は、オペレータ10から同期ゲーム機の選択を受け付けて同期対象の設定を行う(ステップS113)。図6は実況コントローラ12において同期ゲーム機の選択を行うためのユーザインタフェース画面の例を示しており、リストL1からゲーム機(ログインしているユーザでゲーム機を特定)を選択することで、選択されたゲーム機のユーザの情報を示すフレームF5と、対戦相手の情報を示すフレームF6等が表示されている。
 図3に戻り、同期対象に設定されたゲーム機2からゲームデータが送信されると(ステップS114)、実況コントローラ12はゲームデータを取得し、同期させる(ステップS115)。
 次いで、実況コントローラ12はゲームデータを必要に応じて加工する(ステップS116)。前述したように、デジタルトレーディングカードゲームの場合、カードのゲーム内データIDを実況コントローラ12内のカードイラスト画像ファイルパス情報やカード名テキストやカード効果を記述したテキストに変換する。キャラクタやオブジェクトの座標は特に加工を行う必要はない。
 次いで、実況コントローラ12は加工済または未加工のゲームデータを映像システムワークステーション13に送信し(ステップS117)、映像システムワークステーション13はゲームデータを取得し、同期させる(ステップS118)。
 次いで、映像システムワークステーション13は予め制作されている実況用コンテンツにゲームデータを反映させて実況用画面を生成する(ステップS119)。例えば、取得したゲームデータを各種の表示コンテンツ中の所定の場所に表示したり、ゲームデータのファイルパス情報をもとに画像ファイルや動画ファイルと紐付けて画像や動画を表示したり、位置座標をもとに各種の表示コンテンツの位置を同期させて表示したりする。また、ビデオカメラ3、16からの映像を表示コンテンツに合成することもある。図7は実況用画面の例を示しており、画面の左下に複数のボタンからなる実況用コンテンツC1が表示され、画面の右の中央から下にかけて履歴を示す実況用コンテンツC2が表示されている。また、画面上には透明なボタンからなる実況用コンテンツを配置することもできる。例えば、図4の画面の下中央に表示される7枚のカードのそれぞれの選択を受け付ける透明なボタンによる実況用コンテンツC3を配置することができる。
 図3に戻り、映像システムワークステーション13はゲーム機2から継続して入力しているゲーム映像と、生成した実況用画面とを合成し(ステップS120)、合成された画面の映像を大型モニタ19に出力し(ステップS121)、大型モニタ19は映像の表示を行う(ステップS122)。図8は表示された映像の例を示しており、ゲーム映像に実況用コンテンツを含む実況用画面(図7)が合成されたものとなっている。
 なお、前述したように、映像システムワークステーション13で合成を行わず、映像スイッチャ17により合成を行うことができる。また、図示を省略してあるが、並行して音声信号(ゲーム音声、解説者の声、実況用コンテンツの効果音等)がスピーカ20に提供され、音声の出力が行われる。
 図3に戻り、携帯端末14において解説者11により実況用コンテンツへの操作(例えば、ボタンのタップ操作、専用コントローラや専用リモコンによる入力操作等)が行われると(ステップS131)、携帯端末14は映像システムワークステーション13に操作入力を通知する(ステップS132)。これを受けた映像システムワークステーション13は、操作に対して起動される処理において現時点で保持しているゲームデータで対応が行えないと判断した場合、実況コントローラ12に対してゲームデータの要求を行う(ステップS133)。
 これを受けて実況コントローラ12は加工済または未加工のゲームデータを映像システムワークステーション13に送信し(ステップS134)、映像システムワークステーション13はゲームデータを取得し、同期させる(ステップS135)。そして、映像システムワークステーション13は予め制作されている実況用コンテンツにゲームデータを反映させて実況用画面を生成し(ステップS136)、ゲーム映像と実況用画面とを合成する(ステップS137)。映像システムワークステーション13は合成された画面の映像を大型モニタ19に出力し(ステップS138)、大型モニタ19は映像の表示を行う(ステップS139)。
 <具体例#1>
 ゲーム映像のカードが置かれる領域に埋め込まれた透明ボタンの操作(タップ操作等)により、選択されたカードのカード情報を表示する例について説明する。
 図9はコンテンツデータとゲームデータの例を示す図である。コンテンツデータとして、ボタンIDとタイプ(通常、透明等)と座標範囲(ボタンへの操作が有効となる画面上の範囲)と処理ID等を対応付けたテーブルT1と、処理IDと処理内容等を対応付けたテーブルT2とが保持されている。テーブルT1のボタンIDに対応するボタンは、例えば、図8の画面の下中央に表示された7枚のカードのそれぞれに対応して設けられる。座標範囲はそれぞれのカードの輪郭に対応して設定される。処理IDで特定されるテーブルT2の処理内容としては、ボタンの下に配置されたカードの情報を表示するというものになっている。ボタンの下に配置されるカードは、ゲームの進行に応じて異なるものとなり、該当するカードが存在しない場合もある。一方、ゲームデータとして、カードIDと座標範囲とカード情報等を対応付けたテーブルT3が保持されている。座標範囲は、カードIDで特定されるカードが画面上に配置されている場合の画面上の位置を示している。
 この状態で、例えば、解説者11が画面上をタップ操作して、タップ操作した位置がテーブルT1のボタンID「B101」の座標範囲である場合、対応付けられた処理ID「P101」の処理内容が起動される。テーブルT2の処理内容の実行により、テーブルT1のボタンID「B101」の座標範囲とテーブルT3の座標範囲が一致するカードID「C253」が特定され、そのカード情報が取得されて追加の実況用コンテンツとして画面に表示される。図10はカード情報の実況用コンテンツC4が表示された実況用画面の例を示しており、図11はゲーム映像に合成された後の状態を示している。
 解説者11はプレイヤ1の手持ちのカードの詳細情報を適宜に表示しながら実況解説を行うことができ、説得力のある有意義な説明を行うことが可能になる。
 <具体例#2>
 プレイヤ1に使用されていない任意のカードを実況コントローラ12からオペレータ10または解説者11が選択して、カード情報を映像システムワークステーション13に送信し、「カード表示」ボタンからカード情報を表示する例について説明する。
 図12は実況コントローラ12の操作画面例を示しており、リストL2からID「1」のカードを選択し、ボタンB1を押すことで、選択されたカードのカード情報が映像システムワークステーション13に送信される。その後、解説者11により「カード表示」ボタン(例えば、図8の画面の左下の「カード表示」のタイトルが入ったボタン)がタップ操作されることにより、複数の表示候補のカードの中からの選択を経て、カード情報が追加の実況用コンテンツとして画面に表示される。図13はカード情報の実況用コンテンツC5がゲーム映像に合成された後の状態を示している。なお、複数の表示候補のカードの中にはプレイヤ1に使用されているカードも含まれており、プレイヤ1に使用されているカードのカード情報を表示することもできる。
 解説者11はプレイヤ1が使用していないカードについても詳細情報を適宜に表示しながら実況解説を行うことができ、説得力のある有意義な説明を行うことが可能になる。
 <具体例#3>
 同期対象のゲーム機のプレイヤと対戦相手のプレイヤの保持カード(デッキ)を比較して表示する例について説明する。
 図14はコンテンツデータとゲームデータの例を示す図である。コンテンツデータとして、ボタンIDとタイプ(通常、透明等)と座標範囲(ボタンへの操作が有効となる画面上の範囲)と処理ID等を対応付けたテーブルT4と、処理IDと処理内容等を対応付けたテーブルT5とが保持されている。処理IDで特定される処理内容としては、プレイヤと対戦相手のデッキを比較表示するというものになっている。一方、ゲームデータとして、プレイヤと対戦相手のそれぞれのプレイヤIDがテーブルT6に保持されている。また、プレイヤIDとデッキ情報を対応付けたテーブルT7が保持されている。
 この状態で、例えば、解説者11が画面上をタップ操作して、タップ操作した位置がテーブルT4のボタンID「B001」の座標範囲である場合、対応付けられた処理ID「P001」の処理内容が起動される。テーブルT5の処理内容の実行により、テーブルT6からプレイヤと対戦相手のプレイヤIDが特定され、テーブルT7から各プレイヤIDのデッキ情報が取得され、追加の実況用コンテンツとして画面に表示される。図15はデッキ情報の実況用コンテンツC6、C7が表示された実況用画面の例を示しており、図16はゲーム映像に合成された後の状態を示している。
 解説者11は対戦中の両プレイヤのデッキ情報を比較表示しながら実況解説を行うことができ、説得力のある有意義な説明を行うことが可能になる。
 <総括>
 以上説明したように、本実施形態によれば、ゲームの進行に沿った各種の情報を実況用コンテンツとしてゲーム映像に付加して表示できるようにし、イベントにおける実況解説の質を向上させることができる。
 以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。
 例えば、図1の構成が全て同じ施設(ゲームセンター、イベント会場など)内に無くてもよい。具体的には、実況コントローラ12、映像システムワークステーション13、携帯端末14、動画ストリーム配信装置21等のゲームイベント実況制御を行う装置の少なくとも1つを別の施設に設置するようにしてもよい。このような構成により、複数の施設で同様のサービスを行う場合、各施設内におけるゲーム機2以外の装置手配の手間が軽減され、各施設に共通の装置を一か所にまとめて設置できるため、メンテナンス性の向上やコスト削減等が図れるとともに、ゲーム大会イベントの運営バリエーションを増やすことも可能になる。また、ゲーム映像と合成された実況用画像を生成するために、各施設に設置されたゲーム機2からゲーム映像をネットワーク9を介して上記のゲームイベント実況制御を行う装置に送信するようにしてもよいが、ゲーム機2から受信したゲームデータを用い、ゲーム映像を再現する再現装置(施設側と同じゲーム機等)を別途設けるか、映像システムワークステーション13自体にゲーム映像を再現する機能を持たせてゲーム映像を生成するようにしてもよい。これにより、ゲーム機2から映像システムワークステーション13へゲーム映像を送信する必要がなくなり、送信するデータ量を軽減することができるようになる。このようにして生成された実況用画像は、動画ストリーム配信装置21から各施設に配信されるが、ゲーム映像を再現する再現装置を設けず、ゲーム映像と合成される前の実況用画像データを動画ストリーム配信装置21から各施設に配信し、施設内に受信した実況用画面とゲーム映像を合成する装置を設け、ゲーム機2から出力されるゲーム映像と合成して大型モニタ19に表示するようにしてもよい。
 1、1X、1Y プレイヤ
 2、2X、2Y ゲーム機(ゲーム装置)
 201     ゲーム処理部
 202     ゲーム映像出力部
 203     ゲーム音声出力部
 204     ゲームデータ出力部
 3、3X、3Y ビデオカメラ
 4、4X、4Y バイタル計測機器
 5、5X、5Y 携帯端末
 6       映像スイッチャ
 7       映像分割・合成器
 8       音声スイッチャ
 9       ネットワーク
 10      オペレータ
 11      解説者
 12      実況コントローラ(加工装置、制御装置)
 121     同期ゲーム機選択部
 122     ゲームデータ同期部
 123     ゲームデータ加工部
 124     ゲームデータ送信部
 13      映像システムワークステーション(生成装置、合成装置、制御装置)
 131     コンテンツ制作部
 132     ゲーム映像同期部
 133     ゲームデータ取得部
 134     実況用画面生成部
 135     実況用画面合成部
 136     映像出力部
 137     音声出力部
 138     操作部
 14      携帯端末(操作装置)
 141     操作部
 15      マイク
 16      ビデオカメラ
 17      映像スイッチャ(合成装置)
 18      音声ミキサ
 19      大型モニタ(表示装置)
 20      スピーカ
 21      動画ストリーム配信装置

Claims (8)

  1.  ゲームの進行に応じてゲーム映像とゲームの状態を示すゲームデータとを出力するゲーム装置と、
     前記ゲームデータを受信し、所定の形式に加工する加工装置と、
     前記加工装置から加工済または未加工のゲームデータを取得し、前記ゲーム映像と合成されるコンテンツを生成する生成装置と、
     前記ゲーム映像に前記コンテンツが合成された映像を表示する表示装置と
    を備えたことを特徴とする映像生成システム。
  2.  請求項1に記載の映像生成システムにおいて、
     前記生成装置を操作する操作装置
    を備えたことを特徴とする映像生成システム。
  3.  請求項1または2に記載の映像生成システムにおいて、
     前記生成装置は、前記コンテンツを前記ゲーム映像と合成して前記表示装置に出力することを特徴とする映像生成システム。
  4.  請求項1または2に記載の映像生成システムにおいて、
     前記コンテンツを前記ゲーム映像と合成して前記表示装置に出力する合成装置
    を備えたことを特徴とする映像生成システム。
  5.  請求項1乃至4のいずれか一項に記載の映像生成システムにおいて、
     前記加工装置は、前記生成装置から要求を受けた場合にゲームデータを前記生成装置に提供する
    ことを特徴とする映像生成システム。
  6.  請求項1乃至5のいずれか一項に記載の映像生成システムにおいて、
     前記ゲームをプレイするプレイヤの生体情報を取得する機器と、
     前記生体情報からコンテンツを生成する手段と
    を備えたことを特徴とする映像生成システム。
  7.  ゲームの進行に応じてゲームの状態を示すゲームデータをゲーム装置から入力する手段と、
     前記ゲームデータを所定の形式に加工する手段と、
     加工済または未加工の前記ゲームデータに基づき、前記ゲーム装置から出力されるゲーム映像と合成されるコンテンツを生成する手段と
    を備えたことを特徴とする制御装置。
  8.  ゲームの進行に応じてゲームの状態を示すゲームデータをゲーム装置から入力する手段と、
     前記ゲームデータを所定の形式に加工する手段と、
     加工済または未加工の前記ゲームデータを、当該ゲームデータに基づいて前記ゲーム装置から出力されるゲーム映像と合成されるコンテンツを生成する生成装置に送信する手段と
    を備えたことを特徴とする加工装置。
PCT/JP2016/079576 2015-10-16 2016-10-05 映像生成システム、制御装置および加工装置 Ceased WO2017065065A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16855319.6A EP3363511B1 (en) 2015-10-16 2016-10-05 Video generating system, control device, and editing device
US15/941,737 US20180221762A1 (en) 2015-10-16 2018-03-30 Video generation system, control device, and processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015204664A JP6098691B1 (ja) 2015-10-16 2015-10-16 映像生成システム、制御装置および加工装置
JP2015-204664 2015-10-16

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/941,737 Continuation US20180221762A1 (en) 2015-10-16 2018-03-30 Video generation system, control device, and processing device

Publications (1)

Publication Number Publication Date
WO2017065065A1 true WO2017065065A1 (ja) 2017-04-20

Family

ID=58363143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/079576 Ceased WO2017065065A1 (ja) 2015-10-16 2016-10-05 映像生成システム、制御装置および加工装置

Country Status (4)

Country Link
US (1) US20180221762A1 (ja)
EP (1) EP3363511B1 (ja)
JP (1) JP6098691B1 (ja)
WO (1) WO2017065065A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020534952A (ja) * 2017-09-29 2020-12-03 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 実世界会場で開催されたライブイベントで見せられるインタラクティブなゲーム世界の観客ビュー
JP2022085296A (ja) * 2020-11-27 2022-06-08 株式会社カプコン ゲームシステムおよびゲーム制御方法
JP2023064585A (ja) * 2021-10-26 2023-05-11 株式会社デンソーテン 情報処理装置、情報処理方法およびゲーム実況配信システム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018164227A (ja) * 2017-03-27 2018-10-18 株式会社Nttぷらら 映像配信システム及び映像配信方法
JP6471774B2 (ja) 2017-07-04 2019-02-20 株式会社セガゲームス 情報処理システム及び動画再生方法
USD835660S1 (en) * 2017-09-21 2018-12-11 Dong-Kwon LIM Display screen with graphical user interface
JP6718097B2 (ja) * 2018-03-15 2020-07-08 株式会社コナミデジタルエンタテインメント 動画配信システム、及びそれに用いるコンピュータプログラム
JP7223405B2 (ja) * 2019-02-28 2023-02-16 株式会社コナミデジタルエンタテインメント 動画配信システム、及びそれに用いるコンピュータプログラム
JP7448188B2 (ja) * 2019-12-27 2024-03-12 株式会社コナミデジタルエンタテインメント 演出制御システム、それに用いるコンピュータプログラム、及び制御方法
KR20220110844A (ko) 2019-12-27 2022-08-09 가부시키가이샤 코나미어뮤즈먼트 표시 제어 시스템, 게임 시스템, 표시 제어 방법 및 컴퓨터 프로그램
JP7095006B2 (ja) * 2020-03-04 2022-07-04 株式会社コロプラ ゲームプログラム、キャラクタ制御プログラム、方法、および情報処理装置
JP7093025B2 (ja) * 2020-06-12 2022-06-29 株式会社カプコン コンピュータシステム、および音声情報の生成方法
JP7157343B2 (ja) * 2020-06-12 2022-10-20 株式会社カプコン コンピュータシステム、および情報提示方法
JP7206502B2 (ja) * 2020-07-08 2023-01-18 株式会社カプコン コンピュータシステムおよびイベントの管理方法
JP2020179203A (ja) * 2020-07-09 2020-11-05 株式会社コナミデジタルエンタテインメント 収容体及び物体
US12015867B2 (en) * 2020-10-08 2024-06-18 Ross Video Limited Video routers and related methods with integrated audio mixing and processing
CN112423093B (zh) * 2020-10-16 2022-04-08 腾讯科技(深圳)有限公司 游戏视频生成方法、装置、服务器和存储介质
JP7360715B2 (ja) * 2020-12-25 2023-10-13 株式会社コナミデジタルエンタテインメント 制御システム、情報システム、情報処理方法およびプログラム
CN112911368A (zh) * 2021-01-15 2021-06-04 北京字跳网络技术有限公司 互动方法、装置、电子设备和存储介质
JP7323700B2 (ja) 2021-03-10 2023-08-08 17Live株式会社 インタラクション型ユニバーサルライブストリーミング
JP2022175191A (ja) * 2021-05-13 2022-11-25 株式会社セガ プログラム及び情報処理装置
JP7748082B2 (ja) 2021-05-28 2025-10-02 株式会社コナミデジタルエンタテインメント 制御システム、情報システム、情報処理方法およびプログラム
KR20230106352A (ko) * 2022-01-06 2023-07-13 삼성전자주식회사 디스플레이 모듈 제어 방법 및 상기 방법을 수행하는 전자 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239225A (ja) * 2001-11-12 2002-08-27 Namco Ltd ゲーム実況中継装置
JP2006346000A (ja) * 2005-06-14 2006-12-28 Aruze Corp 遊技機、サーバ
JP2015008983A (ja) * 2013-06-28 2015-01-19 株式会社バンダイナムコゲームス プログラムおよびゲーム装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11253659A (ja) * 1998-03-12 1999-09-21 Namco Ltd ゲーム用実況中継装置
US8888592B1 (en) * 2009-06-01 2014-11-18 Sony Computer Entertainment America Llc Voice overlay
US8187104B2 (en) * 2007-01-29 2012-05-29 Sony Online Entertainment Llc System and method for creating, editing, and sharing video content relating to video game events
US8221290B2 (en) * 2007-08-17 2012-07-17 Adidas International Marketing B.V. Sports electronic training system with electronic gaming features, and applications thereof
US8976007B2 (en) * 2008-08-09 2015-03-10 Brian M. Dugan Systems and methods for providing biofeedback information to a cellular telephone and for using such information
US20090286604A1 (en) * 2008-05-16 2009-11-19 Microsoft Corporation Adaptive live commentary in hosted game
US8926435B2 (en) * 2008-12-15 2015-01-06 Sony Computer Entertainment America Llc Dual-mode program execution
JP5522349B2 (ja) * 2009-04-14 2014-06-18 任天堂株式会社 入力システム、情報処理システム、周辺機器の制御方法、および操作機器の制御プログラム
US8289185B2 (en) * 2009-05-05 2012-10-16 Advanced Technologies Group, LLC Sports telemetry system for collecting performance metrics and data
WO2014055108A1 (en) * 2012-10-03 2014-04-10 Google Inc. Cloud-based gameplay video rendering and encoding
CA2890814C (en) * 2012-11-16 2019-07-02 Sony Computer Entertainment America Llc Systems and methods for cloud processing and overlaying of content on streaming video frames of remotely processed applications
US10258881B2 (en) * 2012-12-26 2019-04-16 Sony Interactive Entertainment America Llc Systems and methods for tagging content of shared cloud executed mini-games and tag sharing controls
US9776076B2 (en) * 2013-03-15 2017-10-03 Electronic Arts Inc. Systems and methods for generating a compilation reel in game video
US8998725B2 (en) * 2013-04-30 2015-04-07 Kabam, Inc. System and method for enhanced video of game playback
US9452354B2 (en) * 2013-06-07 2016-09-27 Sony Interactive Entertainment Inc. Sharing three-dimensional gameplay
US20160127508A1 (en) * 2013-06-17 2016-05-05 Square Enix Holdings Co., Ltd. Image processing apparatus, image processing system, image processing method and storage medium
US20160057488A1 (en) * 2013-10-09 2016-02-25 Disney Enterprises, Inc. Method and System for Providing and Displaying Optional Overlays
JP2015150172A (ja) * 2014-02-13 2015-08-24 任天堂株式会社 情報共有システム、情報処理装置、プログラム及び情報共有方法
US11071919B2 (en) * 2015-06-30 2021-07-27 Amazon Technologies, Inc. Joining games from a spectating system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002239225A (ja) * 2001-11-12 2002-08-27 Namco Ltd ゲーム実況中継装置
JP2006346000A (ja) * 2005-06-14 2006-12-28 Aruze Corp 遊技機、サーバ
JP2015008983A (ja) * 2013-06-28 2015-01-19 株式会社バンダイナムコゲームス プログラムおよびゲーム装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Jikkyo, Yatagarasu", 27 August 2012 (2012-08-27), XP055375555, Retrieved from the Internet <URL:ttps://web.archive.org/web/20120827171220/http://yatagarasuinfo.web.fc2.com/live.htm> [retrieved on 20151214] *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020534952A (ja) * 2017-09-29 2020-12-03 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 実世界会場で開催されたライブイベントで見せられるインタラクティブなゲーム世界の観客ビュー
JP2022085296A (ja) * 2020-11-27 2022-06-08 株式会社カプコン ゲームシステムおよびゲーム制御方法
JP7168875B2 (ja) 2020-11-27 2022-11-10 株式会社カプコン ゲームシステムおよびゲーム制御方法
JP2023064585A (ja) * 2021-10-26 2023-05-11 株式会社デンソーテン 情報処理装置、情報処理方法およびゲーム実況配信システム

Also Published As

Publication number Publication date
US20180221762A1 (en) 2018-08-09
JP6098691B1 (ja) 2017-03-22
EP3363511A4 (en) 2019-08-21
JP2017074307A (ja) 2017-04-20
EP3363511B1 (en) 2020-09-09
EP3363511A1 (en) 2018-08-22

Similar Documents

Publication Publication Date Title
JP6098691B1 (ja) 映像生成システム、制御装置および加工装置
JP6471774B2 (ja) 情報処理システム及び動画再生方法
JP6500847B2 (ja) 映像生成システムおよび映像生成プログラム
CN111866539B (zh) 直播界面的切换方法、装置、终端及存储介质
US11119724B2 (en) Standalone disk jockey console apparatus
JP6332930B2 (ja) ゲームシステム、サーバシステム及びプログラム
JP7123520B2 (ja) 動画記録装置、動画生成方法、及びプログラム
KR102413269B1 (ko) 정보 처리 장치
EP2418874B1 (en) Apparatus and method of audio reproduction
JP2018011849A (ja) 動画記録装置、動画配信方法及びプログラム
CN113271472A (zh) 游戏直播方法及装置、电子设备和可读存储介质
WO2020121890A1 (ja) 情報処理装置およびコンテンツ編集方法
US20200014949A1 (en) Synchronizing session content to external content
CN1981525B (zh) 信息处理设备和信息处理方法
JP2021500765A (ja) ユーザ端末をグループとして連結し、グループと関連するコンテンツを含むサービスを提供する、方法および装置
JP7729049B2 (ja) 映像出力方法、映像出力装置および映像出力システム
US9108104B2 (en) Storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
JP7078743B2 (ja) 情報処理システム、情報処理装置およびコンテンツファイルの生成方法
JP7108048B2 (ja) 情報処理装置および画面生成方法
US20230239550A1 (en) Relay server and distribution image generation method
JP2021153257A (ja) 映像データ処理装置、映像配信システム、映像編集装置、記録媒体、映像データ処理方法、映像配信方法、及びプログラム
JP6601099B2 (ja) カラオケ投稿システム、カラオケ装置及び複合映像作成方法
JP7258441B2 (ja) カラオケ装置
JP6065226B2 (ja) カラオケ装置及びカラオケ用プログラム
JP3811765B2 (ja) ゲーム装置、ゲーム装置の制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16855319

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载