JP2005250748A - Video composition device, video composition program, and video composition system - Google Patents
Video composition device, video composition program, and video composition system Download PDFInfo
- Publication number
- JP2005250748A JP2005250748A JP2004058875A JP2004058875A JP2005250748A JP 2005250748 A JP2005250748 A JP 2005250748A JP 2004058875 A JP2004058875 A JP 2004058875A JP 2004058875 A JP2004058875 A JP 2004058875A JP 2005250748 A JP2005250748 A JP 2005250748A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- image
- video
- model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
Abstract
【課題】 センサおよび特殊メガネを装着する必要が無く、CG画像に対して人物が自然な振る舞いをしている合成映像を出力することができる映像合成装置、映像合成プログラムおよび映像合成システムを提供する。
【解決手段】 映像合成装置1は、三次元CGデータに従って立体模型造形装置2によって造形された立体模型と人物とを撮影カメラ4によって撮影した映像内で、当該立体模型が映し出されている映像部分に、当該三次元CGデータに従って描画したCG画像を重ね合わせて出力するものであって、三次元CGデータ蓄積手段3と、三次元CGデータ出力制御手段5と、レンダリング手段7と、立体模型映像部分検出手段9と、リプレイス手段11と、を備えた。
【選択図】 図1PROBLEM TO BE SOLVED: To provide a video synthesizing apparatus, a video synthesizing program, and a video synthesizing system that can output a synthesized video in which a person behaves naturally with respect to a CG image without wearing a sensor and special glasses. .
A video synthesizing apparatus 1 includes a video portion in which a three-dimensional model modeled by a three-dimensional model modeling apparatus 2 according to three-dimensional CG data and a person photographed by a photographing camera 4 are projected. The CG image drawn according to the 3D CG data is superimposed and output. The 3D CG data storage means 3, the 3D CG data output control means 5, the rendering means 7, and the 3D model image A partial detection means 9 and a replacement means 11 were provided.
[Selection] Figure 1
Description
本発明は、撮影した映像に三次元CGを合成する映像合成装置、映像合成プログラムおよび映像合成システムに関する。 The present invention relates to a video synthesis device, a video synthesis program, and a video synthesis system that synthesize a three-dimensional CG with a shot video.
従来、撮影カメラで撮影した実写映像内に、コンピュータによって描画した三次元画像である三次元CGを配置する技術として、バーチャルスタジオ技術、ミックスドリアリティ技術が挙げられる(例えば、特許文献1,2参照)。
Conventionally, as a technique for arranging a 3D CG, which is a 3D image drawn by a computer, in a live-action image taken by a shooting camera, there are a virtual studio technique and a mixed reality technique (see, for example,
バーチャルスタジオ技術は、スタジオセットをコンピュータによってCG画像として描画して(仮想的に組み立てて)、この描画したCG画像(バーチャル模型)の中に人物(出演者、例えば、アナウンサ)等の実写映像をはめ込む(配置する、合成する)ことにより、実際には、スタジオセットが存在していないにも拘わらず、恰も本物のスタジオセットの中に人物(出演者)等がいるかのような映像を作り出すことができる技術である。 In the virtual studio technology, a studio set is drawn as a CG image by a computer (virtually assembled), and a live-action image of a person (performer, for example, an announcer) is drawn in the drawn CG image (virtual model). By inserting (arranging and synthesizing), it is possible to create an image as if a person (performer) is in a real studio set even though the studio set does not actually exist. It is a technology that can.
ミックスドリアリティ技術は、CG画像等の仮想世界と実際に撮影した映像等の現実世界とをリアルタイムに継ぎ目無く融合させる技術であり、このミックスドリアリティ技術の一態様として、人物(使用者)の位置および目線方向を取得可能なセンサと、実写映像にCG画像を合成した合成映像を当該人物(使用者)に提示可能な特殊メガネと、CG画像を実際の空間上に配置する位置を示す配置データを記憶したコンピュータとを用いたものがある。 The mixed reality technology is a technology that seamlessly fuses a virtual world such as a CG image and a real world such as an actually captured image in real time. As one aspect of this mixed reality technology, a person (user) A sensor capable of acquiring a position and a line-of-sight direction, special glasses capable of presenting a synthesized video obtained by synthesizing a CG image to a live-action video to the person (user), and an arrangement indicating a position where the CG image is arranged in an actual space Some use a computer that stores data.
このミックスドリアリティ技術の一態様では、人物(使用者)がセンサおよび特殊メガネを装着して、任意の動作をすると、センサがこの任意の動作に応じて変化するセンサデータをコンピュータに出力する。続いて、コンピュータが、入力されたセンサデータと配置データとに基づいて、時々の人物(使用者)の位置および目線方向から見えるCG画像をその都度生成し、この生成したCG画像を特殊メガネによって、リアルタイムに実写映像上に配置することで、人物(使用者)に提示するものである。 In one aspect of this mixed reality technology, when a person (user) wears a sensor and special glasses and performs an arbitrary operation, the sensor outputs sensor data that changes according to the arbitrary operation to a computer. Subsequently, the computer generates a CG image that can be seen from the position and eye direction of the person (user) from time to time based on the input sensor data and arrangement data, and the generated CG image is displayed by using special glasses. It is presented to a person (user) by arranging it on a live-action video in real time.
これによって、人物(使用者)は、実際の空間における特定の箇所に、恰もCG画像が存在しているように感じることができる。
しかしながら、従来のバーチャルスタジオ技術では、たとえ、スタジオセットをCG画像(バーチャル模型)として生成しても、人物(出演者)は、このCG画像が実写映像にはめ込まれた合成映像を、テレビモニタによって確認するため、CG画像の存在や配置位置を正確に把握することができず、当該CG画像に対して自然な振る舞いを行うことができない、例えば、CG画像の存在する位置を注目する際の目線、つまり、複数の人物(出演者)が恰もCG画像の中の特定の1箇所を注目している(目線の共有)という演出や、指し棒等を用いた場合は差し位置等が不自然になるという問題がある。 However, in the conventional virtual studio technology, even if a studio set is generated as a CG image (virtual model), a person (performer) uses a television monitor to display a composite image in which the CG image is embedded in a live-action image. For confirmation, it is impossible to accurately grasp the presence or arrangement position of a CG image, and natural behavior cannot be performed on the CG image. For example, a line of sight when paying attention to a position where a CG image exists In other words, if a plurality of persons (performers) are paying attention to one specific place in the CG image (sharing of eyes) or using a pointing stick or the like, the insertion position is unnatural. There is a problem of becoming.
また、従来のミックスドリアリティ技術では、実際の空間に配置されたCG画像に対して自然な振る舞いを行うことができるが、人物(使用者)は、センサおよび特殊メガネを装着しなければならず、この従来のミックスドリアリティ技術を番組制作等に用いる場合、これらセンサおよび特殊メガネを装着した顔面を確認できない人物を出演させることになってしまうので、番組の演出上困難であるという問題がある。 In addition, in the conventional mixed reality technology, natural behavior can be performed on a CG image arranged in an actual space, but a person (user) must wear a sensor and special glasses. When this conventional mixed reality technology is used for program production or the like, there is a problem that it is difficult to produce a program because a person who cannot confirm the face wearing these sensors and special glasses will appear. .
さらに、人物(出演者)が解説する模型を実際に製作して番組中で使用する場合、当該模型は、現物を適当なサイズにスケールダウンした状態で製作する必要があることから、例えば、報道番組において、航空機事故を取り扱う場合に、航空機の精巧な模型が必要になる場合があり、こういった場合に、精巧な模型ほど作成するのに時間を要すという問題がある。 Furthermore, when a model explained by a person (performer) is actually produced and used in a program, the model must be produced with the actual scale down to an appropriate size. When an aircraft accident is handled in a program, an elaborate model of the aircraft may be required. In such a case, there is a problem that it takes time to create an elaborate model.
そこで、本発明では、前記した問題を解決し、センサおよび特殊メガネを装着する必要が無く、緊急な報道番組であっても精巧な模型を作成することなく対処することができ、、CG画像に対して人物(出演者)が自然な振る舞いをしている合成映像を出力することができる映像合成装置、映像合成プログラムおよび映像合成システムを提供することを目的とする。 Therefore, the present invention solves the above-described problems, eliminates the need for wearing sensors and special glasses, can deal with urgent news programs without creating elaborate models, An object of the present invention is to provide a video composition device, a video composition program, and a video composition system that can output a composite image in which a person (performer) behaves naturally.
前記課題を解決するため、請求項1記載の映像合成装置は、三次元CGデータに従って立体模型造形手段によって造形された立体模型と人物とを撮影手段によって撮影した映像内で、当該立体模型が映し出されている映像部分に、当該三次元CGデータに従って描画した三次元CGを重ね合わせて出力する映像合成装置であって、三次元CGデータ蓄積手段と、三次元CGデータ出力手段と、レンダリング手段と、立体模型映像部分検出手段と、リプレイス手段と、を備える構成とした。
In order to solve the above-described problem, the video composition device according to
かかる構成によれば、映像合成装置は、三次元CGデータ出力手段によって、三次元CGデータ蓄積手段に蓄積されている三次元CGデータを立体模型造形手段に出力させる。三次元CGデータは、三次元のコンピュータグラフィックスを描画するための形状を示す座標群、描画される三次元CGの質感を示す質感情報、描画されるCG画像の明暗および色彩を示す光彩情報等を含んでいるものである。 According to such a configuration, the video composition device causes the 3D CG data output means to output the 3D CG data stored in the 3D CG data storage means to the 3D model modeling means. The three-dimensional CG data includes a coordinate group indicating a shape for drawing three-dimensional computer graphics, texture information indicating the texture of the three-dimensional CG to be drawn, glow information indicating the lightness and darkness and color of the drawn CG image, and the like. Is included.
また、映像合成装置は、レンダリング手段によって、撮影手段が設置されている位置(例えば、座標xyz)と、撮影手段が撮影している方向と、撮影手段が立体模型を撮影する際のズーム量(ズーム率)とを含む撮影情報と、立体模型が配置されている位置を示す配置情報と、三次元CGデータ蓄積手段に蓄積されている三次元CGデータとに基づいて、立体模型を三次元CGに置き換えて配置した場合に撮影手段で撮影されるであろうCG画像(二次元CG画像)を時々刻々(その都度)描画(生成)する。つまり、立体模型造形手段で造形された模型の撮影手段方向から眺めた二次元CG画像が、撮影している撮影手段の位置、方向およびズーム量を含む撮影情報の変化に伴って、逐次生成されることになる。 In addition, the video composition device uses the rendering unit to position the shooting unit (for example, coordinates xyz), the direction in which the shooting unit is shooting, and the zoom amount when the shooting unit is shooting the three-dimensional model ( The three-dimensional model is converted into a three-dimensional CG based on the shooting information including the zoom ratio), the arrangement information indicating the position where the three-dimensional model is arranged, and the three-dimensional CG data stored in the three-dimensional CG data storage means. In this case, a CG image (two-dimensional CG image) that will be photographed by the photographing means when being arranged is drawn (generated) every moment. That is, a two-dimensional CG image viewed from the direction of the photographing means of the model modeled by the three-dimensional model shaping means is sequentially generated as the photographing information including the position, direction, and zoom amount of the photographing means that is photographing is changed. Will be.
そして、映像合成装置は、立体模型映像部分検出手段によって、撮影手段で撮影されている実写の映像内の立体模型が映し出されている映像部分を検出し、リプレイス手段によって、検出された映像部分にレンダリング手段で描画されたCG画像を置き換えて出力する。すなわち、レンダリング手段で描かれた、撮影手段の位置、方向およびズーム量を含む撮影情報の変化に伴って形状(見え方)が変わるCG画像(二次元CG画像)が、リプレイス手段によって、立体模型映像部分検出手段で検出された映像部分に置き換えられることになる。 Then, the video composition device detects the video part in which the three-dimensional model in the live-action video shot by the photographing unit is projected by the three-dimensional model video part detecting unit, and the detected video part is detected by the replacement unit. The CG image drawn by the rendering means is replaced and output. That is, a CG image (a two-dimensional CG image) whose shape (appearance) changes with changes in shooting information including the position, direction, and zoom amount of the shooting unit drawn by the rendering unit is converted into a three-dimensional model by the replacement unit. It will be replaced with the video part detected by the video part detection means.
請求項2記載の映像合成装置は、請求項1に記載の映像合成装置において、前記立体模型造形手段は、ラピッドプロトタイピング技術における薄膜積層法の原理を用いることを特徴とする。 According to a second aspect of the present invention, in the video synthesizing apparatus according to the first aspect, the three-dimensional model forming means uses a principle of a thin film stacking method in a rapid prototyping technique.
かかる構成によれば、映像合成装置は、三次元CGデータを出力する出力先の立体模型造形手段にラピッドプロトタイピング技術における薄膜積層法の原理が用いられるので、三次元CGデータを具現化した実際の形状を表す立体模型がダンボール等によって造形されることとなる。 According to such a configuration, the video synthesizing apparatus uses the principle of the thin film stacking method in the rapid prototyping technique for the output 3D model forming means for outputting the 3D CG data. The three-dimensional model representing the shape is formed by cardboard or the like.
請求項3記載の映像合成プログラムは、三次元CGデータに従って立体模型造形手段によって造形された立体模型と人物とを撮影手段によって撮影した映像内で、当該立体模型が映し出されている映像部分に、当該三次元CGデータに従って描画した三次元CGを重ね合わせて出力するために、コンピュータを、三次元CGデータ出力手段、レンダリング手段、立体模型映像部分検出手段、リプレイス手段、として機能させる構成とした。 The video composition program according to claim 3, in a video portion in which the three-dimensional model is projected in a video obtained by photographing the three-dimensional model and the person modeled by the three-dimensional model modeling means according to the three-dimensional CG data, by the photographing means, In order to superimpose and output three-dimensional CG drawn according to the three-dimensional CG data, the computer is configured to function as a three-dimensional CG data output unit, a rendering unit, a three-dimensional model video portion detection unit, and a replacement unit.
かかる構成によれば、映像合成プログラムは、三次元CGデータ出力手段によって、三次元CGデータ蓄積手段に蓄積されている三次元CGデータを立体模型造形手段に出力させる。また、映像合成プログラムは、レンダリング手段によって、撮影手段の位置、方向およびズーム量を含む撮影情報と、立体模型が配置されている位置を示す配置情報と、三次元CGデータ蓄積手段に蓄積されている三次元CGデータとに基づいて、立体模型を三次元CGに置き換えて配置した場合に撮影手段で撮影されるであろうCG画像(二次元CG画像)を時々刻々(その都度)描画(生成)する。そして、映像合成プログラムは、立体模型映像部分検出手段によって、撮影手段で撮影されている実写の映像内の立体模型が映し出されている映像部分を検出し、リプレイス手段によって、検出された映像部分にレンダリング手段で描画されたCG画像(二次元CG画像)を置き換えて出力する。 According to this configuration, the video composition program causes the three-dimensional CG data output unit to output the three-dimensional CG data stored in the three-dimensional CG data storage unit to the three-dimensional model modeling unit. Also, the video composition program is stored in the 3D CG data storage unit by the rendering unit, the shooting information including the position, direction and zoom amount of the shooting unit, the location information indicating the position where the 3D model is placed, and the 3D CG data storage unit. Based on the existing 3D CG data, the CG image (2D CG image) that will be captured by the imaging means when the 3D model is replaced with the 3D CG is arranged (every time) drawn (generated) ) The video composition program detects the video portion in which the three-dimensional model in the live-action video shot by the photographing means is projected by the three-dimensional model video portion detecting means, and the detected video portion is detected by the replacing means. The CG image (two-dimensional CG image) drawn by the rendering means is replaced and output.
請求項4記載の映像合成システムは、立体模型とこの立体模型を使用して解説を行う人物とを撮影手段によって撮影した映像内で、当該立体模型が映し出されている映像部分に、当該三次元CGデータに従って描画したCG画像を置き換えて出力する映像合成システムであって、三次元CGデータ蓄積手段と、三次元CGデータ出力手段と、立体模型造形手段と、撮影情報取得手段と、レンダリング手段と、立体模型映像部分検出手段と、リプレイス手段と、を備える構成とした。 The video composition system according to claim 4, wherein the three-dimensional model is displayed in a video portion where the three-dimensional model is projected in a video obtained by photographing a three-dimensional model and a person who explains using the three-dimensional model. A video composition system that replaces and outputs a CG image drawn according to CG data, and includes a three-dimensional CG data storage unit, a three-dimensional CG data output unit, a three-dimensional model modeling unit, a photographing information acquisition unit, a rendering unit, The three-dimensional model image part detecting means and the replacing means are provided.
かかる構成によれば、映像合成システムは、三次元CGデータ出力手段によって、三次元CGデータ蓄積手段に蓄積されている三次元CGデータを立体模型造形手段に出力させる。また、映像合成システムは、立体模型造形手段によって、立体模型を造形し、撮影情報取得手段によって、撮影手段が設置されている位置と方向(例えば、座標xyzと方向)と撮影手段が立体模型を撮影する際のズーム量(ズーム率)とを含む撮影情報を取得する。そして、映像合成システムは、レンダリング手段によって、撮影情報取得手段で取得された撮影情報と、立体模型が配置されている位置を示す配置情報と、三次元CGデータ蓄積手段に蓄積されている三次元CGデータとに基づいて、立体模型を三次元CGに置き換えて配置した場合に撮影手段で撮影されるであろうCG画像(二次元CG画像)を時々刻々(その都度)描画(生成)する。そして、映像合成システムは、立体模型映像部分検出手段によって、撮影手段で撮影されている実写の映像内の立体模型が映し出されている映像部分を検出し、リプレイス手段によって、検出された映像部分にレンダリング手段で描画されたCG画像を置き換えて出力する。 According to such a configuration, the video composition system causes the three-dimensional CG data output means to output the three-dimensional CG data stored in the three-dimensional CG data storage means to the three-dimensional model shaping means. In addition, the video composition system forms a three-dimensional model by the three-dimensional model forming means, and the photographing information acquisition means sets the position and direction (for example, the coordinate xyz and direction) where the photographing means is installed and the photographing means converts the three-dimensional model. Shooting information including a zoom amount (zoom rate) at the time of shooting is acquired. Then, the video composition system uses the rendering unit to acquire the shooting information acquired by the shooting information acquisition unit, the arrangement information indicating the position where the three-dimensional model is arranged, and the three-dimensional CG data storage unit. Based on the CG data, a CG image (two-dimensional CG image) that will be photographed by the photographing means when the three-dimensional model is replaced with the three-dimensional CG is arranged (generated) every moment. Then, the video composition system detects the video portion in which the three-dimensional model in the live-action video photographed by the photographing means is projected by the three-dimensional model video portion detection means, and detects the video portion detected by the replacement means. The CG image drawn by the rendering means is replaced and output.
請求項1、3、4に記載の発明によれば、人物は、センサおよび特殊メガネを装着する必要が無く、実際に造形された立体模型を見ながら動作することできる。また、立体模型が三次元CGに置き換えられるので、三次元CG(CG画像)に対して自然な振る舞いをして得られる合成映像を出力することができる。 According to the first, third, and fourth aspects of the invention, the person does not need to wear a sensor and special glasses, and can operate while looking at the actually modeled three-dimensional model. In addition, since the three-dimensional model is replaced with the three-dimensional CG, it is possible to output a composite image obtained by performing a natural behavior with respect to the three-dimensional CG (CG image).
請求項2に記載の発明によれば、三次元CGデータを事前に準備しておけば、容易に立体模型を得ることができ、例えば、リアルタイムの生放送番組に素早く対応することができる。 According to the second aspect of the present invention, if the three-dimensional CG data is prepared in advance, a three-dimensional model can be easily obtained. For example, a real-time live broadcast program can be quickly handled.
次に、本発明の実施形態について、適宜、図面を参照しながら詳細に説明する。
(映像合成装置の構成)
図1は、映像合成システムのブロック図である。この図1に示すように、映像合成システムAは、映像合成装置1と、立体模型造形装置2(立体模型造形手段)と、撮影カメラ4(撮影手段)と、センサ6(撮影情報取得手段)とから構成されている。映像合成装置1の説明に先立って他の構成を説明する。
Next, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.
(Configuration of video composition device)
FIG. 1 is a block diagram of a video composition system. As shown in FIG. 1, a video composition system A includes a
立体模型造形装置2は、入力されたデータ(三次元CGデータ)に基づいて、ラピッドタイミング技術の薄膜積層法(LOM法)の原理を利用して、薄紙等のシート状の素材(ダンボール紙や紙片等の材料)に輪郭線を引き、この素材の輪郭線をレーザまたはナイフ等によってカットしながら、このカットした素材を順次積み重ねて行くことで、立体模型を造形するものである。なお、この立体模型造形装置2で使用される素材(材料)は、映像合成装置1の立体模型映像部分検出手段(後記する)で検出可能なように単一色とする。
Based on the input data (three-dimensional CG data), the three-dimensional
ラピッドタイミング技術の薄膜積層法(LOM法)は、入力されたデータの内、XY平面に関するデータに基づいて薄膜状の素材を切り出して、この切り出した素材を、入力されたデータの内、高さ方向に関するデータに基づいて積層して、特定形状の素材の「塊」(マスタモデル)を作り出すものであり、金型等の製作に応用されるものである。 In the thin film lamination method (LOM method) of the rapid timing technology, a thin film-like material is cut out based on the data related to the XY plane in the input data, and this cut out material is the height of the input data. Lamination is performed based on the data regarding the direction to create a “lumb” (master model) of a material having a specific shape, and is applied to the production of a mold or the like.
この立体模型造形装置2は、具体的には、砂型鋳造および精密鋳造へ応用されている市販のRPシステム(Rapit Prototyping System−高速造形装置)を用いることでもよく、また、このRPシステムで用いる薄膜の紙片だけを取り扱う代わりに、立体模型を高速に造形するためにダンボール紙等の材料を取り扱うことが可能なように改良したものとしてもよい。
Specifically, the three-dimensional
但し、立体模型造形装置2として、市販のRPシステムをそのまま用いた場合、このRPシステムは一般的に立体模型等を造形するのに時間がかかり、緊急番組等で使用される立体模型の作成には対応できないことが想定される。それゆえ、市販のRPシステムは緊急番組以外の番組に適用することを前提とする。
However, when a commercially available RP system is used as it is as the three-dimensional
この立体模型造形装置2によって、高速に造形するためにダンボール等の材料を用いて造形される立体模型は、入力されたデータ(三次元CGデータ)に従ってダンボール紙等の材料の不要な部分を切り落として(削り取って)、この不要な部分を切り落としたダンボール紙等の材料を幾重にも積み重ねたものである。
The three-dimensional model formed by using the material such as corrugated cardboard for modeling at high speed by the three-dimensional
すなわち、この映像合成システムAでは、三次元CGデータを出力する出力先の立体模型造形装置2にラピッドプロトタイピング技術における薄膜積層法の原理が用いられるので、三次元CGデータを事前に準備しておけば、三次元CGの形状に近似した立体模型がダンボール等によって高速に造形されることとなり、例えば、リアルタイムの生放送番組に素早く対応することができる。
That is, in this video composition system A, since the principle of the thin film stacking method in the rapid prototyping technology is used for the output 3D CG
撮影カメラ4は、立体模型造形装置2によって造形された立体模型と、この立体模型を見ながら動作(演技、解説)を行う人物とを撮影するもので、当該立体模型と当該人物とを撮影した実写撮影信号を映像合成装置1に出力するものである。なお、この撮影カメラ4は、一般的な放送局等で採用されているものである。
The photographic camera 4 shoots a three-dimensional model formed by the three-dimensional
センサ6は、撮影カメラ4が設置されている位置(例えば、座標xyz)と、撮影カメラ4が撮影している方向と、撮影カメラ4が立体模型を撮影する際のズーム量(ズーム率)とを含む撮影情報を検出(取得)するものである。この実施の形態では、センサ6は、位置、方向およびズーム量(ズーム率)をそれぞれ検出する以下に述べるものから構成されている。 The sensor 6 includes a position (for example, coordinates xyz) where the shooting camera 4 is installed, a direction in which the shooting camera 4 is shooting, and a zoom amount (zoom rate) when the shooting camera 4 is shooting a three-dimensional model. Detecting (acquiring) photographing information including In this embodiment, the sensor 6 includes the following elements that detect the position, direction, and zoom amount (zoom rate).
撮影カメラ4が設置されている位置を検出するセンサ6は、当該撮影カメラ4に設置されて、磁気、赤外線、超音波の少なくとも一つを含む信号を発信する発信機(図示せず)と、この発信機から発信された信号に基づいて、位置を検出する位置検出器(図示せず)とから構成されているものである。 A sensor 6 that detects a position where the photographing camera 4 is installed is a transmitter (not shown) that is installed in the photographing camera 4 and transmits a signal including at least one of magnetism, infrared rays, and ultrasonic waves. A position detector (not shown) that detects a position based on a signal transmitted from the transmitter is configured.
撮影カメラ4が撮影している方向を検出するセンサ6は、方向を検出するジャイロコンパス等である。 The sensor 6 that detects the direction in which the photographing camera 4 is photographing is a gyro compass or the like that detects the direction.
撮影カメラ4のズーム量(ズーム率)を検出するセンサ6は、当該撮影カメラ4の外部インターフェース(図示せず)に取り付けられて、この外部インターフェース(図示せず)から出力されるズーム量(ズーム率)を検出する検出装置である。 The sensor 6 for detecting the zoom amount (zoom rate) of the photographing camera 4 is attached to an external interface (not shown) of the photographing camera 4 and is output from the external interface (not shown). This is a detection device for detecting the rate.
次に、映像合成装置1の構成について説明する。
映像合成装置1は、撮影カメラ4で撮影された実写映像信号に、描画した三次元CGを合成し、この合成したものを合成映像信号として出力するもので、三次元CGデータ蓄積手段3と、三次元CGデータ出力制御手段5(三次元CGデータ出力手段)と、レンダリング手段7と、立体模型映像部分検出手段9と、リプレイス手段11とを備えている。
Next, the configuration of the
The
三次元CGデータ蓄積手段3は、三次元CGを描画するためのデータである三次元CGデータを蓄積するもので、一般的なハードディスク等の記録媒体によって構成されている。この三次元CGデータ蓄積手段3は、三次元CGデータ出力手段5から出力された制御信号に従って、蓄積している三次元CGデータを、当該映像合成装置1の外部にある立体模型造形装置2に出力すると共に、レンダリング手段7にも出力するものである。
The three-dimensional CG data storage means 3 stores three-dimensional CG data that is data for drawing a three-dimensional CG, and is configured by a general recording medium such as a hard disk. This three-dimensional CG data storage means 3 sends the stored three-dimensional CG data to the three-dimensional
三次元CGデータは、三次元のコンピュータグラフィックスを描画するための形状を示す座標群、描画される三次元CGの質感を示す質感情報、描画される三次元CGの明暗および色彩を示す光彩情報等を含んでいるものである。例えば、描画される三次元CGが1/100スケールの高層ビル等の複数の建築物であった場合、座標群は、建築物の形状、例えば、四角柱を少なくとも示す8個(四角柱の頂点の数)の座標となり、質感情報は、建築物の表面材質、例えば、ガラスおよびコンクリートを示すものとなり、光彩情報は、建築物の色彩、例えば、水色を示すものとなる。 The three-dimensional CG data includes a coordinate group indicating a shape for drawing three-dimensional computer graphics, texture information indicating the texture of the three-dimensional CG to be drawn, and glow information indicating the lightness and darkness and color of the three-dimensional CG to be drawn. Etc. For example, when the 3D CG to be drawn is a plurality of buildings such as 1/100 scale high-rise buildings, the coordinate group has 8 shapes (vertex of the quadrangular columns) indicating at least the shape of the building, for example, a quadrangular column. The texture information indicates the surface material of the building, for example, glass and concrete, and the glow information indicates the color of the building, for example, light blue.
三次元CGデータ出力制御手段5は、当該映像合成装置1の操作者が入力手段(図示せず)を操作して、入力した操作信号に基づいて、三次元CGデータ蓄積手段3から立体模型造形装置2およびレンダリング手段7に三次元CGデータを出力させる制御信号を、三次元CGデータ蓄積手段3に出力するものである。
The three-dimensional CG data output control means 5 operates the input means (not shown) by the operator of the
レンダリング手段7は、センサ6で検出された撮影カメラ4の時々刻々に変化する位置、方向およびズーム量(ズーム率)を含む撮影情報と、立体模型が配置されている位置を示す配置情報と、三次元CGデータ蓄積手段3に蓄積されている三次元CGデータとに基づいて、その都度、撮影カメラ4から眺めたCG画像(二次元CG画像)を描画(生成)するものである。このレンダリング手段7によるCG画像の描画は、一般的なCG描画手法によって生成されたものである。なお、この配置情報は、予め図示を省略した記憶手段に記憶されているものである。 The rendering means 7 includes shooting information including the position, direction, and zoom amount (zoom rate) of the shooting camera 4 detected by the sensor 6, and arrangement information indicating the position where the three-dimensional model is arranged, Based on the three-dimensional CG data stored in the three-dimensional CG data storage unit 3, a CG image (two-dimensional CG image) viewed from the photographing camera 4 is drawn (generated) each time. The drawing of the CG image by the rendering means 7 is generated by a general CG drawing method. This arrangement information is stored in advance in a storage means (not shown).
立体模型映像部分検出手段9は、撮影カメラ4で撮影された実写映像信号の各フレームについて、立体模型が映し出されている映像部分の外縁部を、色彩(事前に立体模型は単一色で形成されている)の違いから検出し、この映像部分の外縁部に係る情報を立体模型映像部分検出信号として、リプレイス手段11に出力するものである。立体模型映像部分検出信号は、CG画像を実際の空間上(実写映像中)に配置する位置を示す配置データとなる。つまり、立体模型映像部分検出手段9は、実写映像信号に対して画像処理を施して、検出対象である立体模型の映像部分を検出している。
The three-dimensional model image
リプレイス手段11は、撮影カメラ4で撮影された実写映像信号にレンダリング手段7で描画(生成)されたCG画像を、立体模型映像部分検出手段9で出力された立体模型映像部分検出信号に基づいて、置き換えて、合成映像信号として出力するものである。
The replacement unit 11 converts the CG image drawn (generated) by the rendering unit 7 into the real video signal photographed by the photographing camera 4 based on the three-dimensional model video part detection signal output by the three-dimensional model video
このリプレイス手段11から出力された合成映像信号は、表示装置(図示せず)に表示させることも可能であるし、放送波送信装置(図示せず)に入力して放送波として送出することも可能である。 The composite video signal output from the replacement means 11 can be displayed on a display device (not shown), or can be input to a broadcast wave transmission device (not shown) and transmitted as a broadcast wave. Is possible.
なお、この立体模型映像部分検出手段9およびリプレイス手段11は、従来のクロマキー装置(図示せず)の各処理手段に該当している。 The three-dimensional model image portion detection means 9 and the replacement means 11 correspond to each processing means of a conventional chroma key device (not shown).
この映像合成装置1によれば、三次元CGデータ出力制御手段5によって、三次元CGデータ蓄積手段3に蓄積されている三次元CGデータが立体模型造形装置2に出力される。なお、このときに、三次元CGデータが入力されたに立体模型造形装置2は、立体模型を造形する。そして、撮影カメラ4で、造形された立体模型と、人物等を撮影すると、センサ6がセンシングした撮影カメラ4の位置、方向およびズーム量(ズーム率)を含む撮影情報が入力される。すると、レンダリング手段7によって、センサ6から入力された撮影情報と、予め記憶されている立体模型が配置されている位置を示す配置情報と、三次元CGデータ蓄積手段3から入力された三次元CGデータとに基づいて、CG画像(二次元CG画像)が描画される。そして、立体模型映像部分検出手段9によって、撮影カメラ4で撮影されている実写映像信号中の立体模型が映し出されている映像部分が、立体模型映像部分検出信号として検出され、リプレイス手段11によって、検出された映像部分にレンダリング手段7で描画されたCG画像(二次元CG画像)が置き換えられた合成映像信号として出力される。このため、番組に出演する出演者等の人物は、従来のミックスドリアリティ技術で装着されていたセンサおよび特殊メガネを装着する必要が無く、実際に造形された立体模型を見ながら動作することできる。また、立体模型がCG画像に置き換えられるので、CG画像に対して人物が自然な振る舞いをしている合成映像信号(合成映像)を出力することができる。
According to this
つまり、この映像合成装置1によれば、実在する立体模型を見ながら、且つ、当該立体模型を指し示したりしながら、人物が動作することができ、リプレイス手段11で、当該立体模型が、レンダリング手段7で描画されたCG画像に置き換え得られるので、CG画像に対して当該人物が自然な振る舞いをした合成映像信号(合成映像)を得ることができる。
In other words, according to this
(映像合成装置の動作)
次に、図2に示すフローチャートを参照して、映像合成装置1の動作について説明する(適宜、図1参照)。この動作の説明では、撮影カメラ4で撮影を開始する前に、三次元CGデータ蓄積手段3から三次元CGデータを立体模型造形装置2に出力させておき、この立体模型造形装置2によって立体模型を造形しておくことを前提としている。
(Operation of video composition device)
Next, the operation of the
まず、映像合成装置1の立体模型映像部分検出手段9およびリプレイス手段11に、立体模型と人物とが撮影カメラ4で撮影された実写映像信号を入力する(S1)。
First, a live-action image signal obtained by photographing a three-dimensional model and a person with the photographing camera 4 is input to the three-dimensional model image
また、映像合成装置1は、センサ6から出力された撮影カメラ4の位置、方向およびズーム量(ズーム率)を含む撮影情報を受信(取得)する(S2)。
In addition, the
すると、映像合成装置1は、レンダリング手段7によって、撮影情報と配置情報と三次元CGデータとに基づいて、CG画像をレンダリング(描画)する(S3)。
Then, the
また、映像合成装置1は、立体模型映像部分検出手段9によって、撮影カメラ4から入力された実写映像信号から立体模型が映し出されている映像部分を立体模型映像部分検出信号として、リプレイス手段11に出力する(S4)。
In addition, the
すると、映像合成装置1は、リプレイス手段11によって、立体模型が映し出されている映像部分に、レンダリング手段7で描画したCG画像を置き換えて、合成映像信号(合成映像)として出力する(S5)。
Then, the
(合成映像の例について)
次に、図3を参照して、映像合成装置1で合成して出力した合成映像の例について説明する。図3は、映像合成装置1で合成して出力した合成映像の例を示したものである。
この図3に示すように、人物は、高層ビル等の建築物のCG画像を見ながら(実際には、立体模型を見ながら)、このCG画像を指さす動作をしている。
(Example of composite video)
Next, an example of a synthesized video that is synthesized and output by the
As shown in FIG. 3, the person is pointing to the CG image while looking at the CG image of a building such as a high-rise building (actually while looking at the three-dimensional model).
これによれば、番組等に出演する出演者等の人物は、センサや特殊メガネを装着することなく、簡易に作成された立体模型を見ながら、当該立体模型の特定部分を指し示して動作することができるため、CG画像に対して自然な振る舞い(自然な動作、目線)をすることができる。 According to this, a person such as a performer appearing in a program or the like can operate by pointing to a specific part of the three-dimensional model while wearing a simple three-dimensional model without wearing a sensor or special glasses. Therefore, it is possible to perform a natural behavior (natural operation, line of sight) with respect to the CG image.
また、図4を参照して、映像合成装置1で合成して出力した合成映像の見え方の例について説明する(適宜、図1参照)。
図4(a−1)〜(c−2)は、番組等に出演する出演者等の人物が立体模型の周囲に立った状態で、当該立体模型を指さしながら、見る方向(撮影カメラ4で撮影する方向)を変化させた場合を示している。
In addition, an example of how the synthesized video that is synthesized and output by the
4 (a-1) to 4 (c-2) show a direction in which a person such as a performer appearing in a program stands around the stereoscopic model while pointing to the stereoscopic model (with the photographing camera 4). This shows a case where the shooting direction is changed.
図4(a−1、a−2)において、図4(a−1)は、人物の向かって左方向に「ビル」の立体模型rが位置していることを示している。例えば、当該人物が立体模型rを見ている方向から撮影カメラ4で立体模型rを撮影した場合、撮影カメラ4で立体模型rが撮影された際の当該撮影カメラ4の位置、方向およびズーム量を含む撮影情報と、立体模型が配置された位置を示す配置情報と、立体模型rを造形する際に使用した三次元CGデータとに基づいてCG画像が生成される。そして、このCG画像が実写映像信号に合成される。図4(a−2)は、その結果を、つまり、合成された合成映像(合成映像信号)が映し出されていることを示している。 In FIG. 4 (a-1, a-2), FIG. 4 (a-1) has shown that the three-dimensional model r of "building" is located in the left direction toward a person. For example, when the photographing model 4 is used to photograph the three-dimensional model r from the direction in which the person is looking at the three-dimensional model r, the position, direction, and zoom amount of the photographing camera 4 when the three-dimensional model r is photographed by the photographing camera 4. A CG image is generated based on the shooting information including the position information indicating the position where the three-dimensional model is arranged, and the three-dimensional CG data used when forming the three-dimensional model r. Then, the CG image is combined with the actual video signal. FIG. 4A-2 shows the result, that is, that the synthesized video (synthesized video signal) is displayed.
また、図4(b−1、b−2)において、図4(b−1)は、人物の正面に「ビル」の立体模型rが位置していることを示している。例えば、当該人物が立体模型rを見ている方向から撮影カメラ4で立体模型rを撮影した場合、当該人物の方向から撮影カメラ4で立体模型rが撮影された際の当該撮影カメラ4の位置、方向およびズーム量を含む撮影情報と、立体模型が配置された位置を示す配置情報と、立体模型rを造形する際に使用した三次元CGデータとに基づいてCG画像が生成される。そして、このCG画像が実写映像信号に合成される。図4(b−2)は、その結果を、つまり、合成された合成映像(合成映像信号)が映し出されていることを示している。 4 (b-1, b-2), FIG. 4 (b-1) shows that the three-dimensional model r of “building” is located in front of the person. For example, when the 3D model r is shot with the shooting camera 4 from the direction in which the person is looking at the 3D model r, the position of the shooting camera 4 when the 3D model r is shot with the shooting camera 4 from the direction of the person. A CG image is generated based on the photographing information including the direction and the zoom amount, the arrangement information indicating the position where the three-dimensional model is arranged, and the three-dimensional CG data used when the three-dimensional model r is formed. Then, the CG image is combined with the actual video signal. FIG. 4B-2 shows the result, that is, that a synthesized video image (synthesized video signal) is displayed.
さらに、図4(c−1、c−2)において、図4(c−1)は、人物の向かって右方向に「ビル」の立体模型rが位置していることを示している。例えば、当該人物が立体模型rを見ている方向から撮影カメラ4で立体模型rを撮影した場合、撮影カメラ4で立体模型rが撮影された際の当該撮影カメラ4の位置、方向およびズーム量を含む撮影情報と、立体模型が配置された位置を示す配置情報と、立体模型rを造形する際に使用した三次元CGデータとに基づいてCG画像が生成される。そして、このCG画像が実写映像信号に合成される。図4(c−2)は、その結果を、つまり、合成された合成映像(合成映像信号)が映し出されていることを示している。 Further, in FIG. 4 (c-1, c-2), FIG. 4 (c-1) shows that the three-dimensional model r of “building” is located in the right direction toward the person. For example, when the photographing model 4 is used to photograph the three-dimensional model r from the direction in which the person is looking at the three-dimensional model r, the position, direction, and zoom amount of the photographing camera 4 when the three-dimensional model r is photographed by the photographing camera 4. A CG image is generated based on the shooting information including the position information indicating the position where the three-dimensional model is arranged, and the three-dimensional CG data used when forming the three-dimensional model r. Then, the CG image is combined with the actual video signal. FIG. 4C-2 shows the result, that is, that the synthesized video (synthesized video signal) is displayed.
また、図4(d)は、立体模型rと人物との位置関係を示しており、(a)が図4(a−1)に示した人物の位置を示しており、(b)が図4(b−1)に示した人物の位置を示しており、(c)が図4(c−1)に示した人物の位置を示している。すなわち、時々刻々と、撮影カメラ4の位置、方向およびズーム量が変化したときに、生成されるCG画像が追従して変化することを示している。 4D shows the positional relationship between the three-dimensional model r and the person, FIG. 4A shows the position of the person shown in FIG. 4A-1, and FIG. 4 (b-1) shows the position of the person, and (c) shows the position of the person shown in FIG. 4 (c-1). That is, when the position, direction, and zoom amount of the photographing camera 4 change from moment to moment, the generated CG image changes following the change.
つまり、映像合成装置1では、センサ6から入力される撮影カメラ4の位置、方向およびズーム量を含む撮影情報にあわせて、レンダリング手段7によって、描画させるCG画像を逐次変化させることになり、リプレイス手段11で合成させる合成映像信号も逐次変化させることができる。
That is, in the
以上、本発明の実施形態について説明したが、本発明は前記実施形態には限定されない。例えば、本実施形態では、映像合成装置1として説明したが、この映像合成装置1の各構成の処理を汎用的な(特殊なアセンブラ言語であってもよい)コンピュータ言語で記述した映像合成プログラムとみなすことは可能である。この場合、映像合成装置1と同様の効果を得ることができる。
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment. For example, in the present embodiment, the
1 映像合成装置
2 立体模型造形装置(立体模型造形手段)
3 三次元CGデータ蓄積手段
4 撮影カメラ(撮影手段)
5 三次元CGデータ出力制御手段(三次元CGデータ出力手段)
6 センサ(撮影情報取得手段)
7 レンダリング手段
9 立体模型映像部分検出手段
11 リプレイス手段
A 映像合成システム
r 立体模型
DESCRIPTION OF
3 Three-dimensional CG data storage means 4 Photographing camera (photographing means)
5 3D CG data output control means (3D CG data output means)
6 sensor (photographing information acquisition means)
7 Rendering means 9 Three-dimensional model image partial detection means 11 Replacement means A Image composition system r Three-dimensional model
Claims (4)
前記三次元CGデータを蓄積している三次元CGデータ蓄積手段と、
この三次元CGデータ蓄積手段に蓄積されている三次元CGデータを前記立体模型造形手段に出力させる三次元CGデータ出力手段と、
前記撮影手段の位置、方向およびズーム量を含む撮影情報と、前記立体模型が配置されている位置を示す配置情報と、前記三次元CGデータ蓄積手段に蓄積されている三次元CGデータとに基づいて、前記CG画像を描画するレンダリング手段と、
前記映像内の前記立体模型の映し出されている映像部分を検出する立体模型映像部分検出手段と、
この立体模型映像部分検出手段によって検出された映像部分に前記レンダリング手段によって描画されたCG画像を置き換えて出力するリプレイス手段と、
を備えることを特徴とする映像合成装置。 In the image where the 3D model is projected in the image of the 3D model modeled by the 3D model modeling means and the person who explains using the 3D model by the shooting means. , A video synthesizing device that replaces and outputs a CG image drawn according to the three-dimensional CG data,
3D CG data storage means for storing the 3D CG data;
Three-dimensional CG data output means for outputting the three-dimensional CG data stored in the three-dimensional CG data storage means to the three-dimensional model shaping means;
Based on photographing information including the position, direction and zoom amount of the photographing means, arrangement information indicating a position where the three-dimensional model is arranged, and three-dimensional CG data accumulated in the three-dimensional CG data accumulating means. Rendering means for rendering the CG image;
A three-dimensional model video part detecting means for detecting a video part in which the three-dimensional model is projected in the video;
A replacement means for replacing the CG image drawn by the rendering means with the video portion detected by the three-dimensional model video portion detection means;
A video synthesizing apparatus comprising:
前記三次元CGデータを蓄積している三次元CGデータ蓄積手段から前記立体模型造形手段に前記三次元CGデータを出力させる三次元CGデータ出力手段、
前記撮影手段の位置、方向およびズーム量を含む撮影情報と、前記立体模型が配置されている位置を示す配置情報と、前記三次元CGデータとに基づいて、前記CG画像を描画するレンダリング手段、
前記映像内の前記立体模型の映し出されている映像部分を検出する立体模型映像部分検出手段、
この立体模型映像部分検出手段によって検出された映像部分に前記レンダリング手段によって描画されたCG画像を置き換えて出力するリプレイス手段、
として機能させることを特徴とする映像合成プログラム。 In the image where the 3D model is projected in the image of the 3D model modeled by the 3D model modeling means and the person who explains using the 3D model by the shooting means. In order to replace and output the CG image drawn according to the three-dimensional CG data,
Three-dimensional CG data output means for outputting the three-dimensional CG data from the three-dimensional CG data storage means for storing the three-dimensional CG data to the three-dimensional model shaping means;
Rendering means for rendering the CG image based on shooting information including the position, direction and zoom amount of the shooting means, arrangement information indicating the position where the three-dimensional model is arranged, and the three-dimensional CG data;
3D model image part detecting means for detecting an image part of the 3D model projected in the image;
Replacing means for replacing the CG image drawn by the rendering means with the video portion detected by the three-dimensional model video portion detecting means;
A video composition program characterized by functioning as
前記三次元CGデータを蓄積している三次元CGデータ蓄積手段と、
この三次元CGデータ蓄積手段に蓄積されている三次元CGデータを出力させる三次元CGデータ出力手段と、
この三次元CGデータ出力手段によって出力された三次元CGデータに従って前記立体模型を造形する立体模型造形手段と、
前記撮影手段の位置、方向およびズーム量を含む撮影情報を取得する撮影情報取得手段と、
この撮影情報取得手段によって取得された撮影情報と、前記立体模型が配置されている位置を示す配置情報と、前記三次元CGデータ蓄積手段に蓄積されている三次元CGデータとに基づいて、前記CG画像を描画するレンダリング手段と、
前記映像内の前記立体模型の映し出されている映像部分を検出する立体模型映像部分検出手段と、
この立体模型映像部分検出手段によって検出された映像部分に前記レンダリング手段によって描画されたCG画像を置き換えて出力するリプレイス手段と、
を備えることを特徴とする映像合成システム。 Replace the CG image drawn in accordance with the 3D CG data in the video image of the 3D model in the video of the 3D model and the person who will explain using the 3D model. An image composition system for output,
3D CG data storage means for storing the 3D CG data;
Three-dimensional CG data output means for outputting the three-dimensional CG data stored in the three-dimensional CG data storage means;
Three-dimensional model modeling means for modeling the three-dimensional model according to the three-dimensional CG data output by the three-dimensional CG data output means;
Shooting information acquisition means for acquiring shooting information including the position, direction and zoom amount of the shooting means;
Based on the shooting information acquired by the shooting information acquisition means, the arrangement information indicating the position where the three-dimensional model is arranged, and the three-dimensional CG data stored in the three-dimensional CG data storage means, Rendering means for rendering a CG image;
A three-dimensional model video part detecting means for detecting a video part in which the three-dimensional model is projected in the video;
A replacement means for replacing the CG image drawn by the rendering means with the video portion detected by the three-dimensional model video portion detection means;
A video synthesizing system comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004058875A JP2005250748A (en) | 2004-03-03 | 2004-03-03 | Video composition device, video composition program, and video composition system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004058875A JP2005250748A (en) | 2004-03-03 | 2004-03-03 | Video composition device, video composition program, and video composition system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005250748A true JP2005250748A (en) | 2005-09-15 |
Family
ID=35031182
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004058875A Pending JP2005250748A (en) | 2004-03-03 | 2004-03-03 | Video composition device, video composition program, and video composition system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005250748A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009140296A (en) * | 2007-12-07 | 2009-06-25 | Canon Inc | Image processing apparatus and image processing method |
| WO2009157152A1 (en) * | 2008-06-23 | 2009-12-30 | パナソニック株式会社 | Synthesis device and synthesis method |
| CN109168028A (en) * | 2018-11-06 | 2019-01-08 | 北京达佳互联信息技术有限公司 | Video generation method, device, server and storage medium |
| JP2022131778A (en) * | 2021-02-26 | 2022-09-07 | キヤノン株式会社 | Information processing device, information processing method, and program |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06176131A (en) * | 1992-12-03 | 1994-06-24 | Namco Ltd | Picture synthesis device and virtual reality device using the same |
| JP2000326052A (en) * | 1999-05-19 | 2000-11-28 | Hitachi Ltd | Three-dimensional article manufacturing method and three-dimensional article manufacturing apparatus |
| JP2000352960A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Mixed reality image effect adding apparatus, image processing method for effect addition, and program storage medium |
| JP2001195601A (en) * | 2000-01-13 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | Device and method for presenting composite reality and storage medium |
| JP2002312810A (en) * | 2002-03-11 | 2002-10-25 | Hitachi Ltd | Synthetic moving image generating apparatus and synthetic moving image generating method |
-
2004
- 2004-03-03 JP JP2004058875A patent/JP2005250748A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06176131A (en) * | 1992-12-03 | 1994-06-24 | Namco Ltd | Picture synthesis device and virtual reality device using the same |
| JP2000326052A (en) * | 1999-05-19 | 2000-11-28 | Hitachi Ltd | Three-dimensional article manufacturing method and three-dimensional article manufacturing apparatus |
| JP2000352960A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Mixed reality image effect adding apparatus, image processing method for effect addition, and program storage medium |
| JP2001195601A (en) * | 2000-01-13 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | Device and method for presenting composite reality and storage medium |
| JP2002312810A (en) * | 2002-03-11 | 2002-10-25 | Hitachi Ltd | Synthetic moving image generating apparatus and synthetic moving image generating method |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009140296A (en) * | 2007-12-07 | 2009-06-25 | Canon Inc | Image processing apparatus and image processing method |
| WO2009157152A1 (en) * | 2008-06-23 | 2009-12-30 | パナソニック株式会社 | Synthesis device and synthesis method |
| JP5214730B2 (en) * | 2008-06-23 | 2013-06-19 | パナソニック株式会社 | Synthesizer and synthesis method |
| CN109168028A (en) * | 2018-11-06 | 2019-01-08 | 北京达佳互联信息技术有限公司 | Video generation method, device, server and storage medium |
| CN109168028B (en) * | 2018-11-06 | 2022-11-22 | 北京达佳互联信息技术有限公司 | Video generation method, device, server and storage medium |
| JP2022131778A (en) * | 2021-02-26 | 2022-09-07 | キヤノン株式会社 | Information processing device, information processing method, and program |
| JP7672842B2 (en) | 2021-02-26 | 2025-05-08 | キヤノン株式会社 | Information processing device, information processing method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7068562B2 (en) | Techniques for recording augmented reality data | |
| EP3712840B1 (en) | Method and system for generating an image of a subject in a scene | |
| JP6340017B2 (en) | An imaging system that synthesizes a subject and a three-dimensional virtual space in real time | |
| JP7119425B2 (en) | Image processing device, encoding device, decoding device, image processing method, program, encoding method and decoding method | |
| US8963943B2 (en) | Three-dimensional urban modeling apparatus and method | |
| US7782320B2 (en) | Information processing method and information processing apparatus | |
| US20130215229A1 (en) | Real-time compositing of live recording-based and computer graphics-based media streams | |
| US20130113701A1 (en) | Image generation device | |
| JP7403256B2 (en) | Video presentation device and program | |
| JP7313811B2 (en) | Image processing device, image processing method, and program | |
| JP2005250748A (en) | Video composition device, video composition program, and video composition system | |
| KR101752691B1 (en) | Apparatus and method for providing virtual 3d contents animation where view selection is possible | |
| CN102118576B (en) | Method and device for color key synthesis in virtual sports system | |
| JP4366165B2 (en) | Image display apparatus and method, and storage medium | |
| JP2022179583A (en) | 3DAR content creation device, 3DAR content playback device, and 3DAR content creation system | |
| JP5647813B2 (en) | Video presentation system, program, and recording medium | |
| JP2005063004A (en) | Mixed reality system | |
| JP2003296758A (en) | Information processing method and apparatus | |
| JP2007078851A (en) | Photographing position setup system of camera position capable of feeling 3d space, and automatic forming system for resultant image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060328 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080805 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081202 |