+

WO2018167844A1 - Head-up display device and image display method thereof - Google Patents

Head-up display device and image display method thereof Download PDF

Info

Publication number
WO2018167844A1
WO2018167844A1 PCT/JP2017/010206 JP2017010206W WO2018167844A1 WO 2018167844 A1 WO2018167844 A1 WO 2018167844A1 JP 2017010206 W JP2017010206 W JP 2017010206W WO 2018167844 A1 WO2018167844 A1 WO 2018167844A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
vehicle
display device
space
image
Prior art date
Application number
PCT/JP2017/010206
Other languages
French (fr)
Japanese (ja)
Inventor
望 下田
裕司 藤田
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to PCT/JP2017/010206 priority Critical patent/WO2018167844A1/en
Publication of WO2018167844A1 publication Critical patent/WO2018167844A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output

Definitions

  • the present invention relates to a technology for a head-up display device, and more particularly to a technology effective when applied to a head-up display device capable of mapping and displaying a destination guidance object on a road using AR (Augmented Reality). is there.
  • HUD head-up display
  • Patent Document 1 when displaying a distance scale on a HUD, the travel point information that the host vehicle is currently traveling from the map data of the navigation device, and the host vehicle Information on the planned travel point where the vehicle will travel, and based on this information, obtain the inclination angle of the road on which the vehicle travels, and use the correction coefficient according to the inclination angle to display the distance scale from the ground. It is described that the image is corrected and displayed.
  • HUD projects the image on a windshield or combiner to make the video image recognized by the driver as a virtual image outside the vehicle.
  • a so-called AR function that makes it possible to show information related to an object or the like to the driver by displaying a virtual image superimposed on an actual scenery (space) outside the vehicle seen through a windshield or combiner.
  • AR-HUD a HUD that realizes
  • a method and an apparatus capable of superimposing and displaying a virtual image in conformity with an actual space according to the traveling state of the vehicle, for example, a destination guidance object
  • An excellent head-up display device capable of natural display suitable for the foreground situation and an image display method therefor are provided, particularly when an object is displayed three-dimensionally in a display space as indicated by arrows).
  • a head-up display device projects a display object image onto a windshield or combiner of a vehicle, thereby providing a virtual image of the display object in a space in front of the vehicle to a driver.
  • a head-up display device that displays various vehicle information that can be detected by the vehicle, and based on the vehicle information acquired by the vehicle information acquisition unit, in the space
  • a control unit that controls display of the display object; and an image display device that forms the display object based on an instruction from the control unit.
  • the vehicle information acquisition unit includes a front space of the vehicle. Spatial depth input means for inputting the depth information, and the control unit, based on the spatial depth information,
  • a head-up display apparatus having a function of controlling a part of display of the display object to be displayed on the serial space.
  • the image display method of the head-up display device includes various types of vehicles that can be detected by the vehicle, including vehicle front image input means for inputting depth information of the front space of the vehicle.
  • vehicle information acquisition unit that acquires information
  • control unit that controls display of a display object based on the vehicle information acquired by the vehicle information acquisition unit, and the display object that is formed based on an instruction from the control unit
  • a head-up display device that displays a virtual image superimposed on the scenery ahead of the vehicle by projecting the display object onto a windshield or combiner of the vehicle
  • An image display method according to claim 1, wherein a display of a part of the display object to be displayed in the space is input to the vehicle front image.
  • An image display method of control based on the depth information of the space from the stage.
  • a natural display suitable for the foreground situation can be obtained even when an object is displayed three-dimensionally in the display space, such as a destination guidance object indicating the traveling direction of the vehicle. And an image display method therefor are provided.
  • a drawing buffer for example, a color buffer
  • FIG. 13 and FIG. 14 show a display video change / generation process to be method 2 and an explanatory diagram thereof.
  • this method 2 comparison is made for each pixel, and if there is a hidden pixel, the color information of the corresponding pixel in the drawing buffer is set to “0” and deleted.
  • FIG. 19 shows the contents of the display video change / generation process when this function extension 3 is combined with the above method 1. That is, the foreground depth map is converted into the Z buffer format (spatial Z buffer), and then the drawing-required area is initialized. The subsequent processing is the same as in the above-described method 1, and is described in detail here. Do not do.
  • the front lane is recognized by the camera, and the own vehicle traveling scheduled area is directly obtained. Or you may acquire the own vehicle travel plan area
  • the object displayed as a virtual image is more suitable for the space in which the virtual image is displayed.
  • a depth (depth) on the display screen such as a destination guidance object (arrow) indicating the traveling direction of the vehicle.
  • a destination guidance object (arrow) indicating the traveling direction of the vehicle.
  • Display distance adjustment mechanism an embodiment provided with a mechanism for displaying an object displayed by the head-up display device by adjusting the display distance will be described.
  • the outline of the head-up display device is the same as described above, and a description thereof will be omitted. Only the characteristic points will be described below.
  • the movable diffuser is used as the mechanism for displaying the object by adjusting the display distance.
  • the present invention is not limited to this example.
  • films with multiple mirrors, movable lenses, dimming mirrors, movable optical filters, comb optical filters, etc. Is available.
  • the present invention made by the present inventor has been specifically described based on the embodiments.
  • the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention. Needless to say.
  • the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Provided are an excellent head-up display device and an image display method thereof in which a natural display suitable for a situation in a space can be achieved even when a display object is displayed three-dimensionally. This head-up display device, which displays a virtual image of a display object for a driver in a space in front of a vehicle by projecting an image of the display object in front of the vehicle, is provided with: a vehicle information acquisition unit for acquiring various kinds of vehicle information which can be detected by the vehicle; a control unit for controlling the displaying of the display object in the space on the basis of the vehicle information acquired by the vehicle information acquisition unit; and an image display device for forming the display object on the basis of an instruction from the control unit, wherein the vehicle information acquisition unit includes a space depth input means for inputting depth information on a front space of the vehicle, and the control unit has a function of controlling the displaying of a part of the display object displayed in the space on the basis of the depth information on the space.

Description

ヘッドアップディスプレイ装置とその画像表示方法Head-up display device and image display method thereof
 本発明は、ヘッドアップディスプレイ装置の技術に関し、特に、AR(Augmented Reality:拡張現実)を利用して行先案内オブジェクトを道路にマッピング表示可能なヘッドアップディスプレイ装置に適用して有効な技術に関するものである。 The present invention relates to a technology for a head-up display device, and more particularly to a technology effective when applied to a head-up display device capable of mapping and displaying a destination guidance object on a road using AR (Augmented Reality). is there.
 自動車等の車両において、通常は、車速やエンジン回転数などの情報は、ダッシュボード内の計器盤(インパネ)に表示される。また、カーナビゲーションなどの画面は、ダッシュボードに組み込まれ、もしくは、ダッシュボード上に設置されたディスプレイに表示される。運転者がこれらの情報を視認する場合に視線を大きく移動させることが必要となることから、視線の移動量を低減させる技術として、車速等の情報や車両の進行方向の指示等の情報のフロントガラス(ウィンドシールド)に虚像として投射して表示するヘッドアップディスプレイ(Head Up Display、以下では「HUD」と記載する場合がある)が知られている。 In vehicles such as automobiles, information such as vehicle speed and engine speed is usually displayed on an instrument panel in the dashboard. A screen such as a car navigation is incorporated in the dashboard or displayed on a display installed on the dashboard. Since it is necessary to move the line of sight largely when the driver visually recognizes such information, as a technique for reducing the amount of movement of the line of sight, the front of information such as information on the vehicle speed and the direction of the traveling direction of the vehicle is used. 2. Description of the Related Art A head-up display (Head-Up Display, which may be referred to as “HUD” below) that projects and displays a virtual image on glass (wind shield) is known.
 例えば、特開2007-55365号公報(特許文献1)には、HUDに距離スケールを表示する際に、ナビゲーション装置の地図データから、自車両が現在走行している走行地点情報と、自車両が走行するであろう走行予定地点情報とを取得し、これに基づいて自車両が走行する道路の傾斜角度を取得して、傾斜角度に応じた補正係数を用いて距離スケールの地面からの表示高さを補正して表示することが記載されている。 For example, in Japanese Patent Application Laid-Open No. 2007-55365 (Patent Document 1), when displaying a distance scale on a HUD, the travel point information that the host vehicle is currently traveling from the map data of the navigation device, and the host vehicle Information on the planned travel point where the vehicle will travel, and based on this information, obtain the inclination angle of the road on which the vehicle travels, and use the correction coefficient according to the inclination angle to display the distance scale from the ground. It is described that the image is corrected and displayed.
 また、特開2006-7867号公報(特許文献2)には、検出した右左折、加減速などの走行状況に応じて、生成した画像の表示位置を、例えば、左折を検出した場合には左の方向にシフトし、右折を検出した場合には右の方向にシフトする、などのように制御することが記載されている。 Japanese Patent Laid-Open No. 2006-7867 (Patent Document 2) describes the display position of the generated image according to the detected driving situation such as right / left turn, acceleration / deceleration, and the like when left turn is detected. It is described that control is performed such as shifting to the right direction and shifting to the right direction when a right turn is detected.
特開2007-55365号公報JP 2007-55365 A 特開2006-7867号公報JP 2006-7867 A
 HUDは、画像をウィンドシールドまたはコンバイナに投射することで、当該映像を車外における虚像として運転者に認識させるものである。これに対し、ウィンドシールドまたはコンバイナ越しに見える車外の実際の風景(空間)に虚像を重畳させるように表示することで、対象物等に係る情報を運転者に示すことを可能とするいわゆるAR機能を実現するHUD(以下では「AR-HUD」と記載する場合がある)が知られている。このようなAR-HUDにおいても、車両の走行状況等に応じて表示映像の視認性や適切性等を維持するための調整を行う必要がある。 HUD projects the image on a windshield or combiner to make the video image recognized by the driver as a virtual image outside the vehicle. On the other hand, a so-called AR function that makes it possible to show information related to an object or the like to the driver by displaying a virtual image superimposed on an actual scenery (space) outside the vehicle seen through a windshield or combiner. There is known a HUD that realizes (hereinafter, may be referred to as “AR-HUD”). Even in such an AR-HUD, it is necessary to make adjustments for maintaining the visibility and appropriateness of the display image in accordance with the traveling state of the vehicle.
 この点、例えば、上記の特許文献1や2に記載されたような技術を用いることで、車両が走行状況に応じて、表示映像(虚像)の視認性や適切性に与える影響を低減・解消させることが可能である。一方で、これらの技術では、HUDにおける虚像の表示領域内に表示される映像を対象として、その表示位置や表示内容等を走行状況に応じて調整するものである。しかしながら、上記の従来技術では、行先案内などのオブジェクトを道路に重畳して表示する場合、以下の実施の形態においても詳述するような不自然な表示が生じてしまうという課題があった。 In this regard, for example, by using the technology described in Patent Documents 1 and 2 described above, the influence of the vehicle on the visibility and appropriateness of the display image (virtual image) is reduced or eliminated according to the driving situation. It is possible to make it. On the other hand, in these techniques, the display position, display content, and the like are adjusted in accordance with the driving situation for an image displayed in a virtual image display area in the HUD. However, in the above prior art, when an object such as a destination guide is displayed superimposed on a road, there is a problem that an unnatural display as described in detail in the following embodiments occurs.
 そこで本発明では、車両の走行状況に応じて虚像を実際の空間に適合させて重畳して表示することを可能とする方法と装置であって、例えば、車両の進行方向を示す行先案内オブジェクト(矢印)のように、特に、表示空間内にオブジェクトを立体的に表示する場合においても、前景の状況に適合した自然な表示が可能な優れたヘッドアップディスプレイ装置とそのための画像表示方法を提供することを目的とする。なお、本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。 Therefore, in the present invention, there is provided a method and an apparatus capable of superimposing and displaying a virtual image in conformity with an actual space according to the traveling state of the vehicle, for example, a destination guidance object ( An excellent head-up display device capable of natural display suitable for the foreground situation and an image display method therefor are provided, particularly when an object is displayed three-dimensionally in a display space as indicated by arrows). For the purpose. The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.
 本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。 Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.
 本発明の代表的な実施の形態によるヘッドアップディスプレイ装置は、車両のウィンドシールドまたはコンバイナに表示オブジェクトの画像を投射することで、運転者に対して前記車両の前方の空間に前記表示オブジェクトの虚像を表示するヘッドアップディスプレイ装置であって、前記車両が検知することができる各種の車両情報を取得する車両情報取得部と、前記車両情報取得部が取得した前記車両情報に基づいて、前記空間における前記表示オブジェクトの表示を制御する制御部と、前記制御部からの指示に基づいて前記表示オブジェクトを形成する画像表示装置と、を有しており、前記車両情報取得部は、前記車両の前方空間の深度情報を入力する空間深度入力手段を含んでおり、前記制御部は、前記空間の深度情報に基づいて、前記空間内に表示する前記表示オブジェクトの一部の表示を制御する機能を有するヘッドアップディスプレイ装置である。 A head-up display device according to an exemplary embodiment of the present invention projects a display object image onto a windshield or combiner of a vehicle, thereby providing a virtual image of the display object in a space in front of the vehicle to a driver. A head-up display device that displays various vehicle information that can be detected by the vehicle, and based on the vehicle information acquired by the vehicle information acquisition unit, in the space A control unit that controls display of the display object; and an image display device that forms the display object based on an instruction from the control unit. The vehicle information acquisition unit includes a front space of the vehicle. Spatial depth input means for inputting the depth information, and the control unit, based on the spatial depth information, A head-up display apparatus having a function of controlling a part of display of the display object to be displayed on the serial space.
 また、本発明の代表的な実施の形態によるヘッドアップディスプレイ装置の画像表示方法は、車両の前方空間の深度情報を入力する車両前方映像入力手段を含め、車両が検知することができる各種の車両情報を取得する車両情報取得部と、前記車両情報取得部が取得した前記車両情報に基づいて表示オブジェクトの表示を制御する制御部と、前記制御部からの指示に基づいて前記表示オブジェクトを形成する映像表示装置とを有しており、前記車両のウィンドシールドまたはコンバイナに前記表示オブジェクトを投射することで、運転者に対して前記車両の前方の風景に重畳させて虚像を表示するヘッドアップディスプレイ装置の画像表示方法であって、前記空間内に表示する前記表示オブジェクトの一部の表示を、前記車両前方映像入力手段からの前記空間の深度情報に基づいて制御する画像表示方法である。 In addition, the image display method of the head-up display device according to the representative embodiment of the present invention includes various types of vehicles that can be detected by the vehicle, including vehicle front image input means for inputting depth information of the front space of the vehicle. A vehicle information acquisition unit that acquires information, a control unit that controls display of a display object based on the vehicle information acquired by the vehicle information acquisition unit, and the display object that is formed based on an instruction from the control unit A head-up display device that displays a virtual image superimposed on the scenery ahead of the vehicle by projecting the display object onto a windshield or combiner of the vehicle An image display method according to claim 1, wherein a display of a part of the display object to be displayed in the space is input to the vehicle front image. An image display method of control based on the depth information of the space from the stage.
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。即ち、本発明の代表的な実施の形態によれば、車両の進行方向を示す行先案内オブジェクトなど、表示空間内にオブジェクトを立体的に表示する場合においても、前景の状況に適合した自然な表示が可能な優れたヘッドアップディスプレイ装置とそのための画像表示方法を提供される。 Among the inventions disclosed in the present application, effects obtained by typical ones will be briefly described as follows. In other words, according to the representative embodiment of the present invention, a natural display suitable for the foreground situation can be obtained even when an object is displayed three-dimensionally in the display space, such as a destination guidance object indicating the traveling direction of the vehicle. And an image display method therefor are provided.
本発明の一実施の形態におけるヘッドアップディスプレイ装置の動作概念の例について概要を示した図である。It is the figure which showed the outline | summary about the example of the operation | movement concept of the head-up display apparatus in one embodiment of this invention. 本発明の一実施の形態であるヘッドアップディスプレイ装置の全体の構成例について概要を示した機能ブロック図である。It is the functional block diagram which showed the outline | summary about the structural example of the whole head-up display apparatus which is one embodiment of this invention. 本発明の一実施の形態における車両情報の取得に係るハードウェア構成の例について概要を示した図である。It is the figure which showed the outline | summary about the example of the hardware constitutions which concern on acquisition of the vehicle information in one embodiment of this invention. 本発明の一実施の形態におけるヘッドアップディスプレイ装置の構成例について詳細を示した機能ブロック図である。It is the functional block diagram which showed the detail about the structural example of the head-up display apparatus in one embodiment of this invention. 本発明の一実施の形態における初期動作の例について概要を示したフローチャートである。It is the flowchart which showed the outline | summary about the example of the initial stage operation in one embodiment of this invention. 本発明の一実施の形態における通常動作の例について概要を示したフローチャートである。It is the flowchart which showed the outline | summary about the example of the normal operation | movement in one embodiment of this invention. 本発明の一実施の形態における明るさレベル調整処理の例について概要を示したフローチャートである。It is the flowchart which showed the outline | summary about the example of the brightness level adjustment process in one embodiment of this invention. (a)、(b)は、本発明の一実施の形態において、障害物を考慮しない表示と障害物を考慮した表示を説明する図である。(A), (b) is a figure explaining the display which considered the obstruction and the display which considered the obstruction in one embodiment of this invention. (a)、(b)、(c)は、3D空間における視点から得られるZバッファについて示す図である。(A), (b), (c) is a figure shown about Z buffer obtained from the viewpoint in 3D space. 本発明の一実施の形態において実際に視差マップから深度を計算した深度マップの一例を示す図である。It is a figure which shows an example of the depth map which actually calculated the depth from the parallax map in one embodiment of this invention. 本発明の一実施の形態における方式1の表示映像変更・生成処理の詳細を示したフローチャートである。It is the flowchart which showed the detail of the display image change and production | generation process of the system 1 in one embodiment of this invention. 本発明の一実施の形態における方式1の表示映像変更・生成処理を示した説明図である。It is explanatory drawing which showed the display image change and production | generation process of the system 1 in one embodiment of this invention. 本発明の一実施の形態における方式2の表示映像変更・生成処理の詳細を示したフローチャートである。It is the flowchart which showed the detail of the display image change and production | generation process of the system 2 in one embodiment of this invention. 本発明の一実施の形態における方式2の表示映像変更・生成処理の詳細を示した説明図である。It is explanatory drawing which showed the detail of the display image change and production | generation process of the system 2 in one embodiment of this invention. (a)、(b)は、本発明の描画用Zバッファおよび空間Zバッファを利用した画像表示処理の結果を示す図である。(A), (b) is a figure which shows the result of the image display process using the drawing Z buffer and space Z buffer of this invention. 本発明の一実施の形態における機能拡張1(音声との連動)の内容を示した説明図である。It is explanatory drawing which showed the content of the function expansion 1 (interlocking with an audio | voice) in one embodiment of this invention. (a)、(b)は、本発明の一実施の形態における機能拡張2(深度マップのON/OFF機能)の内容を示した説明図である。(A), (b) is explanatory drawing which showed the content of the function expansion 2 (ON / OFF function of a depth map) in one embodiment of this invention. 本発明の一実施の形態における機能拡張3(オブジェクトを隠す領域/隠さない領域の定義機能)の内容を示した説明図である。It is explanatory drawing which showed the content of the function extension 3 (area definition function which hides an object / area | region which does not hide) in one embodiment of this invention. 本発明の一実施の形態における機能拡張3を上記の方式1と組み合わせる場合の表示映像変更・生成処理を示した説明図である。It is explanatory drawing which showed the display video change and production | generation process in the case of combining the function expansion 3 in one embodiment of this invention with said system 1. FIG. 本発明の一実施の形態における機能拡張3を上記の方式2と組み合わせる場合の表示映像変更・生成処理を示した説明図である。It is explanatory drawing which showed the display image change and production | generation process in the case of combining the function expansion 3 in one embodiment of this invention with said system 2. FIG. 本発明の一実施の形態における機能拡張5(輝度変更機能)の内容を示した説明図である。It is explanatory drawing which showed the content of the function expansion 5 (luminance change function) in one embodiment of this invention. 本発明の一実施の形態における機能拡張6(色度変更機能)の内容を示した説明図である。It is explanatory drawing which showed the content of the function expansion 6 (chromaticity change function) in one embodiment of this invention. 本発明の一実施の形態における描画必須領域の変形例の内容を示した説明図である。It is explanatory drawing which showed the content of the modification of the drawing essential area | region in one embodiment of this invention. 本発明の他の実施の形態における表示距離調整の動作概念について示した図である。It is the figure shown about the operation | movement concept of the display distance adjustment in other embodiment of this invention. 本発明の他の実施の形態における表示距離調整に係るハードウェア構成の例について示した図である。It is the figure shown about the example of the hardware constitutions which concern on the display distance adjustment in other embodiment of this invention.
 以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。一方で、ある図において符号を付して説明した部位について、他の図の説明の際に再度の図示はしないが同一の符号を付して言及する場合がある。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiment, and the repetitive description thereof will be omitted. On the other hand, parts described with reference numerals in some drawings may be referred to with the same reference numerals although not illustrated again in the description of other drawings.
 (実施例1)
 本発明になる画像の表示方法の説明に先立ち、まず、本発明が適用されるヘッドアップディスプレイ装置の概要について以下に説明する。
Example 1
Prior to the description of the image display method according to the present invention, first, an outline of a head-up display device to which the present invention is applied will be described below.
 図1は、本発明の一実施の形態(実施例1)であるヘッドアップディスプレイ装置の動作概念の例について概要を示した図である。本実施の形態のAR-HUD1では、プロジェクタやLCD(Liquid Crystal Display)などからなる映像表示装置30に表示された映像を、ミラー51やミラー52(例えば、自由曲面ミラーや光軸非対称の形状を有するミラー等)により反射させて、車両2のウィンドシールド3に投射する。 FIG. 1 is a diagram showing an outline of an example of an operation concept of a head-up display device according to an embodiment of the present invention (Example 1). In the AR-HUD 1 of the present embodiment, an image displayed on the image display device 30 such as a projector or an LCD (Liquid Crystal Display) is converted into a mirror 51 or a mirror 52 (for example, a free-form surface mirror or an optical axis asymmetric shape). And is projected onto the windshield 3 of the vehicle 2.
 運転者5は、ウィンドシールド3に投射された映像を見ることで、透明のウィンドシールド3を通してその前方に虚像として上記映像を視認する。本実施の形態では、ミラー52の角度を調整することで、映像をウィンドシールド3に投射する位置を調整することにより、運転者5が見る虚像の表示位置を上下方向に調整することが可能である。そして、虚像を車外の風景(道路や建物、人等)に重畳させるようにその表示位置や表示距離を調整することで、AR機能を実現する。 The driver 5 views the image projected as a virtual image in front of the transparent windshield 3 by viewing the image projected on the windshield 3. In the present embodiment, the display position of the virtual image seen by the driver 5 can be adjusted in the vertical direction by adjusting the position of the image projected onto the windshield 3 by adjusting the angle of the mirror 52. is there. Then, the AR function is realized by adjusting the display position and the display distance so that the virtual image is superimposed on the scenery outside the vehicle (roads, buildings, people, etc.).
 ここで、被投射部材はウィンドシールド3に限られず、映像が投射される部材であれば、コンバイナなど他の部材とすることができる。また、映像表示装置30は、例えば、バックライトを有するプロジェクタやLCD(Liquid Crystal Display)等により構成される。自発光型のVFD(Vacuum Fluorescent Display)等であってもよい。 Here, the member to be projected is not limited to the windshield 3 and may be another member such as a combiner as long as the image is projected. The video display device 30 is configured by, for example, a projector having a backlight, an LCD (Liquid Crystal Display), or the like. A self-luminous VFD (Vacuum Fluorescent Display) or the like may be used.
 図2は、本発明の一実施の形態であるヘッドアップディスプレイ装置の全体の構成例についての概要を示した機能ブロック図である。車両2に搭載されたAR-HUD1は、例えば、車両情報取得部10、制御部20、映像表示装置30、表示距離調整機構40、ミラー駆動部50、ミラー52、およびスピーカ60からなる。なお、図2の例では、車両2の形状を乗用車のように表示しているが、特にこれに限られず、車両一般に適宜適用することができる。 FIG. 2 is a functional block diagram showing an outline of an overall configuration example of the head-up display device according to the embodiment of the present invention. The AR-HUD 1 mounted on the vehicle 2 includes, for example, a vehicle information acquisition unit 10, a control unit 20, a video display device 30, a display distance adjustment mechanism 40, a mirror driving unit 50, a mirror 52, and a speaker 60. In the example of FIG. 2, the shape of the vehicle 2 is displayed like a passenger car. However, the shape is not limited to this, and can be applied as appropriate to general vehicles.
 車両情報取得部10は、車両2の各部に設置された後述するような各種のセンサ等の情報取得デバイスからなり、車両2で生じた各種イベントを検知したり、所定の間隔で走行状況に係る各種パラメータの値を検知・取得したりすることで車両情報4を取得して出力する。車両情報4には、図示するように、例えば、車両2の速度情報やギア情報、ハンドル操舵角情報、ランプ点灯情報、外光情報、距離情報、赤外線情報、エンジンON/OFF情報、カメラ映像情報(車内/車外)、加速度ジャイロ情報、GPS(Global Positioning System)情報、ナビゲーション情報、車車間通信情報、および路車間通信情報などが含まれ得る。 The vehicle information acquisition unit 10 includes information acquisition devices such as various sensors, which will be described later, installed in each part of the vehicle 2, detects various events occurring in the vehicle 2, and relates to the driving situation at predetermined intervals. The vehicle information 4 is acquired and output by detecting and acquiring values of various parameters. The vehicle information 4 includes, for example, speed information, gear information, steering wheel steering angle information, lamp lighting information, external light information, distance information, infrared information, engine ON / OFF information, and camera video information of the vehicle 2 as illustrated. (Inside / outside the vehicle), acceleration gyro information, GPS (Global Positioning System) information, navigation information, vehicle-to-vehicle communication information, road-to-vehicle communication information, and the like may be included.
 制御部20は、AR-HUD1の動作を制御する機能を有し、例えば、CPU(Central Processing Unit)とこれにより実行されるソフトウェアにより実装される。マイコンやFPGA(Field Programmable Gate Array)などのハードウェアにより実装されていてもよい。制御部20は、図2にも示したように、車両情報取得部10から取得した車両情報4等に基づいて、虚像として表示する映像を映像表示装置30を駆動して形成し、これをミラー52等によって適宜反射させることでウィンドシールド3に投射する。そして、後述するような手法により、虚像の表示領域の表示位置を調整したり、虚像の表示距離を調整したり等の制御を行う。 The control unit 20 has a function of controlling the operation of the AR-HUD 1, and is implemented by, for example, a CPU (Central Processing Unit) and software executed thereby. It may be implemented by hardware such as a microcomputer or FPGA (Field Programmable Gate Gate Array). As shown in FIG. 2, the control unit 20 drives the video display device 30 to form an image to be displayed as a virtual image based on the vehicle information 4 acquired from the vehicle information acquisition unit 10, and this is mirrored. The light is projected onto the windshield 3 by being appropriately reflected by 52 or the like. Then, control such as adjusting the display position of the virtual image display area or adjusting the display distance of the virtual image is performed by a method described later.
 映像表示装置30は、上述したように、例えば、プロジェクタやLCDにより構成されるデバイスであり、制御部20からの指示に基づいて虚像を表示するための映像を形成してこれを投射したり表示したりする。表示距離調整機構40は、制御部20からの指示に基づいて、表示される虚像の運転者5からの距離を調整するための機構である。 As described above, the video display device 30 is a device configured by, for example, a projector or an LCD, and forms a video for displaying a virtual image based on an instruction from the control unit 20 and projects or displays the video. To do. The display distance adjustment mechanism 40 is a mechanism for adjusting the distance of the displayed virtual image from the driver 5 based on an instruction from the control unit 20.
 ミラー駆動部50は、制御部20からの指示に基づいてミラー52の角度を調整し、虚像の表示領域の位置を上下方向に調整する。虚像の表示領域の位置の調整については後述する。スピーカ60は、AR-HUD1に係る音声出力を行う。例えば、ナビゲーションシステムの音声案内や、AR機能によって運転者5に警告等を通知する際の音声出力等を行うことができる。 The mirror driving unit 50 adjusts the angle of the mirror 52 based on an instruction from the control unit 20 and adjusts the position of the virtual image display area in the vertical direction. The adjustment of the position of the virtual image display area will be described later. The speaker 60 performs audio output related to the AR-HUD1. For example, voice guidance of the navigation system, voice output when notifying the driver 5 by the AR function, etc. can be performed.
 図3は、本実施の形態のヘッドアップディスプレイ装置における車両情報4の取得に係るハードウェア構成の例について概要を示した図である。ここでは主に車両情報取得部10および制御部20の一部のハードウェア構成について示す。車両情報4の取得は、例えば、ECU(Electronic Control Unit)21の制御の下、ECU21に接続された各種のセンサ等の情報取得デバイスにより行われる。 FIG. 3 is a diagram showing an outline of an example of a hardware configuration related to acquisition of the vehicle information 4 in the head-up display device of the present embodiment. Here, a part of the hardware configuration of the vehicle information acquisition unit 10 and the control unit 20 will be mainly shown. The vehicle information 4 is acquired by an information acquisition device such as various sensors connected to the ECU 21 under the control of an ECU (Electronic Control Unit) 21, for example.
 これらの情報取得デバイスとして、例えば、車速センサ101、シフトポジションセンサ102、ハンドル操舵角センサ103、ヘッドライトセンサ104、照度センサ105、色度センサ106、測距センサ107、赤外線センサ108、エンジン始動センサ109、加速度センサ110、ジャイロセンサ111、温度センサ112、路車間通信用無線受信機113、車車間通信用無線受信機114、カメラ(車内)115、カメラ(車外)116、GPS受信機117、およびVICS(Vehicle Information and Communication System:道路交通情報通信システム、登録商標(以下同様))受信機118などの各デバイスを有する。必ずしもこれら全てのデバイスを備えている必要はなく、また、他の種類のデバイスを備えていてもよい。備えているデバイスによって取得できる車両情報4を適宜用いることができる。 As these information acquisition devices, for example, a vehicle speed sensor 101, a shift position sensor 102, a steering wheel steering angle sensor 103, a headlight sensor 104, an illuminance sensor 105, a chromaticity sensor 106, a distance measuring sensor 107, an infrared sensor 108, an engine start sensor 109, acceleration sensor 110, gyro sensor 111, temperature sensor 112, road-to-vehicle communication wireless receiver 113, vehicle-to-vehicle communication wireless receiver 114, camera (inside the vehicle) 115, camera (outside the vehicle) 116, GPS receiver 117, and Each device includes a VICS (Vehicle Information and Communication System: a road traffic information communication system, registered trademark (hereinafter the same)) receiver 118 and the like. It is not always necessary to include all these devices, and other types of devices may be included. The vehicle information 4 that can be acquired by the provided device can be used as appropriate.
 車速センサ101は、車両2の速度情報を取得する。シフトポジションセンサ102は、車両2の現在のギア情報を取得する。ハンドル操舵角センサ103は、ハンドル操舵角情報を取得する。ヘッドライトセンサ104は、ヘッドライトのON/OFFに係るランプ点灯情報を取得する。照度センサ105および色度センサ106は、外光情報を取得する。測距センサ107は、車両2と外部の物体との間の距離情報を取得する。赤外線センサ108は、車両2の近距離における物体の有無や距離等に係る赤外線情報を取得する。エンジン始動センサ109は、エンジンON/OFF情報を検知する。 The vehicle speed sensor 101 acquires speed information of the vehicle 2. The shift position sensor 102 acquires current gear information of the vehicle 2. The steering wheel angle sensor 103 acquires steering wheel angle information. The headlight sensor 104 acquires lamp lighting information related to ON / OFF of the headlight. The illuminance sensor 105 and the chromaticity sensor 106 acquire external light information. The distance measuring sensor 107 acquires distance information between the vehicle 2 and an external object. The infrared sensor 108 acquires infrared information related to the presence / absence and distance of an object at a short distance of the vehicle 2. The engine start sensor 109 detects engine ON / OFF information.
 加速度センサ110およびジャイロセンサ111は、車両2の姿勢や挙動の情報として、加速度や角速度からなる加速度ジャイロ情報を取得する。温度センサ112は車内外の温度情報を取得する。路車間通信用無線受信機113および車車間通信用無線受信機114は、それぞれ、車両2と道路や標識、信号等との間の路車間通信により受信した路車間通信情報、および車両2と周辺の他の車両との間の車車間通信により受信した車車間通信情報を取得する。 The acceleration sensor 110 and the gyro sensor 111 acquire acceleration gyro information including acceleration and angular velocity as information on the posture and behavior of the vehicle 2. The temperature sensor 112 acquires temperature information inside and outside the vehicle. The road-to-vehicle communication wireless receiver 113 and the vehicle-to-vehicle communication wireless receiver 114 are respectively road-to-vehicle communication information received by road-to-vehicle communication between the vehicle 2 and roads, signs, signals, etc. The vehicle-to-vehicle communication information received by the vehicle-to-vehicle communication with another vehicle is acquired.
 カメラ(車内)115およびカメラ(車外)116は、それぞれ、車内および車外の状況の動画像を撮影してカメラ映像情報(車内/車外)を取得する。カメラ(車内)115では、例えば、運転者5の姿勢や、眼の位置、動き等を撮影する。得られた動画像を解析することにより、例えば、運転者5の疲労状況や視線の位置などを把握することが可能である。また、カメラ(車外)116では、車両2の前方や後方等の周囲の状況を撮影する。得られた動画像を解析することにより、例えば、周辺の他の車両や人等の移動物の有無、建物や地形、路面状況(雨や積雪、凍結、凹凸等)などを把握することが可能である。 The camera (inside the vehicle) 115 and the camera (outside the vehicle) 116 respectively capture the moving image of the situation inside and outside the vehicle and acquire camera video information (inside / outside the vehicle). The camera (inside the vehicle) 115 captures, for example, the posture of the driver 5, the position of the eyes, the movement, and the like. By analyzing the obtained moving image, it is possible to grasp, for example, the fatigue status of the driver 5 and the position of the line of sight. In addition, the camera (outside the vehicle) 116 captures a situation around the vehicle 2 such as the front or rear. By analyzing the obtained video, for example, it is possible to grasp the presence or absence of moving objects such as other vehicles and people around the building, topography, road surface conditions (rain, snow, freezing, unevenness, etc.) It is.
 GPS受信機117およびVICS受信機118は、それぞれ、GPS信号を受信して得られるGPS情報およびVICS信号を受信して得られるVICS情報を取得する。これらの情報を取得して利用するカーナビゲーションシステムの一部として実装されていてもよい。 The GPS receiver 117 and the VICS receiver 118 obtain GPS information obtained by receiving the GPS signal and VICS information obtained by receiving the VICS signal, respectively. It may be implemented as a part of a car navigation system that acquires and uses these pieces of information.
 図4は、本実施の形態のヘッドアップディスプレイ装置の構成例について詳細を示した機能ブロック図である。図4の例では、映像表示装置30がプロジェクタである場合を示しており、映像表示装置30は、例えば、光源31、照明光学系32、および表示素子33などの各部を有する。光源31は、投射用の照明光を発生する部材であり、例えば、高圧水銀ランプやキセノンランプ、LED(Light Emitting Diode)光源、レーザー光源等を用いることができる。照明光学系32は、光源31で発生した照明光を集光し、より均一化して表示素子33に照射する光学系である。表示素子33は、投射する映像を生成する素子であり、例えば、透過型液晶パネル、反射型液晶パネル、DMD(Digital Micromirror Device)パネル等を用いることができる。 FIG. 4 is a functional block diagram showing details of a configuration example of the head-up display device of the present embodiment. The example of FIG. 4 shows a case where the video display device 30 is a projector, and the video display device 30 includes, for example, each unit such as a light source 31, an illumination optical system 32, and a display element 33. The light source 31 is a member that generates illumination light for projection. For example, a high-pressure mercury lamp, a xenon lamp, an LED (Light-Emitting-Diode) light source, a laser light source, or the like can be used. The illumination optical system 32 is an optical system that collects the illumination light generated by the light source 31 and irradiates the display element 33 with more uniform illumination light. The display element 33 is an element that generates an image to be projected. For example, a transmissive liquid crystal panel, a reflective liquid crystal panel, a DMD (Digital Micromirror Device) panel, or the like can be used.
 制御部20は、より詳細には、ECU21、音声出力部22、不揮発性メモリ23、メモリ24、光源調整部25、歪み補正部26、表示素子駆動部27、表示距離調整部28、およびミラー調整部29などの各部を有する。ECU21は、図3に示したように、車両情報取得部10を介して車両情報4を取得すると共に、取得した情報を必要に応じて不揮発性メモリ23やメモリ24に記録、格納したり読み出したりする。不揮発性メモリ23には、各種制御のための設定値やパラメータなどの設定情報が格納されていてもよい。また、ECU21は、専用のプログラムを実行させる等により、AR-HUD1として表示する虚像に係る映像データを生成する。 More specifically, the control unit 20 includes an ECU 21, an audio output unit 22, a nonvolatile memory 23, a memory 24, a light source adjustment unit 25, a distortion correction unit 26, a display element drive unit 27, a display distance adjustment unit 28, and a mirror adjustment. Each part such as the part 29 is included. As shown in FIG. 3, the ECU 21 acquires the vehicle information 4 via the vehicle information acquisition unit 10, and records, stores, and reads out the acquired information in the nonvolatile memory 23 and the memory 24 as necessary. To do. The nonvolatile memory 23 may store setting information such as setting values and parameters for various controls. Further, the ECU 21 generates video data relating to a virtual image to be displayed as the AR-HUD 1 by executing a dedicated program.
 音声出力部22は、必要に応じてスピーカ60を介して音声情報を出力する。光源調整部25は、映像表示装置30の光源31の発光量を調整する。光源31が複数ある場合にはそれぞれ個別に制御するようにしてもよい。歪み補正部26は、ECU21が生成した映像について、映像表示装置30によって車両2のウィンドシールド3に投射した場合に、ウィンドシールド3の曲率によって生じる映像の歪みを画像処理により補正する。表示素子駆動部27は、歪み補正部26による補正後の映像データに応じた駆動信号を表示素子33に対して送り、投射する映像を生成させる。 The audio output unit 22 outputs audio information via the speaker 60 as necessary. The light source adjustment unit 25 adjusts the light emission amount of the light source 31 of the video display device 30. When there are a plurality of light sources 31, they may be controlled individually. When the video generated by the ECU 21 is projected onto the windshield 3 of the vehicle 2 by the video display device 30, the distortion correction unit 26 corrects the video distortion caused by the curvature of the windshield 3 by image processing. The display element drive unit 27 sends a drive signal corresponding to the video data corrected by the distortion correction unit 26 to the display element 33 to generate an image to be projected.
 ミラー調整部29は、虚像の表示領域自体の位置を調整する必要がある場合に、ミラー駆動部50を介してミラー52の角度を変更し、虚像の表示領域を上下に移動させる。 When the position of the virtual image display area itself needs to be adjusted, the mirror adjustment unit 29 changes the angle of the mirror 52 via the mirror driving unit 50 and moves the virtual image display area up and down.
 <ヘッドアップディスプレイ装置における処理動作>
 図5は、本実施の形態のヘッドアップディスプレイ装置の初期動作の例について概要を示したフローチャートである。停止中の車両2においてイグニッションスイッチがONされることでAR-HUD1の電源がONされると(S01)、AR-HUD1は、制御部20からの指示に基づいて、まず、車両情報取得部10により車両情報を取得する(S02)。そして、制御部20は、車両情報4のうち、照度センサ105や色度センサ106等により取得した外光情報に基づいて好適な明るさレベルを算出し(S03)、光源調整部25により光源31の発光量を制御して、算出した明るさレベルとなるように設定する(S04)。例えば、外光が明るい場合には明るさレベルを高くし、暗い場合には明るさレベルを低く設定する。
<Processing in head-up display device>
FIG. 5 is a flowchart showing an outline of an example of the initial operation of the head-up display device of the present embodiment. When the power of the AR-HUD 1 is turned on by turning on the ignition switch in the vehicle 2 that is stopped (S01), the AR-HUD 1 starts with the vehicle information acquisition unit 10 based on an instruction from the control unit 20. Thus, vehicle information is acquired (S02). Then, the control unit 20 calculates a suitable brightness level based on external light information acquired by the illuminance sensor 105, the chromaticity sensor 106, and the like in the vehicle information 4 (S03), and the light source adjustment unit 25 calculates the light source 31. Is set so that the calculated brightness level is obtained (S04). For example, when the outside light is bright, the brightness level is set high, and when the outside light is dark, the brightness level is set low.
 その後、ECU21により、虚像として表示する映像(例えば、初期画像)を決定、生成し(S05)、生成した映像に対して歪み補正部26により歪みを補正する処理を実施した後(S06)、表示素子駆動部27により表示素子33を駆動・制御して、投射する映像を形成させる(S07)。これにより、映像がウィンドシールド3に投射され、運転者5は虚像を視認することができるようになる。 Thereafter, the ECU 21 determines and generates a video (for example, an initial image) to be displayed as a virtual image (S05), and performs a process of correcting the distortion by the distortion correction unit 26 for the generated video (S06). The display element 33 is driven and controlled by the element driving unit 27 to form a projected image (S07). Thereby, an image | video is projected on the windshield 3, and the driver | operator 5 comes to be able to visually recognize a virtual image.
 AR-HUD1全体で、上述した一連の初期動作も含む各部の起動・始動が完了すると、HUD-ON信号が出力されるが、制御部20ではこの信号を受けたか否かを判定する(S08)。受けていなければ、更にHUD-ON信号を一定時間待ち受け(S09)、ステップS11でHUD-ON信号を受けたと判定されるまで、HUD-ON信号の待ち受け処理(S09)を繰り返す。ステップS11でHUD-ON信号を受けたと判定された場合は、後述するAR-HUD1の通常動作を開始し(S10)、一連の初期動作を終了する。 When the start-up / start-up of each part including the above-described series of initial operations is completed in the entire AR-HUD 1, the HUD-ON signal is output. The control part 20 determines whether or not this signal has been received (S08). . If not received, the HUD-ON signal is further waited for a predetermined time (S09), and the HUD-ON signal waiting process (S09) is repeated until it is determined in step S11 that the HUD-ON signal has been received. If it is determined in step S11 that the HUD-ON signal has been received, normal operation of AR-HUD1 described later is started (S10), and a series of initial operations are terminated.
 図6は、本実施の形態のヘッドアップディスプレイ装置の通常動作の例について概要を示したフローチャートである。通常動作においても、基本的な処理の流れは上述の図5に示した初期動作と概ね同様である。まず、AR-HUD1は、制御部20からの指示に基づいて、車両情報取得部10により車両情報を取得する(S21)。そして、制御部20は、車両情報4のうち、照度センサ105や色度センサ106等により取得した外光情報に基づいて明るさレベル調整処理を行う(S22)。 FIG. 6 is a flowchart showing an outline of an example of normal operation of the head-up display device of the present embodiment. Also in the normal operation, the basic processing flow is substantially the same as the initial operation shown in FIG. First, the AR-HUD 1 acquires vehicle information by the vehicle information acquisition unit 10 based on an instruction from the control unit 20 (S21). And the control part 20 performs a brightness level adjustment process based on the external light information acquired by the illumination intensity sensor 105, the chromaticity sensor 106, etc. among the vehicle information 4 (S22).
 図7は、本実施の形態のヘッドアップディスプレイ装置の明るさレベル調整処理の例について概要を示したフローチャートである。明るさレベル調整処理を開始すると、まず、取得した外光情報に基づいて好適な明るさレベルを算出する(S221)。そして、現状設定されている明るさレベルと比較することにより、明るさレベルの変更の要否を判定する(S222)。変更が不要である場合にはそのまま明るさレベル調整処理を終了する。一方、変更が必要である場合には、光源調整部25により光源31の発光量を制御して、変更後の明るさレベルとなるように設定し(S223)、明るさレベル調整処理を終了する。なお、ステップS222において、ステップS221で算出した好適な明るさレベルと、現状設定されている明るさレベルとの間に差分がある場合でも、差分が所定の閾値以上である場合にのみ明るさレベルの変更が必要であると判定するようにしてもよい。 FIG. 7 is a flowchart showing an outline of an example of brightness level adjustment processing of the head-up display device of the present embodiment. When the brightness level adjustment process is started, first, a suitable brightness level is calculated based on the acquired outside light information (S221). Then, by comparing with the currently set brightness level, it is determined whether or not the brightness level needs to be changed (S222). If no change is necessary, the brightness level adjustment process is terminated. On the other hand, when the change is necessary, the light source adjustment unit 25 controls the light emission amount of the light source 31 to set the brightness level after the change (S223), and the brightness level adjustment process is ended. . In step S222, even when there is a difference between the preferred brightness level calculated in step S221 and the currently set brightness level, the brightness level is only when the difference is equal to or greater than a predetermined threshold. It may be determined that the change is necessary.
 図6に戻り、その後、ECU21により、ステップS21で取得した最新の車両情報4に基づいて、虚像として表示する映像を現状のものから必要に応じて変更し、変更後の映像を決定、生成する(S23)。なお、車両情報4に基づいて表示内容を変更するパターンは、取得した車両情報4の内容やそれらの組み合わせ等に応じて多数のものがあり得る。例えば、速度情報が変化したことにより、常時表示されている速度表示の数値を変更する場合や、ナビゲーション情報に基づいて案内の矢印図形を表示/消去したり、矢印の形状や表示位置等を変更したりする場合など、様々なパターンがあり得る。 Returning to FIG. 6, the video displayed as a virtual image is changed as necessary from the current one based on the latest vehicle information 4 acquired in step S <b> 21, and the changed video is determined and generated. (S23). In addition, the pattern which changes a display content based on the vehicle information 4 can have many things according to the content of the acquired vehicle information 4, those combinations, etc. For example, when the speed information changes, the value of the speed display that is displayed at all times is changed, the guidance arrow graphic is displayed / erased based on the navigation information, and the arrow shape and display position are changed. There may be various patterns, such as when doing.
 その後、本実施の形態では、車両2の走行状況に応じて視認性や表示内容の適切性等を維持するための調整・補正処理を行う。まず、虚像の表示領域自体の位置を調整する必要がある場合に、ミラー駆動部50を介してミラー52の角度を変更し、虚像の表示領域を上下に移動させるミラー調整処理を行う(S24)。その後更に、車両2の振動に対して表示領域内における映像の表示位置を補正する振動補正処理を行う(S25)。 Thereafter, in the present embodiment, adjustment / correction processing is performed to maintain visibility, appropriateness of display contents, and the like according to the traveling state of the vehicle 2. First, when it is necessary to adjust the position of the virtual image display area itself, the mirror adjustment process is performed to change the angle of the mirror 52 via the mirror driving unit 50 and move the virtual image display area up and down (S24). . Thereafter, a vibration correction process for correcting the display position of the image in the display area with respect to the vibration of the vehicle 2 is performed (S25).
 その後、調整・補正した映像に対して歪み補正部26により歪みを補正する処理を実施した後(S26)、表示素子駆動部27により表示素子33を駆動・制御して投射する映像を形成させる(S27)。 Thereafter, the distortion correction unit 26 performs distortion correction processing on the adjusted / corrected image (S26), and then the display element driving unit 27 drives and controls the display element 33 to form a projected image ( S27).
 上述した一連の通常動作を実行している際に、車両2の停止等に伴って電源OFF等がなされると、AR-HUD1に対してHUD-OFF信号が出力されるが、制御部20ではこの信号を受けたか否かを判定する(S28)。HUD-OFF信号を受けていなければ、ステップS21に戻って、HUD-OFF信号を受けるまで一連の通常動作を繰り返す。HUD-OFF信号を受けたと判定された場合は、一連の通常動作を終了する。 When the above-described series of normal operations are being performed, if the power is turned off when the vehicle 2 is stopped or the like, a HUD-OFF signal is output to the AR-HUD 1. It is determined whether or not this signal has been received (S28). If the HUD-OFF signal has not been received, the process returns to step S21, and a series of normal operations are repeated until the HUD-OFF signal is received. If it is determined that the HUD-OFF signal has been received, a series of normal operations is terminated.
 以上に説明したように、上述した構成になるヘッドアップディスプレイ装置では、図2に示す制御部20を構成するECU21において実行される各種の演算処理で使用される情報を格納するメモリ領域の一部を構成する描画バッファ(例えば、カラーバッファ)によれば、虚像を前方の風景(以下、「描画空間」または「空間」)に適切に重畳させてAR機能を実現することが可能となる。 As described above, in the head-up display device configured as described above, a part of the memory area for storing information used in various arithmetic processes executed in the ECU 21 that constitutes the control unit 20 shown in FIG. According to a drawing buffer (for example, a color buffer) constituting the AR function, it is possible to realize an AR function by appropriately superimposing a virtual image on a front landscape (hereinafter, “drawing space” or “space”).
 <深度情報を応用した描画制御>
 一方、上述したヘッドアップディスプレイ装置では、描画されて表示されるオブジェクト(以下、「描画対象」または「表示オブジェクト」とも言う)によっては、虚像をより現実性(リアリティー)をもって自然に表示するため、当該オブジェクトを立体的(3次元的)に表現することが行われる場合がある(3D表現)。その際、例えば、図8(a)にも示すように、描画対象(本例では、行先案内の矢印)を、その手前に建物等の障害物が存在するにもかかわらずそのまま表示した場合には、当該描画対象が空間内の障害物上に表示されることとなる(図中の破線の矩形内に示される矢印に注目)。即ち、この例では、建物と建物の間の道を右に曲がることを示そうとしているが、実際には図示するように、右に曲がる地点よりも手前の建物に矢印が重なって表示されてしまう。このような描画対象は、本来、建物により隠されるべきであるが、障害物上に表示された場合、建物が存在するにもかかわらず右曲りを指示するものとなってしまい、不自然で、運転者の距離感を喪失させてしまうという危険をも生じかねない。
<Drawing control using depth information>
On the other hand, in the above-described head-up display device, depending on an object that is drawn and displayed (hereinafter also referred to as a “drawing target” or a “display object”), a virtual image is naturally displayed with more reality (reality). There are cases where the object is expressed in a three-dimensional (three-dimensional) manner (3D expression). At this time, for example, as shown in FIG. 8A, the drawing target (in this example, a destination guidance arrow) is displayed as it is even though there is an obstacle such as a building in front of it. Indicates that the drawing target is displayed on an obstacle in the space (note the arrow shown in the broken-line rectangle in the figure). In other words, in this example, we are trying to show that the road between buildings is turning to the right, but in fact, as shown in the figure, the arrow is superimposed on the building in front of the point turning to the right. End up. Such a drawing target should originally be hidden by the building, but when displayed on an obstacle, it will indicate a right turn despite the presence of the building, which is unnatural, There is also a risk of losing the driver's sense of distance.
 そこで、本発明では、上述した課題を解消すべく、図8(b)にも示すように、障害物の方が手前にある場合は、障害物によって隠れるべき描画対象は表示しない、または、その表示を抑制するなどの制御可能な映像の表示方法を提供するものである。これによれば、より自然でリアルなオブジェクトの描画が実現され、運転者は距離感を正しく把握することができる。以下、これを実現する方法について詳細に述べる。 Therefore, in the present invention, in order to solve the above-described problem, as shown in FIG. 8B, when the obstacle is in front, the drawing target to be hidden by the obstacle is not displayed, or the The present invention provides a controllable video display method for suppressing display. According to this, drawing of a more natural and realistic object is realized, and the driver can correctly grasp the sense of distance. Hereinafter, a method for realizing this will be described in detail.
 [表示オブジェクトの深度(描画用Zバッファ)]
 以下に詳述する実施の形態では、上記の描画対象の深度を示す情報としては、その一例として、表示オブジェクトである描画対象を3D表現(変換)する際などに用いられ、画素毎に深度情報を持つZバッファ(描画用Zバッファ)を利用することができる。なお、以下には、当該描画用Zバッファを利用して描画を抑止(抑制制御)する場合について述べる。
[Display Object Depth (Z Buffer for Drawing)]
In the embodiment described in detail below, the information indicating the depth of the drawing target is, for example, used when 3D representation (conversion) of the drawing target, which is a display object, and the depth information for each pixel. Z buffer (drawing Z buffer) having In the following, a case where drawing is inhibited (suppressed control) using the drawing Z buffer will be described.
 [前景距離情報(深度マップまたは空間Zバッファ)の取得]
 一方、その一部に上記表示オブジェクトが虚像として表示される空間である車両の前景(以下、単に「空間」とも言う)に存在する障害物と自車までの距離(以下、「深度」と記載する)については、上記図3に示した測距センサ106やカメラ(車外)115を利用し、あるいは、その他のステレオカメラ、更には、カラー開口撮像技術(例えば、https://www.toshiba.co.jp/rdc/detail/1606_01.htmを参照)、赤外線を用いた深度センサ、LiDARなどを用いることにより取得することができる。なお、ステレオカメラを使用する場合、二つの視点から撮影した画像には、被写体の遠近に応じてズレ(以下、「視差」と表記する)がある。この視差の量と深度との間には反比例の関係があるため、視差から深度を求めることが可能となる。なお、視差を画像化したものを視差マップ(disparity map)と呼ぶ。
[Get foreground distance information (depth map or space Z buffer)]
On the other hand, the distance (hereinafter referred to as “depth”) between an obstacle present in the foreground of the vehicle (hereinafter also simply referred to as “space”), which is a space in which the display object is displayed as a virtual image, in part of the vehicle (hereinafter referred to as “depth”) 3), the distance measuring sensor 106 and the camera (outside the vehicle) 115 shown in FIG. 3 are used, or other stereo cameras and color aperture imaging technology (for example, https://www.toshiba. co.jp/rdc/detail/1606_01.htm), a depth sensor using infrared rays, LiDAR, and the like. When a stereo camera is used, an image taken from two viewpoints has a shift (hereinafter referred to as “parallax”) according to the distance of the subject. Since there is an inversely proportional relationship between the amount of parallax and the depth, the depth can be obtained from the parallax. In addition, what imaged parallax is called a parallax map (disparity map).
 本発明では、これらの前景の距離情報(深度マップ)についても、上記の描画用Zバッファと同様の形式に変換して用い、そして、画素毎に深度情報を持つこのZバッファ形式に変換した前景距離情報(深度マップ)は、以下「空間Zバッファ」とも呼ぶ。 In the present invention, these foreground distance information (depth map) is also used after being converted into the same format as the drawing Z buffer, and the foreground converted into this Z buffer format having depth information for each pixel. The distance information (depth map) is hereinafter also referred to as “space Z buffer”.
 そして、本発明の画像表示方法では、矢印である行先案内などの描画対象を投射映像の生成素子である表示素子33(上記図4を参照)に描画する際には、上記描画用Zバッファに加え、必要に応じて、前景距離情報(深度マップ)を格納した上記空間Zバッファをも参照して表示オブジェクトの描画を行う。 In the image display method of the present invention, when drawing a drawing target such as a destination guide as an arrow on the display element 33 (see FIG. 4) as a projection video generation element, the drawing Z buffer is used. In addition, the display object is drawn with reference to the space Z buffer storing the foreground distance information (depth map) as necessary.
 その際、新規の描画対象である表示オブジェクトが前回描画の表示オブジェクトより手前にあるか否かを、描画用Zバッファを参照して判断し、その結果、手前にあれば描画し、他方、後方にあればその描画を行わない。加えて、本発明では、当該描画対象が前景にある障害物より手前にあるか否かを判断し、その結果、前景の深度情報を格納するメモリ領域であり、画素毎に深度情報を持つ上記空間Zバッファを参照して、障害物が手前にあると判定された場合には、当該表示オブジェクトの表示を制御する。具体的には、描画は行わず、または、その色や表現を変える等の抑制処理を行う。 At that time, it is determined by referring to the drawing Z buffer whether or not the display object that is the new drawing object is in front of the display object of the previous drawing. If it is, the drawing is not performed. In addition, in the present invention, it is determined whether or not the drawing target is in front of an obstacle in the foreground, and as a result, the memory area stores the foreground depth information, and has the depth information for each pixel. When it is determined that an obstacle is in front with reference to the space Z buffer, the display of the display object is controlled. Specifically, drawing is not performed, or suppression processing such as changing the color or expression is performed.
 ここで、図9には、一般的に、3D空間における視点により得られるZバッファについて示す。なお、Zバッファでは、手前にある描画対象である表示オブジェクト(ここでは立方体)を描画するピクセルほど、その値は小さく、例えば、この図では明るく示され、値が大きい程より深い位置に存在することを意味する。例えば、図9(a)や(b)に示すように、図の左右の描画済みの2つの描画対象の間に新たに描画対象を描画する場合には、新規オブジェクトの描画後のZバッファは図9(c)に示すようになる。即ち、図の中央部に新たに描画された表示オブジェクトは、図の左上の描画済みの表示オブジェクト(描画対象)と重なる部分では、より明るく(即ち、値が小さく)、そして、図の右下の描画済みの表示オブジェクトと重なる部分では、より暗く(即ち、値が大きく)なる。換言すれば、新規表示オブジェクト描画後のZバッファでは、手前にあるピクセルほどその値が小さく(明るく)表示され、一方、新規表示オブジェクトの方が手前にある場合には、新規表示オブジェクトの深度が保存され、他方、旧表示オブジェクトの方が手前にある場合には、深度の更新は行われない。 Here, FIG. 9 shows a Z buffer generally obtained from a viewpoint in 3D space. In the Z buffer, the pixel that draws the display object (in this case, a cube) that is the drawing target in the foreground has a smaller value. For example, it is shown brighter in this figure, and the larger the value, the deeper the position. Means that. For example, as shown in FIGS. 9A and 9B, when a new drawing object is drawn between two drawing objects on the left and right in the figure, the Z buffer after the drawing of the new object is As shown in FIG. That is, the newly drawn display object in the center of the figure is brighter (that is, the value is smaller) in the portion that overlaps the drawn display object (drawing target) in the upper left of the figure, and the lower right of the figure The portion that overlaps the drawn display object becomes darker (that is, the value is larger). In other words, in the Z buffer after the new display object is drawn, the pixel in the foreground is displayed with a smaller (brighter) value, whereas when the new display object is in the foreground, the depth of the new display object is increased. On the other hand, if the old display object is in front, the depth is not updated.
 なお、上述した空間Zバッファも、上記と同様の原理により得ることが可能であり、このようにして実際に視差マップから深度を計算した例(以下、「深度マップ(depth map)」と呼ぶ)を図10に示す。なお、視差マップを求める方法としては、ブロックマッチング法やセミグローバルブロックマッチング法などがある。 The space Z buffer described above can also be obtained by the same principle as described above, and an example of actually calculating the depth from the parallax map in this way (hereinafter referred to as “depth map (depth map)”). Is shown in FIG. As a method for obtaining a parallax map, there are a block matching method, a semi-global block matching method, and the like.
 続いて、上述したZバッファ(深度情報)(具体的には、描画用Zバッファおよび空間Zバッファ)を利用して表示オブジェクの映像を変更・生成する表示映像変更・生成処理について以下に説明する。 Subsequently, a display video change / generation process for changing / generating a video of a display object using the above-described Z buffer (depth information) (specifically, a drawing Z buffer and a space Z buffer) will be described below. .
 [方式1]
 図11および図12には、方式1になる表示映像変更・生成処理とその説明図が示されている。
[Method 1]
FIG. 11 and FIG. 12 show a display video change / generation process according to method 1 and an explanatory diagram thereof.
 まず、図11に示すフローにおいて表示映像変更・生成処理が開始すると、前景の深度マップ設定が選択、即ち、「ON(オン)」となっているか否かを判定する(ステップS31)。その結果、前景の深度マップ設定が行われていない(「No」)場合には、図12にも示す描画用バッファ(例えば、カラーバッファ)に対して全ての画像の描画が完了したか否かを判定する(ステップS32)。より具体的には、描画用Zバッファから描画対象ピクセルのZ値を取得して(ステップS33)、描画のZ値と比較する(ステップS34)。その結果「Yes」場合には、描画対象ピクセルを描画バッファ(カラーバッファ)に描画し(ステップS35)、他方、「No」場合には、描画しない。そして、これらの工程を全描画が完了するまで繰り返す。なお、これにより、複数の表示オブジェクト間での不自然な重なりが解消される。 First, when the display video change / generation process is started in the flow shown in FIG. 11, it is determined whether or not the foreground depth map setting is selected, that is, “ON” (step S31). As a result, if the foreground depth map is not set (“No”), whether or not drawing of all images has been completed in the drawing buffer (for example, a color buffer) shown in FIG. Is determined (step S32). More specifically, the Z value of the drawing target pixel is acquired from the drawing Z buffer (step S33) and compared with the drawing Z value (step S34). If the result is “Yes”, the drawing target pixel is drawn in the drawing buffer (color buffer) (step S35). On the other hand, if “No”, no drawing is performed. These steps are repeated until all drawing is completed. This eliminates an unnatural overlap between a plurality of display objects.
 一方、前景深度マップ設定が行われている(「Yes」)場合には、上述したように、ステレオカメラ等によって車両の前方を撮影することにより得られる深度マップ等から距離情報を取得する(ステップS36)。その後、Zバッファ形式に変換して(空間Zバッファ)、その内容を描画用Zバッファの描画必須領域に初期値として登録する(ステップS37)。即ち、図12にも示すように、ステレオカメラ等で撮影された前景から求めた深度マップを、Zバッファ形式に(前景の空間Zバッファ)変換して、それを描画用Zバッファに設定する。 On the other hand, when the foreground depth map is set (“Yes”), as described above, distance information is acquired from a depth map or the like obtained by photographing the front of the vehicle with a stereo camera or the like (step) S36). Thereafter, it is converted into a Z buffer format (space Z buffer), and the contents are registered as an initial value in the drawing required area of the drawing Z buffer (step S37). That is, as shown in FIG. 12, the depth map obtained from the foreground photographed by a stereo camera or the like is converted into the Z buffer format (foreground space Z buffer) and set in the drawing Z buffer.
 その後、描画バッファ(カラーバッファ)への映像の全ての描画が完了したか否かを判定する(ステップS38)。その結果「Yes」の場合には、当該処理を終了するが、他方、「No」の場合には、設定した空間用Zバッファから描画対象ピクセルのZ値を取得し(ステップS39)、当該取得したZバッファの値を描画対象ピクセルのZ値(描画のZ値)と比較する(ステップS40)。 Thereafter, it is determined whether or not all drawing of the video in the drawing buffer (color buffer) has been completed (step S38). If the result is “Yes”, the process ends. On the other hand, if the result is “No”, the Z value of the drawing target pixel is acquired from the set space Z buffer (step S39). The value in the Z buffer is compared with the Z value (drawing Z value) of the drawing target pixel (step S40).
 その結果、描画のZ値<Zバッファの値、即ち、「Yes」の場合には、描画対象は前傾の障害物の手前に位置するものとして、ピクセルをそのまま描画バッファ(カラーバッファ)に描画し(ステップS41)、他方、「No」の場合には、描画対象は前景の障害物によって隠れているものとして抑制処理して描画する(ステップS42)。この抑制処理の一例として、例えば、その輝度を変更する場合には、各色の値(RGB)を下げ、色度を変更する場合には、色度を変更して、ピクセルを描画バッファ(カラーバッファ)に描画する。あるいは、ピクセルを描画バッファ(カラーバッファ)に描画しないことも考えられる。かかる処理によれば、図12の下方にも示すように描画バッファ(カラーバッファ)への描画が完了し、その内容がヘッドアップディスプレイ装置に表示される。 As a result, if the drawing Z value <the Z buffer value, that is, “Yes”, the drawing object is positioned in front of the forward-facing obstacle, and the pixel is drawn in the drawing buffer (color buffer) as it is. On the other hand, in the case of “No”, the drawing target is drawn while being suppressed as being hidden by the foreground obstacle (step S42). As an example of this suppression processing, for example, when changing the luminance, the value (RGB) of each color is lowered, and when changing the chromaticity, the chromaticity is changed and the pixel is drawn (color buffer). ) To draw. Alternatively, it may be possible not to draw the pixels in the drawing buffer (color buffer). According to such processing, as shown in the lower part of FIG. 12, the drawing in the drawing buffer (color buffer) is completed, and the contents are displayed on the head-up display device.
 [方式2]
 図13および図14には、方式2になる表示映像変更・生成処理とその説明図が示されている。なお、この方式2では、ピクセル毎に比較し、隠れるピクセルがあれば、描画バッファの該当するピクセルのカラー情報を「0」にして削除する。
[Method 2]
FIG. 13 and FIG. 14 show a display video change / generation process to be method 2 and an explanatory diagram thereof. In this method 2, comparison is made for each pixel, and if there is a hidden pixel, the color information of the corresponding pixel in the drawing buffer is set to “0” and deleted.
 まず、図13に示すフローにおいて表示映像変更・生成処理が開始すると、描画バッファ(カラーバッファ)への映像の全ての描画が完了したか否かを判定する(ステップS41)。その結果「No」場合には、描画用Zバッファから描画対象ピクセルのZ値を取得し(ステップS42)、描画のZ値<描画用Zバッファの値であるか否かを判定し(ステップS43)、「Yes」場合にのみ、描画対象ピクセルを描画バッファ(カラーバッファ)に描画し(ステップS44)、同様の工程を、全描画について完了するまで実行する。 First, when the display video change / generation process is started in the flow shown in FIG. 13, it is determined whether or not all drawing of the video in the drawing buffer (color buffer) has been completed (step S41). If the result is “No”, the Z value of the drawing target pixel is obtained from the drawing Z buffer (step S42), and it is determined whether or not the drawing Z value <the drawing Z buffer value (step S43). Only when “Yes”, the drawing target pixel is drawn in the drawing buffer (color buffer) (step S44), and the same process is executed until all the drawing is completed.
 その後、深度マップ設定が「ON(オン)」であるか否かを判定し(ステップS45)、その結果「No」場合には、処理を終了する。 Thereafter, it is determined whether or not the depth map setting is “ON” (step S45). If the result is “No”, the process is terminated.
 一方、深度マップ設定が行われている(「Yes」)場合、上述した距離情報を取得し(ステップS46)、Zバッファ形式に変換して前景の空間Zバッファとする(ステップS47)。その後、上記と同様に、比較処理を行う(ステップS48)。この比較処理では、ピクセル毎に、描画用Zバッファの値と、空間Zバッファである深度マップから導出したZ値とを比較し、描画用Zバッファの値の方が大きければ(空間ZバッファのZ値<描画用Zバッファの値)、当該ピクセルについて、上記と同様の抑制処理を実行する。具体的には、当該ピクセルを削除し、または、各色の値(RGB)を下げてその輝度を変更する。あるいは、色度を変更する場合には、色度を変更する。これにより、描画対象が前景の障害物によって隠れているものとしての処理を行い、その結果、図14の下部にも示すように、行先案内オブジェクトである矢印の一部が削除されて描画バッファ(カラーバッファ)への描画が完了し、その内容がヘッドアップディスプレイ装置に表示されることとなる。 On the other hand, when the depth map is set (“Yes”), the above-described distance information is acquired (step S46), converted into the Z buffer format, and used as the foreground space Z buffer (step S47). Thereafter, a comparison process is performed in the same manner as described above (step S48). In this comparison processing, for each pixel, the value of the drawing Z buffer is compared with the Z value derived from the depth map that is the space Z buffer, and if the value of the drawing Z buffer is larger (the space Z buffer (Z value <drawing Z buffer value), the same suppression processing as described above is executed for the pixel. Specifically, the luminance is changed by deleting the pixel or lowering the value (RGB) of each color. Or when changing chromaticity, chromaticity is changed. As a result, the drawing target is processed as if it is hidden by an obstacle in the foreground. As a result, as shown in the lower part of FIG. Drawing in the color buffer) is completed, and the contents are displayed on the head-up display device.
 なお、画像の描画については、上記図2や図3にも示した制御部20やECU21により、上記のZバッファをサポートしている3D描画ライブラリ(例えば、「OpenGL」等)を用いることにより行う。 The image drawing is performed by using the 3D drawing library (for example, “OpenGL” or the like) supporting the Z buffer by the control unit 20 or the ECU 21 shown in FIGS. 2 and 3. .
 上述した描画用Zバッファおよび空間Zバッファを利用した画像表示処理の結果の一例を図15により示す。図からも明らかなように、運転者に歩行者への注意を喚起するための半リング状の表示オブジェクトを前景上に表示する場合、通常であれば、半リング状の表示オブジェクトの全体がそのまま表示される。そのため、その手前に位置するガードレール上にも表示されてしまい(図15(a)の破線部を参照)、運転者に違和感を与える。これに対し、上述した深度情報を応用した描画抑止によれば、図15(b)のように、表示オブジェクトの手前に障害物(本例では、ガードレール)が存在しており、表示オブジェクトの一部がガードレールにより隠されるべき場合には、当該隠されるべき部分を削除して(または、その輝度や色度を変更して)表示する。このことにより、ヘッドアップディスプレイ装置による表示オブジェクトを、よりリアリティーを伴った自然な表示を行うことが可能となり、運転者が不自然さを覚えて距離感を失ってしまうなどのことから解消される。 FIG. 15 shows an example of the result of the image display process using the drawing Z buffer and the space Z buffer described above. As is apparent from the figure, when displaying a semi-ring-shaped display object on the foreground to alert the driver to the pedestrian, the entire semi-ring-shaped display object is usually left as it is. Is displayed. Therefore, it is also displayed on the guardrail located in front of it (see the broken line part in FIG. 15A), which gives the driver a sense of incongruity. On the other hand, according to the above-described drawing suppression using depth information, an obstacle (in this example, a guardrail) is present in front of the display object as shown in FIG. When the part is to be hidden by the guardrail, the part to be hidden is deleted (or the brightness or chromaticity is changed) and displayed. As a result, it is possible to display the display object by the head-up display device with a more natural appearance, which is solved by the driver feeling unnatural and losing a sense of distance. .
 続いて、上記に詳細に述べた表示映像変更・生成処理の機能拡張の詳細にについて、以下に説明する。 Subsequently, the details of the function expansion of the display image change / generation process described in detail above will be described below.
 [機能拡張1(音声との連動)]
 オブジェクトが隠れたときには、音声による通知と連動させる(音声との連動による補完情報の発生)。
[Function expansion 1 (linked with audio)]
When the object is hidden, it is linked with voice notification (generation of complementary information by voice linkage).
 これは、図16にも示すように、曲がり角等において、人や車などの障害物が自車両の前方に存在した場合、描画したオブジェクトの大部分が隠れてしまう場合であり、このような現象が発生した場合、曲がり角で曲がるタイミングを逸してしまうおそれがある。そこで、オブジェクトが隠れてしまう場合には、必ず、音声による通知を行う。図の例では、「150m先を右折です」とのアナウンスが行われる。更には、常に、音声との連動はONとしおき、表示オブジェクトが隠れてしまう場合には、音声出力のタイミングを(隠れないときに比べて)早め、または、音声出力の頻度を上げることも可能である。なお、この機能は、上記図3にも示したカメラ(車外)115からの映像情報を用いて、図2の制御部20によりスピーカ60を駆動することにより実現可能であることは、当業者であれば明らかであろう。 As shown in FIG. 16, when an obstacle such as a person or a vehicle is present in front of the host vehicle at a corner or the like, most of the drawn object is hidden. If this occurs, there is a risk that the timing of turning at a corner will be missed. Therefore, when the object is hidden, a voice notification is always performed. In the example shown in the figure, an announcement is made that “turn right after 150 m”. In addition, when the display object is hidden, the synchronization with the sound is always ON, and it is possible to advance the sound output timing (compared to when it is not hidden) or increase the sound output frequency. It is. It should be noted that those skilled in the art can realize this function by driving the speaker 60 by the control unit 20 in FIG. 2 using video information from the camera (outside the vehicle) 115 shown in FIG. It will be clear if there is any.
 [機能拡張2(深度マップのON/OFF機能)]
 図17(a)に示すように、前方の車両によっては、描画した表示オブジェクトの大部分が隠れてしまう場合がある。このような場合には、前景から導出した深度マップにON/OFF機能を持たせる(ON/OFF機能の追加)。このことにより、距離が遠いときは隠しておき、近づいたら描画した表示オブジェクト表示する、即ち、イベントまでの距離に応じた制御へ変更することが好適である。このことによれば、図17(b)に示すように、前方の車両の存在にも関わらず、表示オブジェクトを表示するようにすることも可能であり、更には、上述した音声との連動を行うことも可能であろう。
[Function expansion 2 (depth map ON / OFF function)]
As shown in FIG. 17A, depending on the vehicle ahead, most of the drawn display object may be hidden. In such a case, the depth map derived from the foreground is provided with an ON / OFF function (addition of an ON / OFF function). Accordingly, it is preferable to hide the display when the distance is long, and to display the drawn display object when approaching, that is, to change the control according to the distance to the event. According to this, as shown in FIG. 17 (b), it is possible to display the display object regardless of the presence of the vehicle ahead. It could also be done.
 なお、実現手法としては、深度マップのON/OFFを、曲がり角などイベントまで距離(時間)があるときは「ON」としておき、近づいたら深度マップを「OFF」(強制表示)とする。もしくは、設定画面等により、運転手が自由にON/OFFできるようにしてもよい。また、深度マップを「OFF」とした場合の処理としては、上述した方式1の場合には、ステレオカメラから導出した前景の深度マップ(空間Zバッファ)を描画用Zバッファの初期値にしなければよく、方式2の場合には、ステレオカメラから導出した前景の深度マップ(空間Zバッファ)と描画用Zバッファとの比較を行わないようにすればよい。 In addition, as an implementation method, ON / OFF of the depth map is set to “ON” when there is a distance (time) to an event such as a corner, and the depth map is set to “OFF” (forced display) when approaching. Alternatively, the driver may be able to freely turn on / off on the setting screen or the like. Further, as a process when the depth map is set to “OFF”, in the case of the above-described method 1, the foreground depth map (space Z buffer) derived from the stereo camera must be the initial value of the drawing Z buffer. In the case of method 2, the foreground depth map (space Z buffer) derived from the stereo camera may not be compared with the drawing Z buffer.
 [機能拡張3(オブジェクトを隠す領域/隠さない領域の定義機能)]
 この機能拡張3は、前景と重なるときに表示オブジェクトを隠す領域/隠さない領域を定義するものであり、例えば、前方撮影カメラで前方車を検知した場合には、その部分は強制的に描画する領域とするものである。
[Function Extension 3 (Function to define object hidden / not hidden)]
This function extension 3 defines an area that hides / does not hide a display object when it overlaps with the foreground. For example, when a front car is detected by a front camera, that part is forcibly drawn. It is an area.
 例えば、図18に示すように、車などの障害物が前方に存在した場合、描画した表示オブジェクトの大部分が隠れてしまう現象が発生する。その場合、表示オブジェクトを隠す領域、隠さず表示する領域(以下、「描画必須領域」と言う:図の灰色部分)を定義しておき、その表示のON/OFFを領域毎に設定できるようにする。例えば、表示オブジェクトの何%以上は必ず表示するなどとしても良く、または、75%表示されている場合には、そのまま、あるいは、50%しか表示されていない場合には、75%表示されるように一部の主要なオブジェクトを表示するなどとしてもよい。他方、上述した描画必須領域である図の中央の灰色部分以外の領域は、前景と重なったときには表示オブジェクトを隠す領域となる。 For example, as shown in FIG. 18, when an obstacle such as a car is present in front, a phenomenon occurs in which most of the drawn display object is hidden. In that case, an area that hides the display object and an area that is not hidden (hereinafter referred to as “drawing-required area”: the gray part in the figure) are defined, and ON / OFF of the display can be set for each area. To do. For example, what percentage or more of the display object may be displayed, or when 75% is displayed, it is displayed as it is, or when only 50% is displayed, 75% is displayed. Some major objects may be displayed on the screen. On the other hand, the region other than the gray portion at the center of the drawing, which is the drawing-required region described above, is a region that hides the display object when it overlaps the foreground.
 この機能拡張3を上記の方式1と組み合わせる場合の表示映像変更・生成処理の内容を図19に示す。即ち、前景の深度マップをZバッファの形式(空間Zバッファ)に変換した後、描画必須領域を初期化するものであり、その後の処理は、上述した方式1と同様であり、ここでは詳述は行わない。 FIG. 19 shows the contents of the display video change / generation process when this function extension 3 is combined with the above method 1. That is, the foreground depth map is converted into the Z buffer format (spatial Z buffer), and then the drawing-required area is initialized. The subsequent processing is the same as in the above-described method 1, and is described in detail here. Do not do.
 また、この機能拡張3を上記の方式2と組み合わせる場合の表示映像変更・生成処理の内容を図20に示す。即ち、深度マップをZバッファの形式(前景の空間Zバッファ)に変換した後、描画必須領域を初期化する。その後の処理は、上記の方式2と同様であり、ここでは詳述は行わない。 FIG. 20 shows the contents of the display video change / generation process when this function extension 3 is combined with the above method 2. That is, after the depth map is converted into the Z buffer format (foreground space Z buffer), the drawing essential area is initialized. The subsequent processing is the same as in the above-described method 2, and will not be described in detail here.
 [機能拡張5(輝度変更機能)]
 これは、前景に隠れるオブジェクトの輝度を変更する機能であり、図21にも示すように、車や人などの障害物が前方に存在した場合にも、描画した表示オブジェクトの大部分が隠れてしまう現象が発生するが、この隠れた部分は、その輝度を下げて描画するものである。
[Function expansion 5 (brightness change function)]
This is a function for changing the brightness of an object hidden in the foreground. As shown in FIG. 21, even when an obstacle such as a car or a person is present in front, most of the drawn display object is hidden. However, this hidden part is drawn with its brightness lowered.
 [機能拡張6(色度変更機能)]
 これは、前景に隠れるオブジェクトの色度を変更する機能であり、図22にも示すように、車や人などが前方に存在した場合、描画した表示オブジェクトの大部分が隠れてしまう現象が発生するが、この隠れた部分は、当該オブジェクトの色度を変えて描画するものである。なお、この機能は、前述の輝度調整と組み合わせてもよい。更には、色度を変える範囲を限定してもよい。
[Function expansion 6 (Chromaticity change function)]
This is a function for changing the chromaticity of an object hidden in the foreground. As shown in FIG. 22, when a car or a person is present in front, a phenomenon in which most of the drawn display object is hidden occurs. However, the hidden portion is drawn by changing the chromaticity of the object. This function may be combined with the brightness adjustment described above. Furthermore, the range for changing the chromaticity may be limited.
 上述した機能拡張5(輝度変更機能)や機能拡張6(色度変更機能)の実現手法としては、輝度、色度変更のON/OFFは、設定画面等で運転手が自由にON/OFFできるようにしてもよく、もしくは、曲がり角などイベントまで距離(時間)があるときはONとし、近づいたらOFFとするようなON/OFFの自動制御をしてもよい。また、ONの場合の処理としては、上記の方式2の場合では、前景の深度マップである空間Zバッファと描画用Zバッファとの比較において、表示オブジェクトの方が奥にあった場合には、そのピクセルの輝度を例えば50%に落とす(輝度を変更する場合)、もしくは、色度を変更する(色度を変更する場合)ことが行われる。他方、方式1の場合には、表示オブジェクトと障害物の重なりが無い場合、もしくは、奥にあるものから手前にあるものの順に描画する場合には、上記と同じであり、表示オブジェクトと障害物の重なりがあり、かつ、奥にある表示オブジェクトを後で描画する場合には、これらの拡張機能は適用しない。 As a method for realizing the above-described function expansion 5 (brightness change function) and function expansion 6 (chromaticity change function), the driver can freely turn on / off the brightness and chromaticity change on the setting screen or the like. Alternatively, ON / OFF automatic control may be performed such that it is turned on when there is a distance (time) to an event such as a corner, and turned off when approaching. In the case of the above-described method 2, when the display object is in the back in the comparison between the space Z buffer that is the foreground depth map and the drawing Z buffer, For example, the luminance of the pixel is reduced to 50% (when the luminance is changed) or the chromaticity is changed (when the chromaticity is changed). On the other hand, in the case of the method 1, when there is no overlap between the display object and the obstacle, or when drawing in the order from the back to the front, the same as the above, the display object and the obstacle These extended functions are not applied when a display object that overlaps and is behind is drawn.
 [描画必須領域の変形例]
 上述したように、人や車などの障害物が前方に存在し、その結果、描画した表示オブジェクトの大部分が隠れてしまう現象が発生する場合において、表示オブジェクトを隠さずに表示する領域である「描画必須領域」を、上述した前景用の空間Zバッファを使用しないで実現する変形例について、以下に説明する。
[Modification of drawing required area]
As described above, when an obstacle such as a person or a vehicle is present in the front, and as a result, a phenomenon in which most of the drawn display object is hidden occurs, the display object is displayed without being hidden. A modification in which the “drawing essential area” is realized without using the foreground space Z buffer described above will be described below.
 図23にも示すように、カメラで前方の車線を認識し、直接、自車走行予定領域を求める。あるいは、カーナビなどの地図情報から、自車走行予定領域を取得してもよい。なお、上記領域では描画必須とし、描画予定オブジェクトの3D座標が当該描画必須領域内にある場合には、描画しない。他方、描画必須領域の外にある場合には、上記の方式1もしくは2を用いて描画する。 As shown in FIG. 23, the front lane is recognized by the camera, and the own vehicle traveling scheduled area is directly obtained. Or you may acquire the own vehicle travel plan area | region from map information, such as car navigation. Note that drawing is required in the above area, and drawing is not performed when the 3D coordinates of the drawing scheduled object are within the drawing required area. On the other hand, if it is outside the drawing essential area, drawing is performed using the above method 1 or 2.
 上記に詳細に述べたように、本発明になる深度情報を応用した描画抑止機能を備えた画像の表示方法によれば、虚像として表示するオブジェクトを、虚像が表示される空間に対してより適合して表示することが可能であり、例えば、車両の進行方向を示す行先案内オブジェクト(矢印)のように、特に、表示画面上に奥行(深度)を持って表示されるオブジェクトを表示する場合においても、道路に対して自然な表示を行うことが可能であり、優れたヘッドアップディスプレイ装置が実現される。 As described in detail above, according to the image display method having the drawing suppression function applying depth information according to the present invention, the object displayed as a virtual image is more suitable for the space in which the virtual image is displayed. For example, when displaying an object displayed with a depth (depth) on the display screen, such as a destination guidance object (arrow) indicating the traveling direction of the vehicle. However, it is possible to perform natural display on the road, and an excellent head-up display device is realized.
 (実施例2)
 以上に詳述した実施例では、ヘッドアップディスプレイ装置により表示するオブジェクトは、立体画像として変換された後にカラーバッファ上に描画され、虚像として表示されるものとして説明した。しかしながら、本発明は、更に、表示距離調整機構を備えたヘッドアップディスプレイ装置により、表示される表示オブジェクトを、その表示距離を調整して表示する場合においても、上記も同様に適用することができる。
(Example 2)
In the embodiment described in detail above, the object displayed by the head-up display device is described as being displayed as a virtual image after being converted as a stereoscopic image and drawn on the color buffer. However, the present invention can also be applied to the case where a display object to be displayed is displayed by adjusting the display distance by a head-up display device having a display distance adjustment mechanism. .
 [表示距離調整機構]
 以下には、ヘッドアップディスプレイ装置により表示されるオブジェクトを、その表示距離を調整して表示する機構を備えた実施例について説明する。なお、ヘッドアップディスプレイ装置の概要については上記と同様であり、その説明を省略すると共に、以下にはその特徴点についてのみ述べる。
[Display distance adjustment mechanism]
Hereinafter, an embodiment provided with a mechanism for displaying an object displayed by the head-up display device by adjusting the display distance will be described. The outline of the head-up display device is the same as described above, and a description thereof will be omitted. Only the characteristic points will be described below.
 図24は、本実施例2のヘッドアップディスプレイ装置における可動式拡散板を用いた表示距離調整の例について概要を示した図である。この例では、プロジェクタ30aから投射された画像は、可動式拡散板(可動式ディフューザ)41cで結像した後、レンズ42aを介してミラー52に入射される。 FIG. 24 is a diagram showing an overview of an example of display distance adjustment using a movable diffusion plate in the head-up display device of the second embodiment. In this example, the image projected from the projector 30a is imaged by a movable diffuser plate (movable diffuser) 41c and then incident on the mirror 52 via the lens 42a.
 なお、可動式拡散板41cは、図25にも示すように、更に、拡散板制御部201を備えた表示距離調整部28や拡散制御機構401を備えた表示距離調整機構40により制御されて回転させることができる。プロジェクタ30aから投射された映像に基づく虚像の表示位置は、可動式拡散板41cとレンズ42aとの傾きに応じて決定される。よって、可動式拡散板41cを回転させることで、焦点距離を変えて虚像の表示距離を変化させることができる。具体的には、可動式拡散板41cをレンズ42aに近い位置に傾ければ虚像の表示距離を近くすることができる。逆に、可動式拡散板41cをレンズ42aから遠い位置に傾ければ虚像の表示距離を遠くすることができる。例えば、表示オブジェクトは、その深度を格納した描画用ZバッファのZ値に基づいた距離に設定して表示される。その際、更に、前景の距離情報(深度マップ)を格納した上記空間Zバッファをも参照して表示オブジェクトの描画を行うことによれば、その距離をも可変して表示可能な、より優れた虚像による表示オブジェクトの表示を実現することが可能となる。 As shown in FIG. 25, the movable diffusion plate 41c is further rotated by being controlled by the display distance adjustment unit 28 provided with the diffusion plate control unit 201 and the display distance adjustment mechanism 40 provided with the diffusion control mechanism 401. Can be made. The display position of the virtual image based on the image projected from the projector 30a is determined according to the inclination of the movable diffusion plate 41c and the lens 42a. Therefore, by rotating the movable diffusion plate 41c, the display distance of the virtual image can be changed by changing the focal length. Specifically, the display distance of the virtual image can be shortened by tilting the movable diffuser plate 41c to a position close to the lens 42a. Conversely, if the movable diffuser plate 41c is tilted away from the lens 42a, the display distance of the virtual image can be increased. For example, the display object is displayed with the distance set based on the Z value of the drawing Z buffer storing the depth. At that time, by drawing the display object with reference to the space Z buffer storing the distance information (depth map) of the foreground, the distance can be changed and displayed. It is possible to realize display of a display object using a virtual image.
 その際、上述した深度情報を応用した描画抑止を行う画像表示方法をも加えて実行することによれば、表示オブジェクトが前景の障害物等に重なって表示されることのない、より優れた画像表示が可能となる。 At that time, according to the image display method for performing the drawing suppression applying the depth information described above, it is possible to execute the image display method so that the display object is not displayed overlapping the obstacle in the foreground. Display is possible.
 なお、上記の例では、オブジェクトをその表示距離を調整して表示する機構として、可動式拡散板を用いた例について述べたが、本発明はこれに限定されることなく、例えば、機能性液晶フィルムを用いたもの、ミラーを複数枚配置するもの、可動式レンズを用いたもの、調光ミラーを用いたもの、可動式光学フィルタを用いたもの、くし状光学フィルタを用いたものなどについても利用可能である。 In the above example, the example in which the movable diffuser is used as the mechanism for displaying the object by adjusting the display distance is described. However, the present invention is not limited to this example. For films, films with multiple mirrors, movable lenses, dimming mirrors, movable optical filters, comb optical filters, etc. Is available.
 上記に詳細に述べたように、本発明になる深度情報を応用した描画抑止機能を備えた映像の表示方法によれば、虚像として表示するオブジェクトを、虚像が表示される空間に対してより適合して違和感なく自然に表示することが可能であり、例えば、矢印等の車両の進行方向を示す行先案内オブジェクトのように、特に、表示画面上に奥行(深度)を持って表示されるオブジェクトを表示する場合、道路に最適に表示することが可能な、優れたヘッドアップディスプレイ装置が実現される。 As described in detail above, according to the video display method having a drawing suppression function applying depth information according to the present invention, the object displayed as a virtual image is more suitable for the space where the virtual image is displayed. For example, an object displayed with a depth (depth) on the display screen, such as a destination guidance object indicating the traveling direction of the vehicle such as an arrow, can be displayed naturally. In the case of display, an excellent head-up display device that can be optimally displayed on the road is realized.
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記の実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 As mentioned above, the invention made by the present inventor has been specifically described based on the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention. Needless to say. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to the one having all the configurations described. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of the above-described embodiment.
1…AR-HUD、2…車両、3…ウィンドシールド、4…車両情報、5…運転者、6…表示領域、10…車両情報取得部、20…制御部、21…ECU、22…音声出力部、23…不揮発性メモリ、24…メモリ、25…光源調整部、26…歪み補正部、27…表示素子駆動部、28…表示距離調整部、29…ミラー調整部、30…映像表示装置、30a…プロジェクタ、30b…LCD、31…光源、32…照明光学系、33…表示素子、
40…表示距離調整機構、41c…可動式拡散板、42a…レンズ、52…ミラー、60…スピーカ、107…測距センサ、108…赤外線センサ、116…カメラ(車外)、117…GPS受信機。
DESCRIPTION OF SYMBOLS 1 ... AR-HUD, 2 ... Vehicle, 3 ... Wind shield, 4 ... Vehicle information, 5 ... Driver, 6 ... Display area, 10 ... Vehicle information acquisition part, 20 ... Control part, 21 ... ECU, 22 ... Sound output , 23 ... Non-volatile memory, 24 ... Memory, 25 ... Light source adjustment part, 26 ... Distortion correction part, 27 ... Display element drive part, 28 ... Display distance adjustment part, 29 ... Mirror adjustment part, 30 ... Video display device, 30a ... projector, 30b ... LCD, 31 ... light source, 32 ... illumination optical system, 33 ... display element,
DESCRIPTION OF SYMBOLS 40 ... Display distance adjustment mechanism, 41c ... Movable diffuser plate, 42a ... Lens, 52 ... Mirror, 60 ... Speaker, 107 ... Ranging sensor, 108 ... Infrared sensor, 116 ... Camera (outside vehicle), 117 ... GPS receiver.

Claims (10)

  1.  車両の前方に表示オブジェクトの画像を投射することで、運転者に対して前記車両の前方の空間に前記表示オブジェクトの虚像を表示するヘッドアップディスプレイ装置であって、
     前記車両が検知することができる各種の車両情報を取得する車両情報取得部と、
     前記車両情報取得部が取得した前記車両情報に基づいて、前記空間における前記表示オブジェクトの表示を制御する制御部と、
     前記制御部からの指示に基づいて前記表示オブジェクトを形成する画像表示装置と、
    を有しており、
     前記車両情報取得部は、前記車両の前方空間の深度情報を入力する空間深度入力手段を含んでおり、
     前記制御部は、前記空間の深度情報に基づいて、前記空間内に表示する前記表示オブジェクトの一部の表示を制御する機能を有する、ヘッドアップディスプレイ装置。
    A head-up display device that displays a virtual image of the display object in a space in front of the vehicle to the driver by projecting an image of the display object in front of the vehicle,
    A vehicle information acquisition unit that acquires various types of vehicle information that the vehicle can detect;
    A control unit that controls display of the display object in the space based on the vehicle information acquired by the vehicle information acquisition unit;
    An image display device that forms the display object based on an instruction from the control unit;
    Have
    The vehicle information acquisition unit includes spatial depth input means for inputting depth information of a front space of the vehicle,
    The said control part is a head-up display apparatus which has a function which controls the display of a part of said display object displayed in the said space based on the depth information of the said space.
  2.  請求項1に記載のヘッドアップディスプレイ装置において、
     前記制御部は、前記表示オブジェクトを立体的に表示する機能を有しており、かつ、当該表示オブジェクトを立体的に表示する場合の深度情報を、前記空間深度入力手段から入力する前記空間の深度情報と比較して、前記表示オブジェクトの一部の表示を制御する、ヘッドアップディスプレイ装置。
    The head-up display device according to claim 1,
    The control unit has a function of displaying the display object in a three-dimensional manner, and depth information in the case of inputting depth information for displaying the display object in a three-dimensional manner from the spatial depth input means. A head-up display device that controls display of a part of the display object in comparison with information.
  3.  請求項2に記載のヘッドアップディスプレイ装置において、
     前記画像表示装置は、複数のピクセルからなる表示素子を備えており、
     前記表示オブジェクトを立体的に表示する深度情報は、前記表示素子の各ピクセルに対応した当該表示オブジェクトの深度情報を含んでおり、
     前記車両前方の空間の深度情報は、前記表示素子の各ピクセルに対応した当該車両前方空間の深度情報を含んでおり、
     前記制御部は、所定の演算処理を行う演算処理部と共に、前記表示オブジェクトの画像を描画するメモリ領域と、前記表示オブジェクトの深度情報を格納するメモリ領域と前記車両前方空間の深度情報を格納するメモリ領域とを含んでいる、ヘッドアップディスプレイ装置。
    The head-up display device according to claim 2,
    The image display device includes a display element composed of a plurality of pixels,
    The depth information for stereoscopically displaying the display object includes depth information of the display object corresponding to each pixel of the display element,
    The depth information of the space ahead of the vehicle includes depth information of the space ahead of the vehicle corresponding to each pixel of the display element,
    The control unit stores a memory region for drawing an image of the display object, a memory region for storing depth information of the display object, and depth information of the vehicle front space, together with a calculation processing unit that performs predetermined calculation processing. A head-up display device including a memory area.
  4.  請求項2に記載のヘッドアップディスプレイ装置において、
     更に、前記制御部が前記表示オブジェクトの一部の表示を制御する際に補完情報を音声により発生する手段を備えている、ヘッドアップディスプレイ装置。
    The head-up display device according to claim 2,
    The head-up display device further includes means for generating complementary information by sound when the control unit controls display of a part of the display object.
  5.  請求項2に記載のヘッドアップディスプレイ装置において、
     記制御部による前記表示オブジェクトの一部の表示の制御は、前記表示オブジェクトの一部の削除、輝度の低下、色度の変更の少なくとも1つを含んでいる、ヘッドアップディスプレイ装置。
    The head-up display device according to claim 2,
    The display control of a part of the display object by the control unit includes at least one of deletion of a part of the display object, reduction in luminance, and change in chromaticity.
  6.  請求項1に記載のヘッドアップディスプレイ装置において、
     前記画像表示装置における前記表示オブジェクトの一部の表示を制御する領域は、予め設定可能である、ヘッドアップディスプレイ装置。
    The head-up display device according to claim 1,
    An area for controlling display of a part of the display object in the image display device can be set in advance.
  7.  請求項1に記載のヘッドアップディスプレイ装置において、前記画像表示装置は、前記空間深度入力手段からの前記空間の深度情報に拘わらず前記表示オブジェクトの一部を表示する描画必須領域を含んでいる、ヘッドアップディスプレイ装置。 The head-up display device according to claim 1, wherein the image display device includes a drawing essential region for displaying a part of the display object regardless of the depth information of the space from the space depth input unit. Head-up display device.
  8.  車両の前方空間の深度情報を入力する車両前方映像入力手段を含め、車両が検知することができる各種の車両情報を取得する車両情報取得部と、前記車両情報取得部が取得した前記車両情報に基づいて表示オブジェクトの表示を制御する制御部と、前記制御部からの指示に基づいて前記表示オブジェクトを形成する映像表示装置とを有しており、前記車両のウィンドシールドに前記表示オブジェクトを投射することで、運転者に対して前記車両の前方の風景に重畳させて虚像を表示するヘッドアップディスプレイ装置の画像表示方法であって、
     前記空間内に表示する前記表示オブジェクトの一部の表示を、前記車両前方映像入力手段からの前記空間の深度情報に基づいて制御する、画像表示方法。
    A vehicle information acquisition unit that acquires various types of vehicle information that can be detected by the vehicle, including a vehicle front image input unit that inputs depth information of a front space of the vehicle, and the vehicle information acquired by the vehicle information acquisition unit. A control unit that controls display of the display object based on the image display device, and a video display device that forms the display object based on an instruction from the control unit, and projects the display object onto the windshield of the vehicle. Thus, an image display method of a head-up display device that displays a virtual image superimposed on a landscape in front of the vehicle for a driver,
    The image display method which controls a display of a part of said display object displayed in the said space based on the depth information of the said space from the said vehicle front image input means.
  9.  請求項8に記載のヘッドアップディスプレイ装置の画像表示方法において、
     前記表示オブジェクトは前記空間内に立体的に表示されており、かつ、当該表示オブジェクトを立体的に表示する場合の深度情報を、前記空間深度入力手段から入力する前記空間の深度情報と比較して、前記表示オブジェクトの一部の表示を制御する、画像表示方法。
    The image display method of the head-up display device according to claim 8,
    The display object is stereoscopically displayed in the space, and the depth information when the display object is stereoscopically displayed is compared with the depth information of the space input from the spatial depth input means. An image display method for controlling display of a part of the display object.
  10.  請求項9に記載のヘッドアップディスプレイ装置の画像表示方法において、
     前記表示オブジェクトの一部の表示の制御は、当該表示オブジェクトの一部の削除、輝度の変更、色度の変更の少なくとも1つを含む抑制制御を行う、画像表示方法。
    The image display method of the head-up display device according to claim 9,
    The display control of a part of the display object is an image display method in which suppression control including at least one of deletion of part of the display object, change of luminance, and change of chromaticity is performed.
PCT/JP2017/010206 2017-03-14 2017-03-14 Head-up display device and image display method thereof WO2018167844A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/010206 WO2018167844A1 (en) 2017-03-14 2017-03-14 Head-up display device and image display method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/010206 WO2018167844A1 (en) 2017-03-14 2017-03-14 Head-up display device and image display method thereof

Publications (1)

Publication Number Publication Date
WO2018167844A1 true WO2018167844A1 (en) 2018-09-20

Family

ID=63521899

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/010206 WO2018167844A1 (en) 2017-03-14 2017-03-14 Head-up display device and image display method thereof

Country Status (1)

Country Link
WO (1) WO2018167844A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110021187A (en) * 2019-04-19 2019-07-16 青岛智慧城市产业发展有限公司 A method of pick-up is quickly stopped based on AR glasses, 5G network and wisdom parking lot
WO2020059441A1 (en) * 2018-09-21 2020-03-26 株式会社デンソー Display control device, display control program, and computer-readable non-transitory recording medium
JP2020050328A (en) * 2018-09-21 2020-04-02 株式会社デンソー Display control device and display control program
JP2020066360A (en) * 2018-10-25 2020-04-30 パイオニア株式会社 Display control device, display control method, and display controlling program
CN113165513A (en) * 2018-11-30 2021-07-23 株式会社小糸制作所 Head-up display, display system for vehicle, and display method for vehicle
WO2021251115A1 (en) * 2020-06-08 2021-12-16 パナソニックIpマネジメント株式会社 Display system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546161A (en) * 1991-08-12 1993-02-26 Casio Comput Co Ltd Virtual reality display
JP2005069799A (en) * 2003-08-22 2005-03-17 Denso Corp Vehicle navigation system
JP2009193135A (en) * 2008-02-12 2009-08-27 Xanavi Informatics Corp Onboard monitor device
WO2012176288A1 (en) * 2011-06-22 2012-12-27 パイオニア株式会社 Head-up display and control method
JP2015128956A (en) * 2014-01-08 2015-07-16 パイオニア株式会社 Head-up display, control method, program and storage medium
JP2016118851A (en) * 2014-12-19 2016-06-30 アイシン・エィ・ダブリュ株式会社 Virtual image display device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546161A (en) * 1991-08-12 1993-02-26 Casio Comput Co Ltd Virtual reality display
JP2005069799A (en) * 2003-08-22 2005-03-17 Denso Corp Vehicle navigation system
JP2009193135A (en) * 2008-02-12 2009-08-27 Xanavi Informatics Corp Onboard monitor device
WO2012176288A1 (en) * 2011-06-22 2012-12-27 パイオニア株式会社 Head-up display and control method
JP2015128956A (en) * 2014-01-08 2015-07-16 パイオニア株式会社 Head-up display, control method, program and storage medium
JP2016118851A (en) * 2014-12-19 2016-06-30 アイシン・エィ・ダブリュ株式会社 Virtual image display device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020059441A1 (en) * 2018-09-21 2020-03-26 株式会社デンソー Display control device, display control program, and computer-readable non-transitory recording medium
JP2020050328A (en) * 2018-09-21 2020-04-02 株式会社デンソー Display control device and display control program
JP7040485B2 (en) 2018-09-21 2022-03-23 株式会社デンソー Display control device and display control program
JP2020066360A (en) * 2018-10-25 2020-04-30 パイオニア株式会社 Display control device, display control method, and display controlling program
CN113165513A (en) * 2018-11-30 2021-07-23 株式会社小糸制作所 Head-up display, display system for vehicle, and display method for vehicle
CN110021187A (en) * 2019-04-19 2019-07-16 青岛智慧城市产业发展有限公司 A method of pick-up is quickly stopped based on AR glasses, 5G network and wisdom parking lot
WO2021251115A1 (en) * 2020-06-08 2021-12-16 パナソニックIpマネジメント株式会社 Display system
US11982817B2 (en) 2020-06-08 2024-05-14 Panasonic Intellectual Property Management Co., Ltd. Display system

Similar Documents

Publication Publication Date Title
JP6707666B2 (en) Head up display device
CN108473054B (en) Head-up display device
CN108473055B (en) Head-up display device
JP6409337B2 (en) Display device
WO2018167844A1 (en) Head-up display device and image display method thereof
US10551619B2 (en) Information processing system and information display apparatus
CN109643021B (en) Head-up display
JP2019217790A (en) Head-up display device
WO2015029598A1 (en) Head-up display device
JPWO2017094427A1 (en) Head-up display
JP2005184225A (en) Vehicular display
WO2018003650A1 (en) Head-up display
WO2019123975A1 (en) Display control unit and head-up display device
JP6872441B2 (en) Head-up display device
JP2018159738A (en) Virtual image display device
JP6102628B2 (en) Head-up display device
WO2021131529A1 (en) Head-up display device
JP2018138986A (en) Head-up display device
JP2018125629A (en) Head-up display device
JP2023110188A (en) Display device, control method and program
JP2018205401A (en) Head-up display device
JP2019055676A (en) Display device for vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17901309

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17901309

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载