+

JP7609183B2 - 知覚モデル更新装置、知覚モデル更新方法、および知覚モデル更新用コンピュータプログラム - Google Patents

知覚モデル更新装置、知覚モデル更新方法、および知覚モデル更新用コンピュータプログラム Download PDF

Info

Publication number
JP7609183B2
JP7609183B2 JP2023021562A JP2023021562A JP7609183B2 JP 7609183 B2 JP7609183 B2 JP 7609183B2 JP 2023021562 A JP2023021562 A JP 2023021562A JP 2023021562 A JP2023021562 A JP 2023021562A JP 7609183 B2 JP7609183 B2 JP 7609183B2
Authority
JP
Japan
Prior art keywords
data
label
uncertainty
score
target data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023021562A
Other languages
English (en)
Other versions
JP2024115743A (ja
Inventor
カミル マイエスキ ルカシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2023021562A priority Critical patent/JP7609183B2/ja
Priority to US18/522,832 priority patent/US20240273876A1/en
Publication of JP2024115743A publication Critical patent/JP2024115743A/ja
Application granted granted Critical
Publication of JP7609183B2 publication Critical patent/JP7609183B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Description

本開示は、入力されたデータに対応するラベルを予測するよう学習された知覚モデルの学習を行う知覚モデル更新装置、知覚モデル更新方法、および知覚モデル更新用コンピュータプログラムに関する。
知覚モデルは、適切な教師データを用いて学習することにより、入力データにラベルを適切に予測することができるようになる。教師データは、大量の元データから抽出された対象データに正しいラベルを付与(アノテーション)することにより作成される。作業者の手動によるアノテーション作業には、多くの時間および作業量を要する。
アノテーションを行って教師データとするために元データから抽出する対象データに、知覚モデルの学習に効果的なデータがなるべく多く含まれるようにすることで、教師データの作成における時間および作業量を削減することができる。知覚モデルが確信を持ってラベルを予測できないデータは、知覚モデルの学習に効果的なデータの一例である。特許文献1には、大量の元データの中からラベル付与の対象データを、ランダム、不確実度、代表性といった基準により抽出し、抽出された対象データを用いて知覚モデルの更新を行う能動学習サービスが記載されている。不確実度は、知覚モデルが予測するラベルの不確からしさを示す尺度である。
米国特許第11048979号明細書
ランダムに、または、代表性を基準として元データから対象データを抽出すると、知覚モデルの学習に効果的でないデータが所定の割合で対象データに含まれるため、教師データの作成における時間および作業量を削減することができない。
不確実度を基準として元データから対象データを抽出すると、知覚モデルの学習に効果的なデータが対象データになるべく多く含まれるようにすることができるため、教師データの作成における時間および作業量を削減することができる。しかし、不確実度を基準として元データから抽出される対象データは、元データ全体における外れ値を多く含む。このような対象データにより知覚モデルを学習すると、知覚モデルは外れ値を過学習し、入力データに対応するラベルを適切に予測することができなくなる場合がある。
本開示は、知覚モデルを適切に更新する知覚モデル更新装置を提供することを目的とする。
本開示の要旨は以下のとおりである。
(1)入力されたデータに対応するラベルを予測するとともに当該予測の不確からしさを示す不確実度スコアを出力するよう学習された知覚モデルに、複数の対象データのそれぞれと、当該対象データに所定の変更を加えた変更データとを入力することで、当該対象データに対応する前記ラベルを予測するとともに、当該対象データに対応する前記不確実度スコアと、当該対象データについて予測される前記ラベルと当該変更データについて予測される前記ラベルとの差異の大きさを示す不一貫性スコアとを算出するモデル演算部と、
前記複数の対象データのうち、前記不確実度スコアが所定の不確実度閾値より高く、かつ、前記不一貫性スコアが所定の不一貫性閾値より高い前記対象データを第1データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より高い前記対象データを第2データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より低い前記対象データを第3データに分類する分類部と、
前記第1データに対して入力機器を介して入力された入力ラベルを前記第1データのラベルとして付与し、前記第2データに対し、入力されたデータに前記ラベルを付与する所定のラベル付与モデルにより前記ラベルを付与する付与部と、
前記ラベルを付与された前記第1データ、前記ラベルを付与された前記第2データ、および前記第3データを用いて前記知覚モデルの学習を行うことで前記知覚モデルを更新する更新部と、
を備える知覚モデル更新装置。
(2)複数のデータのそれぞれが取得された状況に基づいて分類されるクラスごとに、所定の確率で前記複数のデータから前記対象データを抽出する抽出部をさらに備える上記(1)に記載の知覚モデル更新装置。
(3)前記複数の対象データのそれぞれは複数の画素を有する画像データであり、前記知覚モデルは前記画像データが有する複数の画素のそれぞれについて前記ラベルを予測する上記(1)または(2)に記載の知覚モデル更新装置。
(4)前記モデル演算部は、前記画像データにおける各画素の位置を左右反転したデータを前記変更データとする上記(3)に記載の知覚モデル更新装置。
(5)入力されたデータに対応するラベルを予測するとともに当該予測の不確からしさを示す不確実度スコアを出力するよう学習された知覚モデルを更新する知覚モデル更新装置が、
前記知覚モデルに、複数の対象データのそれぞれと、当該対象データに所定の変更を加えた変更データとを入力することで、当該対象データに対応する前記ラベルを予測するとともに、当該対象データに対応する前記不確実度スコアと、当該対象データについて予測される前記ラベルと当該変更データについて予測される前記ラベルとの差異の大きさを示す不一貫性スコアとを算出し、
前記複数の対象データのうち、前記不確実度スコアが所定の不確実度閾値より高く、かつ、前記不一貫性スコアが所定の不一貫性閾値より高い前記対象データを第1データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より高い前記対象データを第2データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より低い前記対象データを第3データに分類し、
前記第1データに対して入力機器を介して入力された入力ラベルを前記第1データのラベルとして付与し、
前記第2データに対し、入力されたデータに前記ラベルを付与する所定のラベル付与モデルにより前記ラベルを付与し、
手動により前記ラベルを付与された前記第1データ、前記ラベル付与モデルにより前記ラベルを付与された前記第2データ、および前記第3データを用いて前記知覚モデルの学習を行うことで前記知覚モデルを更新する、
ことを含む知覚モデル更新方法。
(6)入力されたデータに対応するラベルを予測するとともに当該予測の不確からしさを示す不確実度スコアを出力するよう学習された知覚モデルに、複数の対象データのそれぞれと、当該対象データに所定の変更を加えた変更データとを入力することで、当該対象データに対応する前記ラベルを予測するとともに、当該対象データに対応する前記不確実度スコアと、当該対象データについて予測される前記ラベルと当該変更データについて予測される前記ラベルとの差異の大きさを示す不一貫性スコアとを算出することと、
前記複数の対象データのうち、前記不確実度スコアが所定の不確実度閾値より高く、かつ、前記不一貫性スコアが所定の不一貫性閾値より高い前記対象データを第1データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より高い前記対象データを第2データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より低い前記対象データを第3データに分類することと、
前記第1データに対して入力機器を介して入力された入力ラベルを前記第1データのラベルとして付与することと、
前記第2データに対し、入力されたデータに前記ラベルを付与する所定のラベル付与モデルにより前記ラベルを付与することと、
手動により前記ラベルを付与された前記第1データ、前記ラベル付与モデルにより前記ラベルを付与された前記第2データ、および前記第3データを用いて前記知覚モデルの学習を行うことで前記知覚モデルを更新することと、
をコンピュータに実行させる知覚モデル更新用コンピュータプログラム。
本開示にかかる知覚モデル更新装置によれば、知覚モデルを適切に更新することができる。
知覚モデル更新システムの概略構成図である。 車両の概略構成図である。 知覚モデル更新装置のハードウェア構成図である。 知覚モデル更新装置が有するプロセッサの機能ブロック図である。 対象データについてのラベルの予測および対象データに対応するスコアの算出の例を説明する図である。 知覚モデル更新処理のフローチャートである。
以下、図面を参照して、知覚モデル更新装置について詳細に説明する。知覚モデル更新装置は、知覚モデルに、複数の対象データのそれぞれと、当該対象データに所定の変更を加えた変更データとを入力することで、当該対象データ対応するにラベルを予測するとともに、不確実度スコアと不一貫性スコアとを算出する。知覚モデルは、入力されたデータに対応するラベルを予測するとともに、当該ラベルの不確実度スコアを出力するよう学習されている。ラベルは、例えばデータに表された対象物の種類を表す。不一貫性スコアは、対象データについて予測されるラベルと当該対象データに対応する変更データについて予測されるラベルとの差異の大きさを示す。知覚モデルは、例えば、入力された画像に含まれる画素ごとに、当該画素に表わされる対象に応じたラベルを付与するセマンティックセグメンテーションを実行するSegnet、U-Netといったニューラルネットワークにより構成される。
知覚モデル更新装置は、複数の対象データのうち、不確実度スコアが所定の不確実度閾値より高く、かつ、不一貫性スコアが所定の不一貫性閾値より高い対象データを第1データに分類する。また、知覚モデル更新装置は、複数の対象データのうち、不確実度スコアが不確実度閾値より低く、かつ、不一貫性スコアが不一貫性閾値より高い対象データを第2データに分類する。また、知覚モデル更新装置は、複数の対象データのうち、不確実度スコアが不確実度閾値より低く、かつ、不一貫性スコアが不一貫性閾値より低い対象データを第3データに分類する。
知覚モデル更新装置は、第1データに対して入力機器を介して入力された入力ラベルを第1データのラベルとして付与する。また、知覚モデル更新装置は、第2データに対し、入力されたデータにラベルを付与する所定のラベル付与モデルによりラベルを付与する。そして、知覚モデル更新装置は、ラベルが付与された第1データ、ラベルが付与された第2データ、および第3データを用いて知覚モデルの学習を行うことで知覚モデルを更新する。
図1は、知覚モデル更新システムの概略構成図である。本実施形態では、知覚モデル更新システム1は、複数の車両2と知覚モデル更新装置3とを有する。知覚モデル更新装置3は、複数の車両2のそれぞれにより収集されたデータを用いて知覚モデルを更新する。複数の車両2のそれぞれは、知覚モデル更新装置3が接続される通信ネットワークNWにゲートウェイ(不図示)などを介して接続される無線基地局WBSにアクセスすることで、無線基地局WBSおよび通信ネットワークNWを介して知覚モデル更新装置3と通信可能に接続される。以下では、複数の車両2のうち一の車両を「車両2」ともいう。知覚モデル更新システム1において、複数の無線基地局WBSが通信ネットワークNWに接続されていてもよい。
図2は、車両2の概略構成図である。車両2は、周辺カメラ21と、データ通信モジュール(DCM)22と、GNSS(Global Navigation Satellite System)受信機23と、ストレージ装置24と、ECU(Electronic Control Unit)25とを有する。周辺カメラ21、データ通信モジュール22、GNSS受信機23、およびストレージ装置24と、ECU25とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。
周辺カメラ21は、知覚モデル更新装置3による知覚モデルの更新に用いる更新用データを生成する更新用データ生成機器の一例である。周辺カメラ21は、更新用データに含まれる画像データとして、車両2の周辺状況を表す周辺画像を生成する。周辺カメラ21は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系とを有する。周辺カメラ21は、例えば車室内の前方上部に、前方を向けて配置される。周辺カメラ21は、所定の撮影周期(例えば1/30秒~1/10秒)ごとにフロントガラスまたはリヤガラスを介して車両2の周辺の状況を撮影し、周辺の状況が表された周辺画像を出力する。
車両2は、更新用データ生成機器として、各画素が当該画素に表された車両2の周辺の物体までの距離に応じた値を持つ距離画像を生成するLiDAR(Light Detection And Ranging)センサを有してもよい。LiDARセンサは、赤外線レーザー光を発生させるレーザーと、物体で反射され光学窓を通して受光したレーザー光を2次元的に走査する受光器とをそれぞれ有する。受光器は、照射されたレーザー光が物体で反射されて受光されるまでの時間を計測することにより、各画素が当該画素に表された物体までの距離に応じた値を持つ距離画像を生成する。LiDARセンサは、例えば車室内の前方上部に、前方を向けて配置される。LiDARセンサは、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両2の前方における物体までの距離を表す距離画像を出力する。距離画像は、画像データの一例である。
データ通信モジュール22は、通信機器の一例であり、いわゆる4G(4th Generation)または5G(5th Generation)といった所定の無線通信規格に準拠した無線通信処理を実行する機器である。データ通信モジュール22は、例えば、無線基地局WBSにアクセスすることで、無線基地局WBSおよび通信ネットワークNWを介して知覚モデル更新装置3と通信可能に接続される。データ通信モジュール22は、ECU25から受け取ったデータをアップリンクの無線信号に含め、その無線信号を無線基地局WBSへ送信することで、データを知覚モデル更新装置3へ送信する。なお、データ通信モジュール22は、ECU25の一部として実装されてもよい。
GNSS受信機23は、更新用データ生成機器によりデータが生成されたときの環境を表す環境データを生成する環境データ生成機器の一例である。GNSS受信機23は、不図示のGNSSアンテナにより所定の周期ごとにGNSS衛星からのGNSS信号を受信し、受信したGNSS信号に基づいて車両2の自己位置を測位する。GNSS受信機23は、所定の周期ごとに、GNSS信号に基づく車両2の自己位置の測位結果を表す測位信号を環境データとして生成し、車内ネットワークを介してECU25へ出力する。
車両2は、環境データ生成機器として、車両2の周辺の温度を示す温度データを出力する温度センサ、車両2の周辺の照度を示す照度データを出力する照度センサ、車両2の周辺の雨量を示す雨量データを出力する雨量センサを有していてもよい。
ストレージ装置24は、車両記憶装置の一例であり、例えば、ハードディスク装置、または不揮発性の半導体メモリを有する。ストレージ装置24は、周辺カメラ21が出力する周辺画像を記憶する。ストレージ装置24は、位置に対応づけて車線区画線などの地物に関する情報を含む地図データを記憶していてもよい。
ECU25は、通信インタフェースと、メモリと、プロセッサとを備える。ECU25は、通信インタフェースを介して周辺カメラ21から周辺画像を取得し、ストレージ装置24に記憶させる。また、ECU25は、周辺画像の生成時刻に対応する時刻にGNSS受信機23から取得された測位信号に表される位置の近傍の地図情報をストレージ装置24から取得し、地図情報に含まれる車線区画線の形状を予めメモリに記憶される道路形状テンプレートと比較することで当該周辺画像が生成されたときの道路形状タイプ(急カーブ、分岐地点等)を特定し、当該周辺画像が生成されたときの環境を表す環境データとして当該周辺画像に関連づけてストレージ装置24に記憶させる。ECU25は、周辺画像が生成されたときの温度、照度、または雨量を、環境データとして当該周辺画像に関連づけてストレージ装置24に記憶させてもよい。また、ECU25は、ストレージ装置24に記憶された周辺画像および関連づけられた環境データを、通信インタフェースおよびデータ通信モジュール22を介して知覚モデル更新装置3に送信する。
ECU25は、GNSS受信機23が出力する測位信号に表される自己位置の近傍の地図情報をストレージ装置24から取得し、地図情報に含まれる車線区画線により区画された車線内を車両2が走行するように車両2の走行機構に制御信号を送信することで、車両2の自動運転を実行してもよい。走行機構には、例えば車両2に動力を供給するエンジンまたはモータ、車両2の走行速度を減少させるブレーキ、および車両2を操舵するステアリング機構が含まれる。
ECU25は、さらに、周辺カメラ21が出力する周辺画像から検出された周辺の物体までの間隔が所定の間隔より大きくなるように車両2の走行を制御してもよい。ECU25は、画像から物体を検出するよう予め学習された識別器に周辺画像を入力することで、周辺の物体を検出することができる。識別器は、本開示の知覚モデル更新装置により更新される知覚モデルであってよい。
図2は、知覚モデル更新装置3のハードウェア構成図である。知覚モデル更新装置3は、通信インタフェース31と、ストレージ装置32と、メモリ33と、プロセッサ34とを有する。
通信インタフェース31は、通信部の一例であり、知覚モデル更新装置3を通信ネットワークNWに接続するためのインタフェース回路を有する。通信インタフェース31は、通信ネットワークNWを介して他の機器と通信可能に構成される。すなわち、通信インタフェース31は、通信ネットワークNWを介して他の機器から受信したデータ等をプロセッサ34に渡す。また、通信インタフェース31は、プロセッサ34から受け取ったデータ等を、通信ネットワークを介して他の機器に送信する。
ストレージ装置32は、記憶部の一例であり、例えばハードディスク装置または不揮発性の半導体メモリ装置などの記憶装置を有する。ストレージ装置32は、複数の車両2のそれぞれから送信された周辺画像および環境データを記憶する。周辺画像はストレージ装置32に記憶される複数のデータの一例である。
メモリ33は、記憶部の他の一例であり、揮発性の半導体メモリおよび不揮発性の半導体メモリを有する。メモリ33は、プロセッサ34による処理に用いられる各種データ、例えば知覚モデルおよびラベル付与モデルを規定するためのパラメータ群、ストレージ装置32に記憶される複数のデータから抽出される対象データ、知覚モデルによりラベルを予測された対象データの分類に用いる不確実度閾値および不一貫性閾値等を記憶する。また、メモリ33は、各種アプリケーションプログラム、例えば知覚モデル更新装置3に知覚モデル更新方法を実行させるための知覚モデル更新用コンピュータプログラム等を記憶する。
プロセッサ34は、1個または複数個のCPU(Central Processing Unit)およびその周辺回路を有する。プロセッサ34は、論理演算ユニットあるいは数値演算ユニットといった他の演算回路をさらに有していてもよい。
図4は、知覚モデル更新装置3が有するプロセッサ34の機能ブロック図である。
知覚モデル更新装置3のプロセッサ34は、機能ブロックとして、抽出部341と、モデル演算部342と、分類部343と、付与部344と、更新部345とを有する。プロセッサ34が有するこれらの各部は、プロセッサ34上で実行されるプログラムによって実装される機能モジュールである。プロセッサ34の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。あるいは、プロセッサ34が有するこれらの各部、独立した集積回路、マイクロプロセッサ、またはファームウェアとして知覚モデル更新装置3に実装されてもよい。
抽出部341は、ストレージ装置32に記憶された複数のデータから所定の確率で複数の対象データを抽出する。抽出部341は、ストレージ装置32に記憶された周辺画像から所定の確率(例えば1%)でランダムに選択された周辺画像を、対象データとして抽出してよい。また、抽出部341は、複数のデータのそれぞれが取得された状況に基づいて分類されるクラスごとに所定の確率で複数のデータから対象データを抽出してよい。例えば、抽出部341は、ストレージ装置32に記憶された周辺画像のうちの所定の道路形状タイプに関連づけられた周辺画像から所定の確率でランダムに選択された周辺画像を、当該所定の道路形状タイプに対応する対象データとして抽出してよい。クラスは、環境データに含まれる照度に基づいて定められる時間帯(日中、夜間等)、環境データに含まれる温度および雨量に基づいて定められる天候(降雨、降雪等)であってもよく、これらを組み合わせたもの(夜間降雨時の急カーブ、日中降雪時の車線分岐地点等)であってもよい。
モデル演算部342は、知覚モデルに複数の対象データのそれぞれと、当該対象データに所定の変更を加えた変更データとを入力することで、当該対象データに対応するラベルを予測するとともに、当該対象データに対応する不確実度スコアと不一貫性スコアとを算出する。
図5は、対象データについてのラベルの予測および対象データに対応するスコアの算出の例を説明する図である。
モデル演算部342は、周辺画像SPを知覚モデルPMに入力することで、周辺画像SPが有する複数の画素のそれぞれについてラベルが予測されたラベル画像LPを生成する。ラベル画像LPにおいて、車両2が走行している道路のうち車両2が走行している車線に対応すると予測された画素には、ラベルLaが予測される。車両2が走行している道路のうち車両2が走行している車線以外の領域に対応すると予測された画素には、ラベルLbが予測される。車両2が走行している道路以外の領域に対応すると予測された画素には、ラベルLcが予測される。また、ラベル画像LPが有する複数の画素のそれぞれには、当該画素についてのラベルの予測の不確からしさを示す不確実度が対応づけられている。
モデル演算部342は、ラベル画像LPが有する複数の画素のそれぞれに対応づけられた不確実度に基づいて、周辺画像SPに対応する不確実度スコアを算出する。モデル演算部342は、ラベル画像LPが有する複数の画素のそれぞれについて、当該画素に対応づけられた不確実度と当該不確実度の対数との積の合計を求め、その符号を反転させた値(シャノンのエントロピー)を、周辺画像SPに対応する不確実度スコアとしてよい。
また、モデル演算部342は、周辺画像SPに所定の変更を加えた変更周辺画像SP′を知覚モデルPMに入力することで、変更周辺画像SP′が有する複数の画素のそれぞれに対応するラベルが予測された変更ラベル画像LP′を生成する。変更周辺画像SP′は、周辺画像SPにおける各画素の位置を左右反転した画像であってよい。変更ラベル画像LP′において、車両2が走行している道路のうち車両2が走行している車線に対応すると予測された画素には、ラベルLa′が予測される。車両2が走行している道路のうち車両2が走行している車線以外の領域に対応すると予測された画素には、ラベルLb′が予測される。車両2が走行している道路以外の領域に対応すると予測された画素には、ラベルLc′が予測される。
モデル演算部342は、周辺画像SPについて予測されるラベルと変更周辺画像SP′について予測されるラベルとの差異の大きさを示す不一貫性スコアを算出する。例えば、モデル演算部342は、ラベル画像LPが有する複数の画素のそれぞれに対応づけられた不確実度の分布と変更ラベル画像LP′が有する複数の画素のそれぞれに対応づけられた不確実度の分布とを比較する。グラフGは、ラベル画像LPが有する複数の画素のそれぞれに対応づけられた不確実度の分布と変更ラベル画像LP′が有する複数の画素のそれぞれに対応づけられた不確実度の分布とを表す。グラフGにおいて、横軸は不確実度を表し、縦軸は頻度を表す。モデル演算部342は、ラベル画像LPが有する複数の画素のそれぞれに対応づけられた不確実度の分布と変更ラベル画像LP′が有する複数の画素のそれぞれに対応づけられた不確実度の分布との相違が大きいほど大きい値となるように、不一貫性スコアを算出する。
図4に戻り、分類部343は、複数の対象データのうち、不確実度スコアがメモリ33に記憶された不確実度閾値よりも高く、かつ、不一貫性スコアがメモリ33に記憶された不一貫性閾値よりも高い対象データを第1データに分類する。分類部343は、複数の対象データのうち、不確実度スコアが不確実度閾値より低く、かつ、不一貫性スコアが不一貫性閾値より高い対象データを第2データに分類する。分類部343は、複数の対象データのうち、不確実度スコアが不確実度閾値より低く、かつ、不一貫性スコアが不一貫性閾値より低い対象データを第3データに分類する。
分類部343は、不確実度スコアが不確実度閾値と一致する対象データを、不確実度スコアが不確実度閾値よりも高いものと扱ってもよく、不確実度閾値よりも低いものと扱ってもよい。同様に、分類部343は、不一貫性スコアが不一貫性閾値と一致する対象データを、不一貫性スコアが不一貫性閾値よりも高いものと扱ってもよく、不一貫性閾値よりも低いものと扱ってもよい。
分類部343は、複数の対象データのうち、不確実度スコアが不確実度閾値より高く、かつ、不一貫性スコアが不一貫性閾値より高い対象データを、第1データから第3データのいずれかに分類してもよく、その他のデータに分類してもよい。
付与部344は、第1データに対して入力機器を介して入力された入力ラベルを第1データのラベルとして付与する(手動ラベリング)。付与部344は、例えば、第1データにラベルを付与するラベル付与画面を表示するためのラベル付与画面データを生成し、画像をユーザに視認可能に表示するディスプレイを有する表示装置(不図示)に通信インタフェース31を介して送信する。ラベル付与画面が表示されたディスプレイに接したユーザは、通信インタフェース31を介して接続された入力機器を操作して、第1データに対して付与すべき入力ラベルを特定する。入力ラベルは、ラベル付与画面の所定の領域を指定したユーザの操作に応じてメモリ33に記憶される。付与部344は、入力ラベルを第1データのラベルとして付与し、メモリ33に記憶させる。付与部344は、ラベル付与画面データを、知覚モデル更新装置3以外の情報処理装置に、通信インタフェース31を介して送信してもよい。
また、付与部344は、第2データに対し、入力されたデータにラベルを付与するラベル付与モデルによりラベルを付与する。ラベル付与モデルは、知覚モデルPM以外のモデル(例えば知覚モデルPMとは異なるネットワーク構成を有するモデル)であってよく、知覚モデルPMであってもよい。付与部344は、ラベル付与モデルによりラベルが付与された第2データをメモリ33に記憶させる。
更新部345は、手動によりラベルが付与された第1データ、ラベル付与モデルによりラベルが付与された第2データ、および第3データを用いて知覚モデルPMの学習を行うことで、知覚モデルPMを更新する。更新部345は、手動によりラベルが付与された第1データ、ラベル付与モデルによりラベルが付与された第2データ、および第3データを教師データとし、誤差逆伝搬法といった所定の学習手法に従って知覚モデルPMの学習を行う。更新部345は、更新された知覚モデルにより、更新前の知覚モデルPMを置き換える。例えば、更新部345は、更新された知覚モデルを規定するためのパラメータ群を、通信インタフェース31を介して車両2に送信する。車両2のECU25は、更新された知覚モデルを用いて以降の物体検出を実行する。
図6は、知覚モデル更新処理のフローチャートである。知覚モデル更新装置3のプロセッサ34は、ユーザの所定の操作に応じて図6に示す知覚モデル更新処理を実行する。プロセッサ34は、前回実行からの所定時間の経過、ストレージ装置32への所定数の周辺画像の蓄積といった所定の条件を満たした場合に図6に示す知覚モデル更新処理を実行してもよい。また、プロセッサ34は、知覚モデル更新処理の開始ごとに、図6に示す知覚モデル更新処理を複数回繰り返し実行してもよい。
まず、プロセッサ34の抽出部341は、ストレージ装置32に記憶された複数のデータから所定の確率で複数の対象データを抽出する(ステップS1)。
次に、プロセッサ34のモデル演算部342は、知覚モデルPMに複数の対象データのそれぞれと、当該対象データに所定の変更を加えた変更データとを入力することで、当該対象データに対応するラベルを予測するとともに、当該対象データに対応する不確実度スコアと不一貫性スコアとを算出する(ステップS2)。
プロセッサ34の分類部343は、複数の対象データのうち、不確実度スコアがメモリ33に記憶された不確実度閾値よりも高く、かつ、不一貫性スコアがメモリ33に記憶された不一貫性閾値よりも高い対象データを第1データに分類する。また、分類部343は、複数の対象データのうち、不確実度スコアが不確実度閾値より低く、かつ、不一貫性スコアが所定の不一貫性閾値より高い対象データを第2データに分類する。また、分類部343は、複数の対象データのうち、不確実度スコアが不確実度閾値より低く、かつ、不一貫性スコアが所定の不一貫性閾値より低い対象データを第3データに分類する(ステップS3)。
第1データについて(ステップS3:A)、プロセッサ34の付与部344は、入力機器を介して入力された入力ラベルを第1データのラベルとして付与し(ステップS4)、後述するステップS6に進む。
第2データについて(ステップS3:B)、付与部344は、ラベル付与モデルによりラベルを付与し(ステップS5)、後述するステップS6に進む。
第3データについて(ステップS3:C)、分類部343はモデル演算部342により知覚モデルPMを用いて付与されたラベル変更を加えることなく、後述するステップS6に進む。
プロセッサ34の更新部345は、手動によりラベルが付与された第1データ、ラベル付与モデルによりラベルが付与された第2データ、および第3データを用いて知覚モデルPMの学習を行うことで知覚モデルPMを更新し(ステップS6)、知覚モデル更新処理を終了する。
このように知覚モデル更新処理を実行することにより、知覚モデル更新装置3は、知覚モデルを適切に更新することができる。
当業者は、本開示の精神および範囲から外れることなく、種々の変更、置換および修正をこれに加えることが可能であることを理解されたい。
1 知覚モデル更新システム
2 車両
3 知覚モデル更新装置
341 抽出部
342 モデル演算部
343 分類部
344 付与部
345 更新部

Claims (6)

  1. 入力されたデータに対応するラベルを予測するとともに当該予測の不確からしさを示す不確実度スコアを出力するよう学習された知覚モデルに、複数の対象データのそれぞれと、当該対象データに所定の変更を加えた変更データとを入力することで、当該対象データに対応する前記ラベルを予測するとともに、当該対象データに対応する前記不確実度スコアと、当該対象データについて予測される前記ラベルと当該変更データについて予測される前記ラベルとの差異の大きさを示す不一貫性スコアとを算出するモデル演算部と、
    前記複数の対象データのうち、前記不確実度スコアが所定の不確実度閾値より高く、かつ、前記不一貫性スコアが所定の不一貫性閾値より高い前記対象データを第1データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より高い前記対象データを第2データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より低い前記対象データを第3データに分類する分類部と、
    前記第1データに対して入力機器を介して入力された入力ラベルを前記第1データのラベルとして付与し、前記第2データに対し、入力されたデータに前記ラベルを付与する所定のラベル付与モデルにより前記ラベルを付与する付与部と、
    前記ラベルを付与された前記第1データ、前記ラベルを付与された前記第2データ、および前記第3データを用いて前記知覚モデルの学習を行うことで前記知覚モデルを更新する更新部と、
    を備える知覚モデル更新装置。
  2. 複数のデータのそれぞれが取得された状況に基づいて分類されるクラスごとに、所定の確率で前記複数のデータから前記対象データを抽出する抽出部をさらに備える請求項1に記載の知覚モデル更新装置。
  3. 前記複数の対象データのそれぞれは複数の画素を有する画像データであり、前記知覚モデルは前記画像データが有する複数の画素のそれぞれについて前記ラベルを予測する請求項1に記載の知覚モデル更新装置。
  4. 前記モデル演算部は、前記画像データにおける各画素の位置を左右反転したデータを前記変更データとする請求項3に記載の知覚モデル更新装置。
  5. 入力されたデータに対応するラベルを予測するとともに当該予測の不確からしさを示す不確実度スコアを出力するよう学習された知覚モデルを更新する知覚モデル更新装置が、
    前記知覚モデルに、複数の対象データのそれぞれと、当該対象データに所定の変更を加えた変更データとを入力することで、当該対象データに対応する前記ラベルを予測するとともに、当該対象データに対応する前記不確実度スコアと、当該対象データについて予測される前記ラベルと当該変更データについて予測される前記ラベルとの差異の大きさを示す不一貫性スコアとを算出し、
    前記複数の対象データのうち、前記不確実度スコアが所定の不確実度閾値より高く、かつ、前記不一貫性スコアが所定の不一貫性閾値より高い前記対象データを第1データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より高い前記対象データを第2データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より低い前記対象データを第3データに分類し、
    前記第1データに対して入力機器を介して入力された入力ラベルを前記第1データのラベルとして付与し、
    前記第2データに対し、入力されたデータに前記ラベルを付与する所定のラベル付与モデルにより前記ラベルを付与し、
    手動により前記ラベルを付与された前記第1データ、前記ラベル付与モデルにより前記ラベルを付与された前記第2データ、および前記第3データを用いて前記知覚モデルの学習を行うことで前記知覚モデルを更新する、
    ことを含む知覚モデル更新方法。
  6. 入力されたデータに対応するラベルを予測するとともに当該予測の不確からしさを示す不確実度スコアを出力するよう学習された知覚モデルに、複数の対象データのそれぞれと、当該対象データに所定の変更を加えた変更データとを入力することで、当該対象データに対応する前記ラベルを予測するとともに、当該対象データに対応する前記不確実度スコアと、当該対象データについて予測される前記ラベルと当該変更データについて予測される前記ラベルとの差異の大きさを示す不一貫性スコアとを算出することと、
    前記複数の対象データのうち、前記不確実度スコアが所定の不確実度閾値より高く、かつ、前記不一貫性スコアが所定の不一貫性閾値より高い前記対象データを第1データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より高い前記対象データを第2データに分類し、前記不確実度スコアが前記不確実度閾値より低く、かつ、前記不一貫性スコアが前記不一貫性閾値より低い前記対象データを第3データに分類することと、
    前記第1データに対して入力機器を介して入力された入力ラベルを前記第1データのラベルとして付与することと、
    前記第2データに対し、入力されたデータに前記ラベルを付与する所定のラベル付与モデルにより前記ラベルを付与することと、
    手動により前記ラベルを付与された前記第1データ、前記ラベル付与モデルにより前記ラベルを付与された前記第2データ、および前記第3データを用いて前記知覚モデルの学習を行うことで前記知覚モデルを更新することと、
    をコンピュータに実行させる知覚モデル更新用コンピュータプログラム。
JP2023021562A 2023-02-15 2023-02-15 知覚モデル更新装置、知覚モデル更新方法、および知覚モデル更新用コンピュータプログラム Active JP7609183B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023021562A JP7609183B2 (ja) 2023-02-15 2023-02-15 知覚モデル更新装置、知覚モデル更新方法、および知覚モデル更新用コンピュータプログラム
US18/522,832 US20240273876A1 (en) 2023-02-15 2023-11-29 Device and method for updating perceptual model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023021562A JP7609183B2 (ja) 2023-02-15 2023-02-15 知覚モデル更新装置、知覚モデル更新方法、および知覚モデル更新用コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2024115743A JP2024115743A (ja) 2024-08-27
JP7609183B2 true JP7609183B2 (ja) 2025-01-07

Family

ID=92216107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023021562A Active JP7609183B2 (ja) 2023-02-15 2023-02-15 知覚モデル更新装置、知覚モデル更新方法、および知覚モデル更新用コンピュータプログラム

Country Status (2)

Country Link
US (1) US20240273876A1 (ja)
JP (1) JP7609183B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220300769A1 (en) 2021-03-19 2022-09-22 Arizona Board Of Regents On Behalf Of Arizona State University Systems, methods, and apparatuses for actively and continually fine-tuning convolutional neural networks to reduce annotation requirements

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220300769A1 (en) 2021-03-19 2022-09-22 Arizona Board Of Regents On Behalf Of Arizona State University Systems, methods, and apparatuses for actively and continually fine-tuning convolutional neural networks to reduce annotation requirements

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YU, Weiping et al.,Consistency-based Active Learning for Object Detection,v3,arXiv [online],2022年04月11日,pp.1-10,https://arxiv.org/abs/2103.10374

Also Published As

Publication number Publication date
JP2024115743A (ja) 2024-08-27
US20240273876A1 (en) 2024-08-15

Similar Documents

Publication Publication Date Title
CN108571974B (zh) 使用摄像机的车辆定位
US11488392B2 (en) Vehicle system and method for detecting objects and object distance
US11348263B2 (en) Training method for detecting vanishing point and method and apparatus for detecting vanishing point
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
CN108021858A (zh) 移动客体识别方法及客体流量分析方法
US11405761B2 (en) On-board machine vision device for activating vehicular messages from traffic signs
US11755917B2 (en) Generating depth from camera images and known depth data using neural networks
JP7302615B2 (ja) 運転支援装置、運転支援方法及び運転支援用コンピュータプログラム
JP7374001B2 (ja) 学習モデルの生成方法、プログラム及び情報処理装置
US11818633B2 (en) Map update system, data transmission device, and data transmission method
WO2020007589A1 (en) Training a deep convolutional neural network for individual routes
US20220301315A1 (en) Image processing device and image processing method
US9947107B2 (en) Method and system for tracking objects between cameras
CN112765302B (zh) 位置信息的处理方法、装置及计算机可读介质
JP2025110415A (ja) データ収集指示装置
JP6606779B6 (ja) 情報提供装置、情報提供方法、およびプログラム
JP7609183B2 (ja) 知覚モデル更新装置、知覚モデル更新方法、および知覚モデル更新用コンピュータプログラム
US12277783B2 (en) Annotation of objects in image frames
US20230267749A1 (en) System and method of segmenting free space based on electromagnetic waves
JP7258667B2 (ja) 情報提供装置、情報提供システム、および情報提供方法
JP7160763B2 (ja) 情報処理装置、情報処理システム、情報処理方法、プログラム、およびアプリケーションプログラム
JP7365145B2 (ja) 情報提供装置、情報提供方法、およびプログラム
JP6686076B2 (ja) 情報処理装置、情報処理方法、プログラム、およびアプリケーションプログラム
JP7258666B2 (ja) 情報提供装置、情報提供システム、情報提供方法、およびプログラム
CN120126031B (zh) 基于对抗训练策略的无人机载目标检测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241202

R150 Certificate of patent or registration of utility model

Ref document number: 7609183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载