JP2004298285A - Judgment device and judgment method of walking condition and pedestrian attribute - Google Patents
Judgment device and judgment method of walking condition and pedestrian attribute Download PDFInfo
- Publication number
- JP2004298285A JP2004298285A JP2003092910A JP2003092910A JP2004298285A JP 2004298285 A JP2004298285 A JP 2004298285A JP 2003092910 A JP2003092910 A JP 2003092910A JP 2003092910 A JP2003092910 A JP 2003092910A JP 2004298285 A JP2004298285 A JP 2004298285A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- height
- speed
- walking
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000001228 spectrum Methods 0.000 claims abstract description 19
- 230000033001 locomotion Effects 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims description 39
- 230000002123 temporal effect Effects 0.000 abstract description 2
- 230000007704 transition Effects 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000033764 rhythmic process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 3
- 102100039307 Nuclear prelamin A recognition factor Human genes 0.000 description 2
- 101710112231 Nuclear prelamin A recognition factor Proteins 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 102100034460 Cytosolic iron-sulfur assembly component 3 Human genes 0.000 description 1
- 101710095809 Cytosolic iron-sulfur assembly component 3 Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000287107 Passer Species 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理を用いて歩行者の歩行状態および属性を判定する技術に関する。
【0002】
【従来の技術】
歩行状態の判定のための手法として、圧力センサを用いた手法が提案されている(例えば、非特許文献1参照。)。この手法は大面積に形成された圧力センサを用いて歩行者の足圧を測定し、足圧の分布および歩行の空間的パラメータ(歩幅、重複歩幅、歩隔)と時間的パラメータ(一歩歩幅、重複歩時間、遊脚時間、両足接地時間)を表示し、歩行者の歩行状態を判定する手法である。
一方、歩行状態を判定する手法として、画像を用いることにより、歩行速度や歩幅などの情報を、安価かつ広範囲に得る手法がある(例えば、特許文献1参照。)。
【0003】
また、歩行者属性の推定のための手法として、全身の形状的特徴から性別を推定する方法(例えば、非特許文献2参照。)や、歩行者の顔の特徴から年齢を推定する方法(例えば、非特許文献3参照。)などがある。非特許文献2における手法は人間のシルエットの形状に服装や髪型の違いといった男女識別情報が表れることに着目し、人物のシルエット画像にモルフォロジー処理を施して、そのパターンスペクトルの違いから男女を識別する手法である。非特許文献3における手法はCCDカメラを用いて人物の顔を撮影し、顔面の各特徴点にウェブレッツ変換処理を施して各点の方向性と周波数を求め、それを予め取得しておいた標準顔面像のものと比較して顔の認識を行う手法である。
【0004】
【非特許文献1】
大面積圧力センサを用いた歩行パターン計測装置の開発(電子情報通信学会論文誌D−II Vol.J84−D−II No.2 pp.380−389)
【特許文献1】
特開平11−339139号公報
【非特許文献2】
モルフォロジー処理によるパターンスペクトルを特微量に用いた男女識別法(電子情報通信学会論文誌 D−II Vol.J80−D−II No.5 pp.1037−1045)
【非特許文献3】
自由歩行下での顔認識(Interaction’99(情報処理学会主催研究会)IA−01 March 1999)
【0005】
【発明が解決しようとする課題】
圧力センサを用いて歩行状態を判定する手法では、薄いフィルム状のセンサが用いられる。このようなセンサは非常に繊細であり、人間の体重が掛かったり、足で強く蹴りつけられたりするような場面では、耐久性の面で不安が生じる。また、人間が歩けるスペース分の大面積のセンサが必要となるため、価格は高いものになってしまう。
【0006】
一方、画像を利用する場合、歩行者の足が何らかの障害物により隠蔽されてしまうような場面では、足元の位置や足元の状態を判別することは極めて困難である。したがって、実空間での位置を特定できないため、速度の絶対値を求めることは難しい。このため、画像から速度や歩幅の情報を得る特許文献1の方法は、使用できる場面が著しく限定されてしまう。
【0007】
また、歩行者属性推定法に関しては、前記のいずれの手法(全身形状の特徴からの性別推定法、顔の特徴からの年齢推定法)においても、安定した状態で全身又は顔の画像がはっきりと撮影されている必要があり、その利用場面が限定されてしまうため、実用性に欠ける。
【0008】
本発明は、上記実状に鑑みてなされたものであり、高い精度を保ちつつも汎用性の高い歩行状態の判定および歩行者属性の判定を可能とすることを目的とする。また、何らかのの障害物(店舗の棚など)で歩行者の足元が見えない場面における歩行状態の判定を可能にすることを他の目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するため、本発明の第1の観点に係る歩行状態判定装置は、
三次元空間を撮影した一連の二次元画像を記憶する記憶手段と、
前記記憶手段に記憶されている前記二次元画像中の検出対象者の特定部位を検出する特定部位検出手段と、
前記特定部位検出手段により検出された特定部位の前記二次元画像内での時間軸上の移動軌跡を算出する軌跡算出手段と、
前記軌跡算出手段により算出された軌跡の周波数スペクトルを得る周波数解析手段と、
前記周波数解析手段により得た周波数スペクトルに基づいて歩行状態を判定する歩行状態判定手段と、
を備えることを特徴とする。
【0010】
前記歩行状態判定装置は、さらに、
歩行運動の基本振動周波数の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記周波数スペクトルの基本振動周波数をいずれかの分類に分類して、その分類に割り当てられている分類により前記検出対象者の歩行状態を判定する手段と、
を備えてもよい。
【0011】
本発明の第2の観点に係る歩行者属性判定装置は、
前記検出対象者の速度を検出する速度検出手段と、
歩行速度の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記検出対象者の速度を分類する手段と、
前記基本振動周波数の分類と前記速度の分類とに基づいて前記検出対象者の属性を判定する手段と、
を備えることを特徴とする。
【0012】
本発明の第3の観点に係る歩行者属性判定装置は、
前記歩行状態判定装置において、前記検出対象者の身長を検出する身長検出手段と、
身長の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記検出対象者の身長を分類する分類手段と、
前記基本振動周波数の分類と前記身長の分類とに基づいて前記検出対象者の属性を判定する属性判定手段と、
を備えることを特徴とする。
【0013】
本発明の第4の観点に係る歩行状態および歩行者属性判定方法は、
三次元空間を撮影した二次元画像を入力し、
入力した二次元画像上で検出対象者を検出し、
検出された対象者の三次元時空間上の移動軌跡を算出し、
算出された移動軌跡に基づいて、対象者の運動の基本振動周波数を求め、
検出された対象者の速度を検知し、
検出された対象者の身長を検知し、
検知された基本振動周波数と速度と身長とに基づいて、対象者の歩行状態および歩行者属性を判定する、
ことを特徴とする。
【0014】
本発明の第5の観点に係るプログラムは、
コンピュータを、
三次元空間を撮影した時間軸上で連続する二次元画像を記憶する記憶手段と、
前記記憶手段に記憶されている前記二次元画像中の検出対象者の特定部位を検出する特定部位検出手段と、
前記特定部位検出手段により検出された特定部位の三次元時空間上の移動軌跡を算出する軌跡算出手段と、
前記軌跡算出手段で算出された移動軌跡の周波数スペクトルを抽出する周波数解析手段と、
前記周波数解析手段で抽出された周波数スペクトルに基づいて、対象者の歩行状態と属性とを判定する歩行状態および歩行者属性判定手段と、
として機能させることを特徴とする。
【0015】
【発明の実施の形態】
以下、図面を参照しつつ、本発明の実施の形態に係る歩行状態・歩行者属性判定装置および判定方法を説明する。
【0016】
本実施の形態に係る歩行状態・歩行者属性判定装置1は、図1に示すように、撮像装置(カメラ)11と、画像バッファ12と、高さセンサ13と、速度センサ14と、入力処理部15と、コンピュータ16と、大容量ハードディスク(HDD)17と、周波数解析処理装置(FFT)18と、から構成される。
【0017】
撮像装置11は、ディジタルスチルカメラなどから構成され、図2に模式的に示すように、三次元実空間RSの任意の位置に実空間RSを通行する歩行者を撮影するように設置されている。撮像装置11の設置位置の高さTと光軸の傾きαとは、事前に求められている。撮像装置11は、一定期間Δtおきに、三次元実空間の静止画像を取得して、任意のフォーマットの画像データを出力する。
【0018】
画像バッファ12は、撮像装置11から送られた画像データを一時的に記憶し、入力処理部15の転送速度に合わせて順次送り出す。
【0019】
高さセンサ13は、三次元実空間RSを通行する人間の高さ(背が高い、低いの別)を検出する。高さセンサ13は、図3に示すように、通路(三次元実空間RS)の一側の異なる高さ位置に配置され、それぞれ通路の他側に向けて水平に光ビームを照射する発光器131,132と、通行エリアの他側に配置された受光器133と134とから構成される。
【0020】
通行人が高さセンサ13の設置位置を通過した際、受光器133、134が発光器131、132からの光ビームをいずれも受光できなければ、通行者は背の高い人であり;受光器134が発光器132からの光ビームを受光でき、受光器133が発光器131からの光を受光できなければ、通行者は背の低い人である。
【0021】
速度センサ14は、通行人が高さセンサ13の発光器131、132のいずれかが照射する光ビームを横切った(ビームを遮った)時点で、通行人の速度を検出する。即ち、受光器133は光ビームを検出できなくなると、速度センサ14にトリガ信号を発行する。速度センサ14は、このトリガ信号に応答して、光ビームが照射されている位置の通行人の速度を検出する。
【0022】
高さセンサ13と速度センサ14とは、測定結果を入力処理部15に供給する。
【0023】
入力処理部15は、HDD17に通信ネットワークを介して接続される。入力処理部15は、図4に模式的に示すように、画像バッファ12を介して撮像装置11から連続的に供給される一連の静止画IMの画像データを撮影時刻(又は順番)tと対応付けて、HDD17に提供する。
【0024】
また、入力処理部15は、高さセンサ13の2つの受光器133,134の出力信号から、光ビームを横切った人物の背の高さを、高い、低いの2段階に分ける。更に、速度センサ14の出力から、光ビームを横切った人物の速度を1〜4の4段階に分ける(なお、このような区分は、図9を参照して後述する分類表での分類に対応する)。次に、測定時刻と対応付けて、例えば、「t=t3,背=高い、速度=3」というように対応付けて、HDD17に送信する。
【0025】
コンピュータ16は、制御部161と、メモリ162と、入力部163と、表示部164と、を備える。
【0026】
メモリ162は、図5(a)に示すように、ROM162aとRAM162bとを備える。
【0027】
ROM162aは、フラッシュメモリ、ハードディスク装置などから構成され、制御部161の動作を規定する動作プログラムを記憶する。また、ROM162aは、制御部161の動作を制御する制御データや、図5(b)に模式的に示すような、歩行者が歩行を行う際の基本周波数と速度と歩行者の身長とを統計的な値に基づいて分類した分類データを格納されている。
【0028】
RAM162bは、制御部161のワークエリアとして機能する。
【0029】
図1に示す入力部163は、キーボード、マウスなどから構成され、種々の命令やデータを制御部161に入力する。
【0030】
表示部164は、CRT、液晶表示装置などから構成され、撮像装置11により取得された二次元画像など、様々な画像を表示する。また、三次元実空間RS内を歩行する人間の頭頂部の画像上の軌跡や、FFT18により軌跡を周波数解析した結果などを表示する。
【0031】
制御部161は、コンピュータ16全体の動作を制御するためのものであり、マイクロプロセッサ等から構成され、ROM162aに格納された動作プログラムに従ってRAM162bをワークエリアとして使用して動作する。制御部161は、三次元実空間RSを歩行する歩行者の画像上軌跡を求め、軌跡の周波数スペクトル等から、歩いているのか走っているのかといった歩行者の歩行状態と、大人なのか子供なのかといった歩行者の属性とを判定して出力する。
【0032】
具体的には、制御部161は、1)HDD17に格納されている一連の二次元画像IMを読み出し、2)各二次元画像IM中の検出対象(人間)の特徴点(頭丁)を検出し、3)検出対象の特徴点の各二次元画像IM内の位置を判別し、4)各二次元画像IM中での特徴点の位置をつなぎ合わせて特徴点の一連の二次元画像IM上の軌跡を求め、5)その軌跡を周波数解析処理装置FFT18に送って周波数解析により周波数スペクトルを求めさせ、6)その周波数スペクトルから支配的な周波数成分を抽出して歩行状態を判定し、7)その歩行状態と歩行者の速度又は身長とから歩行者属性を判定して判定結果を表示部164に表示する。制御部161が実行する処理の詳細は後述する。
【0033】
HDD17は、2つの入出力ポートIOPを有し、入力処理部15から提供される二次元画像IMや高さ・速度データを第1のポートIOP1で受信して、順次記憶し、一方、コンピュータ16の要求に従って、記憶している画像データを第2のポートIOP2から出力する。また、コンピュータ16で処理された後の軌跡データやその画像データを第2ポートIOP2を介して受信して記憶する。
【0034】
周波数解析(Fast Fourier Transform)処理装置FFT18は、制御部161によって取得された二次元画像IM上の歩行者の頭頂部の時間軸上の移動軌跡を受信し、周波数解析処理を行って歩行運動の周波数スペクトルを求める。
【0035】
次に、上記構成を有する歩行状態・歩行者属性判定装置1の動作を、三次元実空間RSを歩行する歩行者の歩行状態を判定する場合を例に説明する。
【0036】
この例においては、検出対象を人間とし、その頭頂部を特徴部とする。二次元画像IM上で、人間の頭頂部を検出する処理として、ここでは、特開2002−197463号公報に記載されている技術を使用する。この処理は、入力画像を差分処理によって非背景領域と背景領域とに分別し、非背景領域の中で画像上最も高い点の座標を、検出対象部位としての人間の頭頂部として抽出する方法である。この検出対象部位を抽出するための画像処理プログラムもメモリ162に格納されている。
【0037】
1.準備動作
歩行者状態判定の一連の動作に入る前の準備段階として、事例データを収集して、これを統計的に分析して歩行状態と周波数との対応付け分類表(モデル)を作り、それをメモリ162に記憶させる。例えば幼児、大人、老人といった各年代層を含む100人の歩行者モデルにゆっくり歩き、早歩き、走行を行ってもらい、その際に得られる頭部の移動軌跡から、各々の歩行運動の基本周波数を求める(この歩行運動の基本周波数のことを歩行リズムとも呼ぶ)。次に、歩行者モデルの歩行リズムの平均値を求め、リズムが第1の所定値以上の場合は走行、第2の所定値以下はゆっくり歩き、第1の所定値と第2の所定値の間の場合は早歩き、というように境界(第1と第2の所定値)を決定する。また、その境界分けをもとに、歩行状態を分類するための分類表を作成する。この分類表は図9(a)に例示するような形をとり、歩行者の歩行リズムをこの分類表に当てはめることで、周波数が高ければ走行、中くらいならば早歩き、低ければゆっくり歩きと判定する仕様を有する。この分類表を、ROM162aに格納する。
【0038】
また、歩行者の歩行速度に関する事例データを収集し、歩行者モデルの各々の年代における歩行速度の平均値から、速度が速い遅いといった境界を決定し、リズムと速度との関係で歩行者の属性(年齢)を判定するための、図10(b)に例示するような分類表を作成し、ROM162aに格納する。歩行状態と歩行者の歩行速度とをこの分類表に当てはめることにより、例えば歩行速度が「3」で「早歩き」をしていた歩行者は大人であるとの分類が可能である。なお、入力処理部15が、速度センサ14の出力から生成する速度を示す情報は、この分類表で使用される速度のいずれかを示す情報である。
【0039】
また、歩行者の身長に関する事例データを収集し、歩行者モデルの各々の年代における身長の平均値から、身長が高い低いといった境界を決定し、リズムと身長との関係で歩行者の属性(年齢)を判定し、図10(c)に示すような分類表を作成し、ROM162aに格納する。歩行状態と歩行者の身長とをこの分類表に当てはめることにより、例えば身長が高くて走行をしていた歩行者は大人であるとの分類が可能である。なお、入力処理部15が、高さセンサ13の出力から生成する速度を示す情報は、この分類表で使用される高さのいずれかを示す情報である。
【0040】
また、頭頂部を検出するための差分処理の準備として、三次元実空間RSに歩行者が存在しない状態の画像、いわゆる背景画像を取得し、HDD17に記憶させる。
【0041】
2.二次元画像取得動作
三次元実空間RSの所定の位置に設置された撮像装置11は、一定時間Δt間隔で、三次元空間RSを撮影した二次元画像IMを取得して、出力する。この二次元画像IMは、画像バッファ12に一旦蓄積された後、入力処理部15により撮像時刻と対応付けられてHDD17に転送される。HDD17は、図4に模式的に示すように、順次転送されてくる二次元画像IMを記憶する。
【0042】
3.速度・高さ取得動作
二次元画像IMの取得動作と平行して、高さセンサ13および速度センサ14により、通行人の背の高さと速度とを示す情報を収集する。この情報は、入力処理部15により時刻情報と対応付けられてHDD17に転送され、HDD17に蓄積される。
【0043】
4.歩行状態・歩行者属性判定動作
上述の画像取得動作と並行して、或いは、上述の画像取得動作で過去に取得した一連の二次元画像IMについて、コンピュータ16は、以下の一連の動作を行って、三次元実空間RSを歩行する歩行者の歩行状態と属性(eg.年代)とを求める。この処理は、以下に説明する、特徴点検出動作と状態・属性判定動作とから構成される。
【0044】
4.1 特定部位検出動作
この処理は、各二次元画像IM上で、検出対象物の特徴点である歩行者の頭頂部の位置を求める動作である。この特徴点検出動作を図6を参照して説明する。
【0045】
コンピュータ16の制御部161は、入力部163からの入力指示等に応答して、HDD17に蓄積されている二次元画像IMを撮影時刻の順に読み出し、読み出した各二次元画像IMについて図6のフローチャートに示す処理を実行する。まず、最初の二次元画像IM(撮影時刻t0)を呼び出し、この二次元画像IM中で歩行者の頭頂部を検出する(ステップS101)。
【0046】
続いて、ステップS101の処理で得られた画像中に歩行者の画像が存在するか否かを判別する(ステップS102)。歩行者の存在が確認されなかった場合(ステップS102:No)、この画像については、これ以上の処理は行わず、メインルーチンにリターンする。
【0047】
一方、歩行者を検出した場合(ステップS102:Yes)、歩行者の特徴点(頭頂部)の位置、即ち、人間の画像のうちの最上点の座標(x、y)を検出する(ステップS103)。
【0048】
続いて、時間的に隣り合わせとなる2枚の静止画像の間でどの歩行者がどの歩行者と同一人物であるのかを確認する作業(同定作業)を行う(ステップS104)。ただし、t=t0は撮影開始時の時刻であり、それ以前の時刻の情報が存在せず、同定作業を必要としないため、素通りしてステップS105に進む。
【0049】
ステップS105においては、二次元画像IM内に新たな歩行者を検出したか否かを判別する。それ以前の二次元画像IMのないt=t0の二次元画像IM内では、全ての歩行者が新歩行者である。このため、ステップS105では、Yesと判別され、処理はステップS106へ進む。
【0050】
ステップS106において、制御部161は、画像内で新たに検出された歩行者について、その人間を識別するための情報(以下、オブジェクト番号OBi:iは整数)を割り当てる。例えば、画像内で検出した第1の歩行者にオブジェクト番号OB1を割り当てる。二次元画像IM内に歩行者が複数存在する場合は、順次、OB2、、OB3、・・・・・・を割り当てる(ステップS106)。
【0051】
次に、t=t0のタイミングで、高さセンサ13と速度センサ14によって高さと速度とが測定されて、HDD17に記憶されているか否かを判別し、記憶されていれば、対応するオブジェクトに検出された高さ(背の高さ)と速度(歩行速度)とを割り当てる(ステップS107)。なお、オブジェクトが2つ以上存在し、高さセンサ13の光ビームを横切った人物に対応するオブジェクトを判定できないような場合には、オペレータにエラー処理(オブジェクトと高さ・速度情報との対応付け)を要求してもよい。
【0052】
以上で、t=t0の二次元画像IMへの処理が終了する。
【0053】
図7(a)に、t=t0の二次元IM画像への処理の結果の例を模式的に表す。この例は、二次元画像IM内に二人の歩行者を検出し、オブジェクト番号OB1とOB2を割り当て、OB1の頭頂部の座標が(x01,y01)とOB2の頭頂部の座標が(x02,y02)であったことを示している。
【0054】
次に、制御部161は、2番目の二次元画像IM(t=t1)を選択し、この画像に図6の処理を実行する。まず、この二次元画像IM内に存在する歩行者の頭頂部を検出する(ステップS101)。
【0055】
次に、歩行者が検出されたか否かを判別し(ステップS102)、歩行者が検出されれば(ステップS102:Yes)、検出した各歩行者の頭頂部の位置座標(x,y)を検出し(ステップS103)、検出した歩行者の同定作業を行う(ステップS104)。即ち、検出した歩行者が従前の二次元画像IM内にも存在していた歩行者であるか否かを判別する。この処理のため、制御部161は、t=t0の二次元画像IM上に存在した歩行者の位置と今回検出した歩行者の位置とを比較し、両画像間で最も近い位置に存在する歩行者を同一の歩行者であると判別し、従前と同一のオブジェクト番号OBを割り当てる。
【0056】
続いて、検出された歩行者のうちで従前の画像に存在しない歩行者がいるか否かを判別する(ステップS105)。新たな歩行者の存在が確認された場合(ステップS105:Yes)、処理はステップS106へ進む。一方、新たな歩行者が検出されなかった場合(ステップS105:No)は、ステップS107にジャンプする。
【0057】
ステップS106において、制御部161は、画像で新たに検出された人間について、新規のオブジェクト番号を割り当てる。例えば、従前の画像内に歩行者が2人存在した場合、新たに検出された3人目の歩行者にオブジェクト番号OB3を割り当てる。新たに検出された歩行者が複数存在する場合は、順次、OB4、OB5、・・・・・・を割り当てる(ステップS106)。
【0058】
次に、t=t1のタイミングで、歩行者の高さと速度とが測定されて、HDD17に記憶されているか否かを判別し、記憶されていれば、対応するオブジェクトに検出された高さ(背の高さ)と速度(歩行速度)とを割り当てる(ステップS107)。
【0059】
以上で、t=t1の二次元画像IMへの処理が終了する。
【0060】
図7(b)に、t=t1の二次元画像IMへの処理の結果の例を模式的に表す。この例は、図7(a)で示した二人の歩行者がt=t0からt=t1にかけてそれぞれ移動し、OB1の頭頂部の座標が(x11,y11)、OB2の頭頂部の座標が(x12,y12)へと変化したことを示している。
【0061】
以下同様にt=tn−1まで、制御部161が画像を呼び出し、歩行者を検出し、頭頂部の座標を求めて、OBを同定する作業を繰り返す。
【0062】
図7(c)に、t=tkの二次元画像IMへの処理の結果の例を模式的に表す。この例は、OB1とOB2のそれぞれの頭頂部の座標が(xk1,yk1)と(xk2,yk2)に変化し、また、新たな人物OB3が出現していて、その頭頂部の座標が(xk3,yk3)であることを示している。
【0063】
4.2 状態・属性判定動作
次に、状態・属性判定動作を、図9のフローチャートを参照して説明する。
【0064】
まず制御部161が、HDD17内に格納されているt=t0におけるOB1の頭頂部の座標を呼び出す(ステップS201)。次に、その二次元画像IMのx軸およびy軸に直交する軸を時間軸(t軸)として定めて三次元座標(txy)を形成し、その三次元座標中のt=t0の位置に、OB1の頭頂部の位置をプロットして表示部164上に表示する。続いて、t=t1におけるOB1の頭頂部の座標を呼び出し、同様にして三次元座標上のt=t1の位置にプロットする。以下、制御部161はt=tn−1まで同じ作業を繰り返し、図8に模式的に示すように、時間軸方向に整列された各時刻(t=t0〜tn−1)のn個の頭頂部の位置を求める(ステップS202)。
【0065】
次に、このようにして得られた三次元時空間(txy)上の軌跡を周波数解析処理装置FFT18に送信する。周波数解析処理装置FFT18は、受信したOB1の三次元時空間画像上の軌跡に対して、高速フーリエ変換(FFT)を用いて周波数解析処理を行う(ステップS203)。時系列データ(x,y)tに対して、演算処理を行うことにより、頭頂部の運動軌跡の周波数スペクトルが得られる。
【0066】
周波数解析処理装置FFT18は、処理の結果を制御部161に送信する。制御部161は、得られたスペクトル分布から、最もエネルギーの大きい(振幅の大きい)周波数を基本周波成分として抽出する(ステップS204)。なお、人間の歩行動作には、ある程度の限界があるので、上限を5Hz程度としてもよい。また、歩行者が蛇行して歩いた場合に、蛇行による周波数成分を除去できるように、例えば、下限周波数を0.5Hz程度としてもよい。したがって、例えば、0.5HzZ〜5Hzの範囲内で最も振幅の大きい周波数を抽出する。
【0067】
次に、抽出した基本周波数、即ち、歩行リズム、を図10(a)に示す分類表に適応して、歩行状態がゆっくり歩きか、早歩きか、走行かを判定する(ステップS205)。
例えば、基本周波数が0.5〜1.5Hz程度であれば、「ゆっくり歩き」、基本周波数が1.5〜2.5Hz程度であれば「早歩き」、基本周波数が2.5〜5Hz程度であれば、「走行」状態にあると判定する。
【0068】
次に、処理対象のオブジェクトに割り当てられている速度を読み出し、先に判定した歩行状態(ゆっくり歩き、早歩き、走行)と共に図10(b)に示す分類表に適応し、そのオブジェクト(歩行者)の属性を判定する(ステップS206)。例えば、「ゆっくり歩き」で「速度が2」の人であれば、大人であると判定する。
【0069】
次に、処理対象のオブジェクトに割り当てられている身長を読み出し、先に判定した歩行状態(ゆっくり歩き、早歩き、走行)と共に図10(c)に示す分類表に適応し、そのオブジェクト(歩行者)の属性を判定する(ステップS207)。例えば、「ゆっくり歩き」で「身長の低い」人であれば、幼児であると判定する。
【0070】
以上で、OB1についての状態・属性判定動作の処理を終了する(ステップS208)。
【0071】
上述の処理を、各オブジェクトについて順番に繰り返して、各オブジェクト(通行人)の歩行状態と属性とを求める(ステップS209)。
【0072】
上記実施の形態では、歩行者の速度又は身長のどちらかの情報と、歩行周波数の情報とから歩行者属性の判定を行ったが、歩行者の速度と身長と周波数とを全て用いて歩行者属性を判定してもよい。その場合の分類表は、図11に模式的に示すように三次元の形態をとり、より詳細な属性判定が可能となる。
【0073】
上記実施例では、歩行者がある位置を通過する際の速度をスピードガンで測定した。しかし、測定方法はこれに限られない。例えば、通路の横方向からの画像を取って、画像内を通過する人物の速度を取得してもよい。或いは、発光器131,132を高さ方向ではなく水平方向に一定間隔を空けて配置し、発光器131,132からの照射光が遮られる時間間隔を測定して、これから速度を求めてもよい。
【0074】
また、上記実施の形態では、上下に設置された光源を用いて身長の高低を判別したが、判別方法はこれに限られない。例えば通路(三次元実空間RS)の一側に高さ方向に連続した赤外線センサを配置し、通過する歩行者から放出される赤外線を検知して、身長を測定してもよい。
【0075】
また、上記実施例では速度を4段階、身長を2段階、歩行者の年齢を3段階に分けて分類表を作成したが、分け方はこれに限られず、任意である。例えば、高さセンサ13の光源を3段階に設置し、歩行者の年齢を幼児・少年・大人・老人の4段階に分けて、より詳細な分類を行うことも可能である。
【0076】
また上記実施例では、周波数、身長および速度と、歩行状態および属性との関連付けを離散的な分類表として表現し、利用した。しかし、これらを二次元又は三次元の連続空間における統計データとして扱い、確率的に歩行状態および属性を推定することも可能である。このような確率的な取り扱いには、ベイズ推定など様々な方法があるが、ここではその詳細は限定しない。
【0077】
また上記実施の形態では、オンラインで連続静止画像を取得し、それを解析するという手法を用いた。しかし、まず最初に画像だけを取得し、時間と場所を改めてから解析を行うことも可能である。
【0078】
また上記実施例では、周波数解析処理装置FFT18を用いて周波数解析を行ったが、外部に専用の装置を設けず、コンピュータ16内で周波数解析を行ってもよい。
【0079】
また上述の実施例で述べた、対象の検出、特徴点の検出、追跡方法はこれに限られず、他の様々な方法で置き換えることができる。
【0080】
本発明の実施の形態に係る装置は、歩行者の属性(大人か、幼児か、老人か)を判定するものである。したがって、遊園地やコンサート、映画などへの来場者の客層を分析するなど、マーケティングにおける情報を得るのに有効である。また、赤外線カメラ等を用いることにより、暗闇の中などの肉眼では判定しづらい状況で歩行者を撮影し、情報を取得できるため、防犯や監視の分野においても有効となり得る。
【0081】
【発明の効果】
以上説明したように本発明によれば、観察対象エリアの歩行者の歩行状況を判定することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る歩行状態・歩行者属性判定装置の構成図である。
【図2】歩行状態・歩行者属性判定処理を説明するための図であり、歩行者の画像を取得する処理を説明するための図である。
【図3】歩行者の身長と速度を測定する処理を説明するための図である。
【図4】カメラで取得された画像が撮影時刻順にHDDに格納される様子を模式的に表す図である。
【図5】メモリの構成と、ROMに格納されるデータの例を示す図である。
【図6】画像中の歩行者の頭頂部(特徴点)を検出する処理の流れ示すフローチャートである。
【図7】歩行者検出処理の結果画像を模式的に示す図である。
【図8】画像処理によって検出された頭頂部の(txy)空間内の軌跡の例を示す図である。
【図9】歩行状態・属性判定の処理の流れを示すフローチャートである。
【図10】歩行リズム、速度、身長に基づく分類表の例を示す図である。
【図11】歩行リズムと速度と身長とに基づく分類表の例を示す図である。
【符号の説明】
11 撮像装置
12 画像バッファ
13 高さセンサ
131、132 発光器
133、134 受光器
14 速度センサ
15 入力処理部
16 コンピュータ
161 制御部
162 メモリ
162a ROM
162b RAM
163 入力部
164 表示部
17 HDD
18 FFT[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for determining a pedestrian's walking state and attributes using image processing.
[0002]
[Prior art]
As a method for determining the walking state, a method using a pressure sensor has been proposed (for example, see Non-Patent Document 1). This method measures the foot pressure of a pedestrian using a pressure sensor formed on a large area, and analyzes the distribution of foot pressure and the spatial parameters of walking (stride, overlapping stride, stride) and temporal parameters (one step, This is a method of displaying the pedestrian's walking state by displaying the overlapping walking time, the free leg time, and both foot contact time.
On the other hand, as a method of determining a walking state, there is a method of obtaining information such as a walking speed and a stride over a wide range at low cost by using an image (for example, see Patent Document 1).
[0003]
In addition, as a method for estimating pedestrian attributes, a method of estimating gender from the shape characteristics of the whole body (for example, see Non-Patent Document 2) and a method of estimating age from characteristics of a pedestrian's face (for example, , Non-Patent Document 3). The method in Non-Patent
[0004]
[Non-patent document 1]
Development of walking pattern measurement device using large area pressure sensor (Transactions of the Institute of Electronics, Information and Communication Engineers D-II Vol.J84-D-II No.2 pp.380-389)
[Patent Document 1]
JP-A-11-339139
[Non-patent document 2]
A gender discrimination method using a very small amount of pattern spectrum by morphological processing (Transactions of the Institute of Electronics, Information and Communication Engineers D-II Vol. J80-D-II No. 5 pp. 1037-1045)
[Non-Patent Document 3]
Face Recognition under Free Walking (Interaction '99 (Information Processing Society of Japan) IA-01 March 1999)
[0005]
[Problems to be solved by the invention]
In a method of determining a walking state using a pressure sensor, a thin film sensor is used. Such a sensor is very delicate, and in a situation where the weight of a human is hung or a person is strongly kicked with a foot, anxiety arises in terms of durability. Further, since a sensor having a large area corresponding to a space where humans can walk is required, the price is high.
[0006]
On the other hand, when an image is used, it is extremely difficult to determine the position of the foot and the state of the foot in a situation where the foot of the pedestrian is hidden by some obstacle. Therefore, it is difficult to determine the absolute value of the speed because the position in the real space cannot be specified. For this reason, the method of
[0007]
Regarding the pedestrian attribute estimation method, in any of the above methods (sex estimation method from whole body shape feature, age estimation method from face feature), whole body or face image is clearly displayed in a stable state. It is necessary to be photographed, and the use scene is limited, so that it lacks practicality.
[0008]
The present invention has been made in view of the above situation, and has as its object to enable highly versatile determination of a walking state and determination of a pedestrian attribute while maintaining high accuracy. Another object of the present invention is to make it possible to determine a walking state in a scene where a foot of a pedestrian is not visible due to some obstacle (such as a store shelf).
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a walking state determination device according to a first aspect of the present invention includes:
Storage means for storing a series of two-dimensional images taken of a three-dimensional space;
A specific part detection means for detecting a specific part of the detection target person in the two-dimensional image stored in the storage means,
Trajectory calculation means for calculating a movement trajectory on the time axis in the two-dimensional image of the specific part detected by the specific part detection means,
Frequency analyzing means for obtaining a frequency spectrum of the locus calculated by the locus calculating means,
Walking state determining means for determining a walking state based on the frequency spectrum obtained by the frequency analyzing means,
It is characterized by having.
[0010]
The walking state determination device further includes:
Storage means for storing statistical case data of the fundamental vibration frequency of the walking motion;
Means for classifying the fundamental vibration frequency of the frequency spectrum into one of the categories based on the case data, and determining a walking state of the detection target person by the category assigned to the category;
May be provided.
[0011]
The pedestrian attribute determination device according to the second aspect of the present invention includes:
Speed detection means for detecting the speed of the detection target person,
Storage means for storing statistical case data of walking speed;
Means for classifying the speed of the detection target person based on the case data,
Means for determining the attribute of the detection target person based on the classification of the fundamental vibration frequency and the classification of the speed,
It is characterized by having.
[0012]
The pedestrian attribute determination device according to the third aspect of the present invention includes:
In the walking state determination device, height detection means for detecting the height of the detection target person,
Storage means for storing statistical height case data;
Classification means for classifying the height of the detection target person based on the case data,
Attribute determination means for determining the attribute of the detection target person based on the classification of the fundamental vibration frequency and the classification of the height,
It is characterized by having.
[0013]
The walking state and the pedestrian attribute determining method according to the fourth aspect of the present invention include:
Input a two-dimensional image of a three-dimensional space,
Detect the target person on the input two-dimensional image,
Calculate the moving trajectory of the detected subject in three-dimensional space-time,
Based on the calculated trajectory, the fundamental vibration frequency of the subject's motion is determined,
Detect the speed of the detected subject,
Detects the height of the detected subject,
Based on the detected fundamental vibration frequency, speed, and height, determine the walking state and pedestrian attribute of the subject,
It is characterized by the following.
[0014]
A program according to a fifth aspect of the present invention includes:
Computer
Storage means for storing a continuous two-dimensional image on a time axis taken of a three-dimensional space,
A specific part detection means for detecting a specific part of the detection target person in the two-dimensional image stored in the storage means,
Trajectory calculation means for calculating a movement trajectory in three-dimensional space-time of the specific part detected by the specific part detection means,
Frequency analysis means for extracting the frequency spectrum of the movement trajectory calculated by the trajectory calculation means,
Based on the frequency spectrum extracted by the frequency analysis unit, a walking state and a pedestrian attribute determining unit that determines a walking state and an attribute of the subject,
It is characterized by functioning as
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a walking state / pedestrian attribute determination device and a determination method according to an embodiment of the present invention will be described with reference to the drawings.
[0016]
As shown in FIG. 1, a walking state / pedestrian
[0017]
The
[0018]
The
[0019]
The
[0020]
When the passerby passes the installation position of the
[0021]
The
[0022]
The
[0023]
The
[0024]
In addition, the
[0025]
The
[0026]
The
[0027]
The
[0028]
The
[0029]
The
[0030]
The
[0031]
The
[0032]
Specifically, the
[0033]
The
[0034]
The frequency analysis (Fast Fourier Transform) processing device FFT18 receives the movement locus of the pedestrian's crown on the time axis on the two-dimensional image IM acquired by the
[0035]
Next, the operation of the walking state / pedestrian
[0036]
In this example, the detection target is a human, and the top of the head is a feature. Here, a technique described in Japanese Patent Application Laid-Open No. 2002-197463 is used as a process for detecting the top of a human head on the two-dimensional image IM. In this process, the input image is classified into a non-background region and a background region by a difference process, and the coordinates of the highest point on the image in the non-background region are extracted as the top of a human head as a detection target portion. is there. An image processing program for extracting the detection target part is also stored in the
[0037]
1. Preparation operation
As a preparatory step before entering a series of operations for determining a pedestrian state, case data is collected and statistically analyzed to create a classification table (model) for associating the pedestrian state with the frequency. 162 is stored. For example, 100 pedestrian models including each age group such as infants, adults, and the elderly walk slowly, walk fast, and have them run. From the locus of the head obtained at that time, the fundamental frequency of each walking motion is calculated. (The fundamental frequency of this walking motion is also called a walking rhythm). Next, an average value of the walking rhythm of the pedestrian model is obtained. If the rhythm is equal to or more than the first predetermined value, the vehicle runs, if the rhythm is equal to or less than the second predetermined value, walks slowly, and the first predetermined value and the second predetermined value are compared. The boundary (first and second predetermined values) is determined, for example, if the distance is between the two, the person walks fast. Further, a classification table for classifying walking states is created based on the boundary division. This classification table takes a form as exemplified in FIG. 9 (a), and the walking rhythm of the pedestrian is applied to this classification table. It has a specification to judge. This classification table is stored in the
[0038]
It also collects case data on pedestrian walking speeds, determines the boundaries of high and low speeds from the average of walking speeds for each age of the pedestrian model, and determines the attributes of pedestrians in relation to rhythm and speed. A classification table as illustrated in FIG. 10B for determining (age) is created and stored in the
[0039]
It also collects case data on the height of pedestrians, determines the boundaries of height and height from the average height of the pedestrian model at each age, and determines the pedestrian's attributes (age ) Is determined, and a classification table as shown in FIG. 10C is created and stored in the
[0040]
In addition, as a preparation for a difference process for detecting a crown, an image in a state where no pedestrian exists in the three-dimensional real space RS, that is, a so-called background image is acquired and stored in the
[0041]
2. 2D image acquisition operation
The
[0042]
3. Speed / height acquisition operation
In parallel with the acquisition operation of the two-dimensional image IM, the
[0043]
4. Walking state / pedestrian attribute judgment operation
With respect to a series of two-dimensional images IM acquired in parallel with the above-described image acquisition operation or in the past in the above-described image acquisition operation, the
[0044]
4.1 Specific site detection operation
This processing is an operation for obtaining the position of the top of the pedestrian, which is the feature point of the detection target, on each two-dimensional image IM. This feature point detection operation will be described with reference to FIG.
[0045]
The
[0046]
Subsequently, it is determined whether or not an image of a pedestrian exists in the image obtained in the process of step S101 (step S102). When the presence of the pedestrian is not confirmed (step S102: No), the image returns to the main routine without performing any further processing.
[0047]
On the other hand, when a pedestrian is detected (Step S102: Yes), the position of the pedestrian's characteristic point (top), that is, the coordinates (x, y) of the highest point in the human image is detected (Step S103). ).
[0048]
Subsequently, an operation (identification operation) of confirming which pedestrian is the same person as which pedestrian is performed between two temporally adjacent still images (step S104). Where t = t 0 Is the time at the start of photographing, since there is no information on the time before that and no identification work is required, the process proceeds to step S105 without any processing.
[0049]
In step S105, it is determined whether a new pedestrian has been detected in the two-dimensional image IM. T = t without previous two-dimensional image IM 0 In the two-dimensional image IM, all pedestrians are new pedestrians. Thus, in step S105, the determination is Yes, and the process proceeds to step S106.
[0050]
In step S106, the
[0051]
Next, t = t 0 At the timing, the height and the speed are measured by the
[0052]
As described above, t = t 0 Is completed for the two-dimensional image IM.
[0053]
FIG. 7A shows that t =
[0054]
Next, the
[0055]
Next, it is determined whether or not a pedestrian is detected (step S102). If a pedestrian is detected (step S102: Yes), the detected position coordinates (x, y) of the top of each pedestrian are determined. The pedestrian is detected (step S103), and the identified pedestrian is identified (step S104). That is, it is determined whether or not the detected pedestrian is a pedestrian that also existed in the previous two-dimensional image IM. For this processing, the
[0056]
Subsequently, it is determined whether or not there is a pedestrian that does not exist in the previous image among the detected pedestrians (step S105). If the presence of a new pedestrian is confirmed (step S105: Yes), the process proceeds to step S106. On the other hand, if no new pedestrian is detected (step S105: No), the process jumps to step S107.
[0057]
In step S106, the
[0058]
Next, t = t 1 At the timing, the height and speed of the pedestrian are measured, and it is determined whether or not the pedestrian is stored in the
[0059]
As described above, t = t 1 Is completed for the two-dimensional image IM.
[0060]
FIG. 7B shows that t =
[0061]
Similarly, t = t n-1 Up to this point, the
[0062]
FIG. 7C shows that t =
[0063]
4.2 State / attribute determination operation
Next, the state / attribute determination operation will be described with reference to the flowchart in FIG.
[0064]
First, the
[0065]
Next, the trajectory on the three-dimensional space-time (txy) obtained in this way is transmitted to the frequency analysis processor FFT18. The frequency analysis processing device FFT18 performs a frequency analysis process on the received trajectory of the OB1 on the three-dimensional spatiotemporal image using the fast Fourier transform (FFT) (step S203). By performing arithmetic processing on the time-series data (x, y) t, a frequency spectrum of the motion locus of the crown can be obtained.
[0066]
The frequency analysis processing device FFT18 transmits the processing result to the
[0067]
Next, the extracted fundamental frequency, that is, the walking rhythm is adapted to the classification table shown in FIG. 10A to determine whether the walking state is slow walking, fast walking, or running (step S205).
For example, if the fundamental frequency is about 0.5 to 1.5 Hz, "walk slowly", if the fundamental frequency is about 1.5 to 2.5 Hz, "walk fast", the fundamental frequency is about 2.5 to 5 Hz. If so, it is determined that the vehicle is in the “running” state.
[0068]
Next, the speed assigned to the object to be processed is read, and adapted to the classification state shown in FIG. 10B together with the previously determined walking state (slow walking, fast walking, running), and the object (pedestrian) ) Is determined (step S206). For example, if the person is “walking slowly” and the “speed is 2”, it is determined that the person is an adult.
[0069]
Next, the height assigned to the object to be processed is read out, and the walking state (slow walking, fast walking, running) determined earlier is adapted to the classification table shown in FIG. ) Is determined (step S207). For example, a person who is "slowly walking" and "short" is determined to be an infant.
[0070]
Thus, the processing of the state / attribute determination operation for OB1 ends (step S208).
[0071]
The above processing is repeated for each object in order, and the walking state and the attribute of each object (passer) are obtained (step S209).
[0072]
In the above embodiment, the pedestrian attribute is determined from the information on either the speed or the height of the pedestrian and the information on the walking frequency. The attribute may be determined. In this case, the classification table takes a three-dimensional form as schematically shown in FIG. 11, and allows more detailed attribute determination.
[0073]
In the above embodiment, the speed at which a pedestrian passes through a certain position was measured with a speed gun. However, the measuring method is not limited to this. For example, the speed of a person passing through the image may be obtained by taking an image from the lateral direction of the passage. Alternatively, the
[0074]
Further, in the above-described embodiment, the height is determined using the light sources installed above and below, but the determination method is not limited to this. For example, an infrared sensor that is continuous in the height direction may be arranged on one side of the passage (the three-dimensional real space RS), and infrared light emitted from a pedestrian passing therethrough may be detected to measure the height.
[0075]
In the above-described embodiment, the classification table is created by dividing the speed into four levels, the height into two levels, and the pedestrian's age into three levels. However, the classification is not limited to this, and is arbitrary. For example, it is possible to arrange the light source of the
[0076]
In the above-described embodiment, the association between the frequency, the height, and the speed, and the walking state and the attribute are expressed as a discrete classification table and used. However, it is also possible to treat these as statistical data in a two-dimensional or three-dimensional continuous space and stochastically estimate a walking state and attributes. There are various methods of such stochastic treatment, such as Bayesian estimation, but the details are not limited here.
[0077]
In the above-described embodiment, a method of acquiring a continuous still image online and analyzing it is used. However, it is also possible to acquire only the image first and then change the time and place before conducting the analysis.
[0078]
In the above embodiment, the frequency analysis is performed using the frequency analysis processing device FFT18. However, the frequency analysis may be performed in the
[0079]
Further, the method of detecting an object, the method of detecting a feature point, and the method of tracking described in the above embodiment are not limited to the above, and may be replaced by various other methods.
[0080]
The device according to the embodiment of the present invention determines the attribute of a pedestrian (adult, infant, or elderly). Therefore, it is effective for obtaining information in marketing, such as analyzing the audience of visitors to amusement parks, concerts, movies, and the like. In addition, by using an infrared camera or the like, a pedestrian can be photographed and information can be acquired in a situation where it is difficult to determine with the naked eye such as in the dark, so that it can be effective in the field of crime prevention and monitoring.
[0081]
【The invention's effect】
As described above, according to the present invention, it is possible to determine the walking status of a pedestrian in the observation target area.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a walking state / pedestrian attribute determination device according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a walking state / pedestrian attribute determination process, and is a diagram for explaining a process of acquiring an image of a pedestrian;
FIG. 3 is a diagram for explaining a process of measuring the height and speed of a pedestrian;
FIG. 4 is a diagram schematically illustrating a state where images acquired by a camera are stored in an HDD in order of photographing time.
FIG. 5 is a diagram showing a configuration of a memory and an example of data stored in a ROM.
FIG. 6 is a flowchart illustrating a flow of a process of detecting a top portion (feature point) of a pedestrian in an image.
FIG. 7 is a diagram schematically illustrating a result image of the pedestrian detection process.
FIG. 8 is a diagram illustrating an example of a trajectory in the (txy) space of a crown detected by image processing.
FIG. 9 is a flowchart showing the flow of processing for determining a walking state / attribute.
FIG. 10 is a diagram showing an example of a classification table based on walking rhythm, speed, and height.
FIG. 11 is a diagram showing an example of a classification table based on walking rhythm, speed, and height.
[Explanation of symbols]
11 Imaging device
12 Image buffer
13 Height sensor
131, 132 light emitter
133, 134 Receiver
14 Speed sensor
15 Input processing unit
16 Computer
161 control unit
162 memory
162a ROM
162b RAM
163 input section
164 display
17 HDD
18 FFT
Claims (6)
前記記憶手段に記憶されている前記二次元画像中の検出対象者の特定部位を検出する特定部位検出手段と、
前記特定部位検出手段により検出された特定部位の前記二次元画像内での時間軸上の移動軌跡を算出する軌跡算出手段と、
前記軌跡算出手段により算出された軌跡の周波数スペクトルを得る周波数解析手段と、
前記周波数解析手段により得た周波数スペクトルに基づいて歩行状態を判定する歩行状態判定手段と、
を備えることを特徴とする歩行状態判定装置。Storage means for storing a series of two-dimensional images taken of a three-dimensional space;
A specific part detection means for detecting a specific part of the detection target person in the two-dimensional image stored in the storage means,
Trajectory calculation means for calculating a movement trajectory on the time axis in the two-dimensional image of the specific part detected by the specific part detection means,
Frequency analyzing means for obtaining a frequency spectrum of the locus calculated by the locus calculating means,
Walking state determining means for determining a walking state based on the frequency spectrum obtained by the frequency analyzing means,
A walking state determination device comprising:
該事例データに基づいて前記周波数スペクトルの基本振動周波数をいずれかの分類に分類して、その分類に割り当てられている分類により前記検出対象者の歩行状態を判定する手段と、
を備えることを特徴とする請求項1に記載の歩行状態判定装置。Storage means for storing statistical case data of the fundamental vibration frequency of the walking motion;
Means for classifying the fundamental vibration frequency of the frequency spectrum into one of the categories based on the case data, and determining a walking state of the detection target person by the category assigned to the category;
The walking state determination device according to claim 1, further comprising:
歩行速度の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記検出対象者の速度を分類する手段と、
前記基本振動周波数の分類と前記速度の分類とに基づいて前記検出対象者の属性を判定する手段と、
を備えることを特徴とする歩行者属性判定装置。Speed detection means for detecting the speed of the detection target person,
Storage means for storing statistical case data of walking speed;
Means for classifying the speed of the detection target person based on the case data,
Means for determining the attribute of the detection target person based on the classification of the fundamental vibration frequency and the classification of the speed,
A pedestrian attribute determination device, comprising:
身長の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記検出対象者の身長を分類する分類手段と、
前記基本振動周波数の分類と前記身長の分類とに基づいて前記検出対象者の属性を判定する属性判定手段と、
を備えることを特徴とする歩行者属性判定装置。In the walking state determination device, height detection means for detecting the height of the detection target person,
Storage means for storing statistical height case data;
Classification means for classifying the height of the detection target person based on the case data,
Attribute determination means for determining the attribute of the detection target person based on the classification of the fundamental vibration frequency and the classification of the height,
A pedestrian attribute determination device, comprising:
入力した二次元画像上で検出対象者を検出し、
検出された対象者の三次元時空間上の移動軌跡を算出し、
算出された移動軌跡に基づいて、対象者の運動の基本振動周波数を求め、
検出された対象者の速度を検知し、
検出された対象者の身長を検知し、
検知された基本振動周波数と速度と身長とに基づいて、対象者の歩行状態および歩行者属性を判定する、
ことを特徴とする歩行状態および歩行者属性判定方法。Input a two-dimensional image of a three-dimensional space,
Detect the target person on the input two-dimensional image,
Calculate the moving trajectory of the detected subject in three-dimensional space-time,
Based on the calculated trajectory, the fundamental vibration frequency of the subject's motion is determined,
Detect the speed of the detected subject,
Detects the height of the detected subject,
Based on the detected fundamental vibration frequency, speed, and height, determine the walking state and pedestrian attribute of the subject,
A method for determining a walking state and a pedestrian attribute.
三次元空間を撮影した時間軸上で連続する二次元画像を記憶する記憶手段と、
前記記憶手段に記憶されている前記二次元画像中の検出対象者の特定部位を検出する特定部位検出手段と、
前記特定部位検出手段により検出された特定部位の三次元時空間上の移動軌跡を算出する軌跡算出手段と、
前記軌跡算出手段で算出された移動軌跡の周波数スペクトルを抽出する周波数解析手段と、
前記周波数解析手段で抽出された周波数スペクトルに基づいて、対象者の歩行状態と属性とを判定する歩行状態および歩行者属性判定手段と、
として機能させることを特徴とするプログラム。Computer
Storage means for storing a continuous two-dimensional image on a time axis taken of a three-dimensional space,
A specific part detection means for detecting a specific part of the detection target person in the two-dimensional image stored in the storage means,
Trajectory calculation means for calculating a movement trajectory in three-dimensional space-time of the specific part detected by the specific part detection means,
Frequency analysis means for extracting the frequency spectrum of the movement trajectory calculated by the trajectory calculation means,
Based on the frequency spectrum extracted by the frequency analysis unit, a walking state and a pedestrian attribute determining unit that determines a walking state and an attribute of the subject,
A program characterized by functioning as a program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003092910A JP3655618B2 (en) | 2003-03-28 | 2003-03-28 | Pedestrian age determination device, walking state / pedestrian age determination method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003092910A JP3655618B2 (en) | 2003-03-28 | 2003-03-28 | Pedestrian age determination device, walking state / pedestrian age determination method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004298285A true JP2004298285A (en) | 2004-10-28 |
JP3655618B2 JP3655618B2 (en) | 2005-06-02 |
Family
ID=33405824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003092910A Expired - Lifetime JP3655618B2 (en) | 2003-03-28 | 2003-03-28 | Pedestrian age determination device, walking state / pedestrian age determination method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3655618B2 (en) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007078355A (en) * | 2005-09-09 | 2007-03-29 | Toa Corp | Height measuring instrument |
JP2008146185A (en) * | 2006-12-06 | 2008-06-26 | Univ Waseda | Moving object detection device and program for moving object detection device |
DE102008027588A1 (en) | 2007-06-12 | 2009-01-08 | Fuji Jukogyo K.K. | Device for detecting pedestrians |
CN102697507A (en) * | 2012-06-26 | 2012-10-03 | 中国人民解放军第三军医大学第三附属医院 | System for analyzing walking state of rehabilitation training of patient |
WO2013103151A1 (en) * | 2012-01-04 | 2013-07-11 | 株式会社ニコン | Electronic device, method for generating information, and method for estimating position |
CN104257385A (en) * | 2014-10-16 | 2015-01-07 | 辽宁省颅面复原技术重点实验室 | Method for measuring height of human body in video images |
JP2016514976A (en) * | 2013-02-28 | 2016-05-26 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Apparatus and method for detecting a subject based on vital signs |
JP2016194829A (en) * | 2015-03-31 | 2016-11-17 | 富士通株式会社 | Display processing method, determination processing method, display processing program, determination processing program, and processing device |
JP2016206100A (en) * | 2015-04-27 | 2016-12-08 | 本田技研工業株式会社 | Moving body moving speed estimation device and moving body control device |
JP2017000601A (en) * | 2015-06-15 | 2017-01-05 | 花王株式会社 | Walking cycle detection method and detection apparatus |
JP2017168885A (en) * | 2016-03-14 | 2017-09-21 | 株式会社 日立産業制御ソリューションズ | Imaging control apparatus and camera |
CN110070044A (en) * | 2019-04-23 | 2019-07-30 | 中国民航大学 | Pedestrian's attribute recognition approach based on deep learning |
WO2019156799A1 (en) * | 2018-02-12 | 2019-08-15 | Microvision, Inc. | Smart pulsing in regions of interest in scanned beam 3d sensing systems |
US10671219B2 (en) | 2018-02-12 | 2020-06-02 | Microvision, Inc. | Scanning time of flight 3D sensing with smart pulsing |
CN111784742A (en) * | 2020-06-29 | 2020-10-16 | 杭州海康威视数字技术股份有限公司 | Cross-lens tracking method and device for pedestrians |
JP2021068044A (en) * | 2019-10-18 | 2021-04-30 | ヤフー株式会社 | Device, method, and program for processing information |
CN112926500A (en) * | 2021-03-22 | 2021-06-08 | 重庆邮电大学 | Pedestrian detection method combining head and overall information |
CN113271848A (en) * | 2019-02-05 | 2021-08-17 | 株式会社日立制作所 | Body health state image analysis device, method and system |
US20230136684A1 (en) * | 2021-11-01 | 2023-05-04 | Toyota Jidosha Kabushiki Kaisha | Person movement type determination method, person movement type determination device, and storage medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6127455B2 (en) * | 2012-11-08 | 2017-05-17 | 花王株式会社 | Walking age evaluation method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH056500A (en) * | 1990-09-19 | 1993-01-14 | Hitachi Ltd | Mobile / facility control system |
JPH07160883A (en) * | 1993-12-09 | 1995-06-23 | Nippon Telegr & Teleph Corp <Ntt> | Person attribute detection device |
JPH08249444A (en) * | 1995-03-09 | 1996-09-27 | Nippon Telegr & Teleph Corp <Ntt> | Method for detecting object attribute |
JP2003228701A (en) * | 2002-02-05 | 2003-08-15 | Japan Science & Technology Corp | Lameness diagnosis system |
-
2003
- 2003-03-28 JP JP2003092910A patent/JP3655618B2/en not_active Expired - Lifetime
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH056500A (en) * | 1990-09-19 | 1993-01-14 | Hitachi Ltd | Mobile / facility control system |
JPH07160883A (en) * | 1993-12-09 | 1995-06-23 | Nippon Telegr & Teleph Corp <Ntt> | Person attribute detection device |
JPH08249444A (en) * | 1995-03-09 | 1996-09-27 | Nippon Telegr & Teleph Corp <Ntt> | Method for detecting object attribute |
JP2003228701A (en) * | 2002-02-05 | 2003-08-15 | Japan Science & Technology Corp | Lameness diagnosis system |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007078355A (en) * | 2005-09-09 | 2007-03-29 | Toa Corp | Height measuring instrument |
JP2008146185A (en) * | 2006-12-06 | 2008-06-26 | Univ Waseda | Moving object detection device and program for moving object detection device |
DE102008027588A1 (en) | 2007-06-12 | 2009-01-08 | Fuji Jukogyo K.K. | Device for detecting pedestrians |
US8160300B2 (en) | 2007-06-12 | 2012-04-17 | Fuji Jukogyo Kabushiki Kaisha | Pedestrian detecting apparatus |
WO2013103151A1 (en) * | 2012-01-04 | 2013-07-11 | 株式会社ニコン | Electronic device, method for generating information, and method for estimating position |
CN102697507A (en) * | 2012-06-26 | 2012-10-03 | 中国人民解放军第三军医大学第三附属医院 | System for analyzing walking state of rehabilitation training of patient |
JP2016514976A (en) * | 2013-02-28 | 2016-05-26 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Apparatus and method for detecting a subject based on vital signs |
CN104257385A (en) * | 2014-10-16 | 2015-01-07 | 辽宁省颅面复原技术重点实验室 | Method for measuring height of human body in video images |
JP2016194829A (en) * | 2015-03-31 | 2016-11-17 | 富士通株式会社 | Display processing method, determination processing method, display processing program, determination processing program, and processing device |
JP2016206100A (en) * | 2015-04-27 | 2016-12-08 | 本田技研工業株式会社 | Moving body moving speed estimation device and moving body control device |
JP2017000601A (en) * | 2015-06-15 | 2017-01-05 | 花王株式会社 | Walking cycle detection method and detection apparatus |
JP2017168885A (en) * | 2016-03-14 | 2017-09-21 | 株式会社 日立産業制御ソリューションズ | Imaging control apparatus and camera |
WO2019156799A1 (en) * | 2018-02-12 | 2019-08-15 | Microvision, Inc. | Smart pulsing in regions of interest in scanned beam 3d sensing systems |
US10474248B2 (en) | 2018-02-12 | 2019-11-12 | Microvision, Inc. | Smart pulsing in regions of interest in scanned beam 3D sensing systems |
US10671219B2 (en) | 2018-02-12 | 2020-06-02 | Microvision, Inc. | Scanning time of flight 3D sensing with smart pulsing |
CN113271848A (en) * | 2019-02-05 | 2021-08-17 | 株式会社日立制作所 | Body health state image analysis device, method and system |
CN113271848B (en) * | 2019-02-05 | 2024-01-02 | 株式会社日立制作所 | Body health state image analysis device, method and system |
CN110070044A (en) * | 2019-04-23 | 2019-07-30 | 中国民航大学 | Pedestrian's attribute recognition approach based on deep learning |
CN110070044B (en) * | 2019-04-23 | 2023-03-10 | 中国民航大学 | Pedestrian attribute identification method based on deep learning |
JP2021068044A (en) * | 2019-10-18 | 2021-04-30 | ヤフー株式会社 | Device, method, and program for processing information |
CN111784742B (en) * | 2020-06-29 | 2023-08-29 | 杭州海康威视数字技术股份有限公司 | Pedestrian cross-lens tracking method and device |
CN111784742A (en) * | 2020-06-29 | 2020-10-16 | 杭州海康威视数字技术股份有限公司 | Cross-lens tracking method and device for pedestrians |
CN112926500A (en) * | 2021-03-22 | 2021-06-08 | 重庆邮电大学 | Pedestrian detection method combining head and overall information |
US20230136684A1 (en) * | 2021-11-01 | 2023-05-04 | Toyota Jidosha Kabushiki Kaisha | Person movement type determination method, person movement type determination device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP3655618B2 (en) | 2005-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3655618B2 (en) | Pedestrian age determination device, walking state / pedestrian age determination method and program | |
JP6296043B2 (en) | Measuring device, measuring method and measuring program | |
JP5950296B2 (en) | Person tracking attribute estimation device, person tracking attribute estimation method, program | |
CN105574501B (en) | A kind of stream of people's video detecting analysis system | |
TWI508004B (en) | Object counter and method for counting objects | |
JP6120404B2 (en) | Mobile body behavior analysis / prediction device | |
Gomes et al. | Multi-human fall detection and localization in videos | |
JP6779410B2 (en) | Video analyzer, video analysis method, and program | |
JP5027741B2 (en) | Image monitoring device | |
JP7263094B2 (en) | Information processing device, information processing method and program | |
JP2018099267A (en) | Movement quantity estimation device, movement quantity estimation program and movement quantity estimation system | |
JPH10334207A (en) | Human flow measurement device | |
CN112597903B (en) | Electric power personnel safety state intelligent identification method and medium based on stride measurement | |
Nguyen et al. | Extracting silhouette-based characteristics for human gait analysis using one camera | |
JP2015230616A (en) | Image processing method and image processor | |
US20230062630A1 (en) | Touch recognition method and device having lidar sensor | |
JP2012230494A (en) | Pedestrian detection device | |
KR101355206B1 (en) | A count system of coming and going using image analysis and method thereof | |
KR20230008483A (en) | Apparatus and method for measuring pedestrian volume | |
Bansal et al. | Elderly people fall detection system using skeleton tracking and recognition | |
CN117593788A (en) | Human body posture classification method based on computer vision | |
JP2010205015A (en) | Group behavior estimation device and service provision system | |
JP2004167002A (en) | Instrument and method for measuring step | |
JP7208051B2 (en) | State recognition device | |
JP3810755B2 (en) | POSITION JUDGING DEVICE, MOVING ROUTE CALCULATION DEVICE, POSITION JUDGING METHOD AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050303 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3655618 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080311 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090311 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090311 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100311 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100311 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110311 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110311 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120311 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120311 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130311 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130311 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140311 Year of fee payment: 9 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |