+

JP2004298285A - Judgment device and judgment method of walking condition and pedestrian attribute - Google Patents

Judgment device and judgment method of walking condition and pedestrian attribute Download PDF

Info

Publication number
JP2004298285A
JP2004298285A JP2003092910A JP2003092910A JP2004298285A JP 2004298285 A JP2004298285 A JP 2004298285A JP 2003092910 A JP2003092910 A JP 2003092910A JP 2003092910 A JP2003092910 A JP 2003092910A JP 2004298285 A JP2004298285 A JP 2004298285A
Authority
JP
Japan
Prior art keywords
pedestrian
height
speed
walking
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003092910A
Other languages
Japanese (ja)
Other versions
JP3655618B2 (en
Inventor
Hiroyuki Arai
啓之 新井
Takahiko Niimura
貴彦 新村
Ushio Inoue
潮 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Group Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2003092910A priority Critical patent/JP3655618B2/en
Publication of JP2004298285A publication Critical patent/JP2004298285A/en
Application granted granted Critical
Publication of JP3655618B2 publication Critical patent/JP3655618B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a judgment device and a judgment method of a walking condition and a pedestrian attribute with which judgment of the walking condition and the pedestrian attribute can be performed with high accuracy and wide utility. <P>SOLUTION: A photographing apparatus 11 takes a picture of a pedestrian and obtains a two-dimensional picture every constant period of time. A height sensor 13 detects the height of the pedestrian and a speed sensor 14 detects a travel speed of the pedestrian. A controlling member 161 detects a vertex of the pedestrian in the two-dimensional picture and acquires a movement track of the vertex on a time axis from a temporal transition of the position of the vertex in the picture. An FFT 18 performs a frequency analysis of the orbit and acquires a frequency spectrum of the movement of the vertex. The controlling member 161 judges a basic frequency of the walking motion from the frequency spectrum and compares the basic frequency with a predetermined model of the walking condition to judge the walking condition of the pedestrian. The pedestrian attribute is judged by the speed and the height of the pedestrian detected by the height sensor 13 and the speed sensor 14 in relation to the walking condition. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理を用いて歩行者の歩行状態および属性を判定する技術に関する。
【0002】
【従来の技術】
歩行状態の判定のための手法として、圧力センサを用いた手法が提案されている(例えば、非特許文献1参照。)。この手法は大面積に形成された圧力センサを用いて歩行者の足圧を測定し、足圧の分布および歩行の空間的パラメータ(歩幅、重複歩幅、歩隔)と時間的パラメータ(一歩歩幅、重複歩時間、遊脚時間、両足接地時間)を表示し、歩行者の歩行状態を判定する手法である。
一方、歩行状態を判定する手法として、画像を用いることにより、歩行速度や歩幅などの情報を、安価かつ広範囲に得る手法がある(例えば、特許文献1参照。)。
【0003】
また、歩行者属性の推定のための手法として、全身の形状的特徴から性別を推定する方法(例えば、非特許文献2参照。)や、歩行者の顔の特徴から年齢を推定する方法(例えば、非特許文献3参照。)などがある。非特許文献2における手法は人間のシルエットの形状に服装や髪型の違いといった男女識別情報が表れることに着目し、人物のシルエット画像にモルフォロジー処理を施して、そのパターンスペクトルの違いから男女を識別する手法である。非特許文献3における手法はCCDカメラを用いて人物の顔を撮影し、顔面の各特徴点にウェブレッツ変換処理を施して各点の方向性と周波数を求め、それを予め取得しておいた標準顔面像のものと比較して顔の認識を行う手法である。
【0004】
【非特許文献1】
大面積圧力センサを用いた歩行パターン計測装置の開発(電子情報通信学会論文誌D−II Vol.J84−D−II No.2 pp.380−389)
【特許文献1】
特開平11−339139号公報
【非特許文献2】
モルフォロジー処理によるパターンスペクトルを特微量に用いた男女識別法(電子情報通信学会論文誌 D−II Vol.J80−D−II No.5 pp.1037−1045)
【非特許文献3】
自由歩行下での顔認識(Interaction’99(情報処理学会主催研究会)IA−01 March 1999)
【0005】
【発明が解決しようとする課題】
圧力センサを用いて歩行状態を判定する手法では、薄いフィルム状のセンサが用いられる。このようなセンサは非常に繊細であり、人間の体重が掛かったり、足で強く蹴りつけられたりするような場面では、耐久性の面で不安が生じる。また、人間が歩けるスペース分の大面積のセンサが必要となるため、価格は高いものになってしまう。
【0006】
一方、画像を利用する場合、歩行者の足が何らかの障害物により隠蔽されてしまうような場面では、足元の位置や足元の状態を判別することは極めて困難である。したがって、実空間での位置を特定できないため、速度の絶対値を求めることは難しい。このため、画像から速度や歩幅の情報を得る特許文献1の方法は、使用できる場面が著しく限定されてしまう。
【0007】
また、歩行者属性推定法に関しては、前記のいずれの手法(全身形状の特徴からの性別推定法、顔の特徴からの年齢推定法)においても、安定した状態で全身又は顔の画像がはっきりと撮影されている必要があり、その利用場面が限定されてしまうため、実用性に欠ける。
【0008】
本発明は、上記実状に鑑みてなされたものであり、高い精度を保ちつつも汎用性の高い歩行状態の判定および歩行者属性の判定を可能とすることを目的とする。また、何らかのの障害物(店舗の棚など)で歩行者の足元が見えない場面における歩行状態の判定を可能にすることを他の目的とする。
【0009】
【課題を解決するための手段】
上記目的を達成するため、本発明の第1の観点に係る歩行状態判定装置は、
三次元空間を撮影した一連の二次元画像を記憶する記憶手段と、
前記記憶手段に記憶されている前記二次元画像中の検出対象者の特定部位を検出する特定部位検出手段と、
前記特定部位検出手段により検出された特定部位の前記二次元画像内での時間軸上の移動軌跡を算出する軌跡算出手段と、
前記軌跡算出手段により算出された軌跡の周波数スペクトルを得る周波数解析手段と、
前記周波数解析手段により得た周波数スペクトルに基づいて歩行状態を判定する歩行状態判定手段と、
を備えることを特徴とする。
【0010】
前記歩行状態判定装置は、さらに、
歩行運動の基本振動周波数の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記周波数スペクトルの基本振動周波数をいずれかの分類に分類して、その分類に割り当てられている分類により前記検出対象者の歩行状態を判定する手段と、
を備えてもよい。
【0011】
本発明の第2の観点に係る歩行者属性判定装置は、
前記検出対象者の速度を検出する速度検出手段と、
歩行速度の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記検出対象者の速度を分類する手段と、
前記基本振動周波数の分類と前記速度の分類とに基づいて前記検出対象者の属性を判定する手段と、
を備えることを特徴とする。
【0012】
本発明の第3の観点に係る歩行者属性判定装置は、
前記歩行状態判定装置において、前記検出対象者の身長を検出する身長検出手段と、
身長の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記検出対象者の身長を分類する分類手段と、
前記基本振動周波数の分類と前記身長の分類とに基づいて前記検出対象者の属性を判定する属性判定手段と、
を備えることを特徴とする。
【0013】
本発明の第4の観点に係る歩行状態および歩行者属性判定方法は、
三次元空間を撮影した二次元画像を入力し、
入力した二次元画像上で検出対象者を検出し、
検出された対象者の三次元時空間上の移動軌跡を算出し、
算出された移動軌跡に基づいて、対象者の運動の基本振動周波数を求め、
検出された対象者の速度を検知し、
検出された対象者の身長を検知し、
検知された基本振動周波数と速度と身長とに基づいて、対象者の歩行状態および歩行者属性を判定する、
ことを特徴とする。
【0014】
本発明の第5の観点に係るプログラムは、
コンピュータを、
三次元空間を撮影した時間軸上で連続する二次元画像を記憶する記憶手段と、
前記記憶手段に記憶されている前記二次元画像中の検出対象者の特定部位を検出する特定部位検出手段と、
前記特定部位検出手段により検出された特定部位の三次元時空間上の移動軌跡を算出する軌跡算出手段と、
前記軌跡算出手段で算出された移動軌跡の周波数スペクトルを抽出する周波数解析手段と、
前記周波数解析手段で抽出された周波数スペクトルに基づいて、対象者の歩行状態と属性とを判定する歩行状態および歩行者属性判定手段と、
として機能させることを特徴とする。
【0015】
【発明の実施の形態】
以下、図面を参照しつつ、本発明の実施の形態に係る歩行状態・歩行者属性判定装置および判定方法を説明する。
【0016】
本実施の形態に係る歩行状態・歩行者属性判定装置1は、図1に示すように、撮像装置(カメラ)11と、画像バッファ12と、高さセンサ13と、速度センサ14と、入力処理部15と、コンピュータ16と、大容量ハードディスク(HDD)17と、周波数解析処理装置(FFT)18と、から構成される。
【0017】
撮像装置11は、ディジタルスチルカメラなどから構成され、図2に模式的に示すように、三次元実空間RSの任意の位置に実空間RSを通行する歩行者を撮影するように設置されている。撮像装置11の設置位置の高さTと光軸の傾きαとは、事前に求められている。撮像装置11は、一定期間Δtおきに、三次元実空間の静止画像を取得して、任意のフォーマットの画像データを出力する。
【0018】
画像バッファ12は、撮像装置11から送られた画像データを一時的に記憶し、入力処理部15の転送速度に合わせて順次送り出す。
【0019】
高さセンサ13は、三次元実空間RSを通行する人間の高さ(背が高い、低いの別)を検出する。高さセンサ13は、図3に示すように、通路(三次元実空間RS)の一側の異なる高さ位置に配置され、それぞれ通路の他側に向けて水平に光ビームを照射する発光器131,132と、通行エリアの他側に配置された受光器133と134とから構成される。
【0020】
通行人が高さセンサ13の設置位置を通過した際、受光器133、134が発光器131、132からの光ビームをいずれも受光できなければ、通行者は背の高い人であり;受光器134が発光器132からの光ビームを受光でき、受光器133が発光器131からの光を受光できなければ、通行者は背の低い人である。
【0021】
速度センサ14は、通行人が高さセンサ13の発光器131、132のいずれかが照射する光ビームを横切った(ビームを遮った)時点で、通行人の速度を検出する。即ち、受光器133は光ビームを検出できなくなると、速度センサ14にトリガ信号を発行する。速度センサ14は、このトリガ信号に応答して、光ビームが照射されている位置の通行人の速度を検出する。
【0022】
高さセンサ13と速度センサ14とは、測定結果を入力処理部15に供給する。
【0023】
入力処理部15は、HDD17に通信ネットワークを介して接続される。入力処理部15は、図4に模式的に示すように、画像バッファ12を介して撮像装置11から連続的に供給される一連の静止画IMの画像データを撮影時刻(又は順番)tと対応付けて、HDD17に提供する。
【0024】
また、入力処理部15は、高さセンサ13の2つの受光器133,134の出力信号から、光ビームを横切った人物の背の高さを、高い、低いの2段階に分ける。更に、速度センサ14の出力から、光ビームを横切った人物の速度を1〜4の4段階に分ける(なお、このような区分は、図9を参照して後述する分類表での分類に対応する)。次に、測定時刻と対応付けて、例えば、「t=t,背=高い、速度=3」というように対応付けて、HDD17に送信する。
【0025】
コンピュータ16は、制御部161と、メモリ162と、入力部163と、表示部164と、を備える。
【0026】
メモリ162は、図5(a)に示すように、ROM162aとRAM162bとを備える。
【0027】
ROM162aは、フラッシュメモリ、ハードディスク装置などから構成され、制御部161の動作を規定する動作プログラムを記憶する。また、ROM162aは、制御部161の動作を制御する制御データや、図5(b)に模式的に示すような、歩行者が歩行を行う際の基本周波数と速度と歩行者の身長とを統計的な値に基づいて分類した分類データを格納されている。
【0028】
RAM162bは、制御部161のワークエリアとして機能する。
【0029】
図1に示す入力部163は、キーボード、マウスなどから構成され、種々の命令やデータを制御部161に入力する。
【0030】
表示部164は、CRT、液晶表示装置などから構成され、撮像装置11により取得された二次元画像など、様々な画像を表示する。また、三次元実空間RS内を歩行する人間の頭頂部の画像上の軌跡や、FFT18により軌跡を周波数解析した結果などを表示する。
【0031】
制御部161は、コンピュータ16全体の動作を制御するためのものであり、マイクロプロセッサ等から構成され、ROM162aに格納された動作プログラムに従ってRAM162bをワークエリアとして使用して動作する。制御部161は、三次元実空間RSを歩行する歩行者の画像上軌跡を求め、軌跡の周波数スペクトル等から、歩いているのか走っているのかといった歩行者の歩行状態と、大人なのか子供なのかといった歩行者の属性とを判定して出力する。
【0032】
具体的には、制御部161は、1)HDD17に格納されている一連の二次元画像IMを読み出し、2)各二次元画像IM中の検出対象(人間)の特徴点(頭丁)を検出し、3)検出対象の特徴点の各二次元画像IM内の位置を判別し、4)各二次元画像IM中での特徴点の位置をつなぎ合わせて特徴点の一連の二次元画像IM上の軌跡を求め、5)その軌跡を周波数解析処理装置FFT18に送って周波数解析により周波数スペクトルを求めさせ、6)その周波数スペクトルから支配的な周波数成分を抽出して歩行状態を判定し、7)その歩行状態と歩行者の速度又は身長とから歩行者属性を判定して判定結果を表示部164に表示する。制御部161が実行する処理の詳細は後述する。
【0033】
HDD17は、2つの入出力ポートIOPを有し、入力処理部15から提供される二次元画像IMや高さ・速度データを第1のポートIOP1で受信して、順次記憶し、一方、コンピュータ16の要求に従って、記憶している画像データを第2のポートIOP2から出力する。また、コンピュータ16で処理された後の軌跡データやその画像データを第2ポートIOP2を介して受信して記憶する。
【0034】
周波数解析(Fast Fourier Transform)処理装置FFT18は、制御部161によって取得された二次元画像IM上の歩行者の頭頂部の時間軸上の移動軌跡を受信し、周波数解析処理を行って歩行運動の周波数スペクトルを求める。
【0035】
次に、上記構成を有する歩行状態・歩行者属性判定装置1の動作を、三次元実空間RSを歩行する歩行者の歩行状態を判定する場合を例に説明する。
【0036】
この例においては、検出対象を人間とし、その頭頂部を特徴部とする。二次元画像IM上で、人間の頭頂部を検出する処理として、ここでは、特開2002−197463号公報に記載されている技術を使用する。この処理は、入力画像を差分処理によって非背景領域と背景領域とに分別し、非背景領域の中で画像上最も高い点の座標を、検出対象部位としての人間の頭頂部として抽出する方法である。この検出対象部位を抽出するための画像処理プログラムもメモリ162に格納されている。
【0037】
1.準備動作
歩行者状態判定の一連の動作に入る前の準備段階として、事例データを収集して、これを統計的に分析して歩行状態と周波数との対応付け分類表(モデル)を作り、それをメモリ162に記憶させる。例えば幼児、大人、老人といった各年代層を含む100人の歩行者モデルにゆっくり歩き、早歩き、走行を行ってもらい、その際に得られる頭部の移動軌跡から、各々の歩行運動の基本周波数を求める(この歩行運動の基本周波数のことを歩行リズムとも呼ぶ)。次に、歩行者モデルの歩行リズムの平均値を求め、リズムが第1の所定値以上の場合は走行、第2の所定値以下はゆっくり歩き、第1の所定値と第2の所定値の間の場合は早歩き、というように境界(第1と第2の所定値)を決定する。また、その境界分けをもとに、歩行状態を分類するための分類表を作成する。この分類表は図9(a)に例示するような形をとり、歩行者の歩行リズムをこの分類表に当てはめることで、周波数が高ければ走行、中くらいならば早歩き、低ければゆっくり歩きと判定する仕様を有する。この分類表を、ROM162aに格納する。
【0038】
また、歩行者の歩行速度に関する事例データを収集し、歩行者モデルの各々の年代における歩行速度の平均値から、速度が速い遅いといった境界を決定し、リズムと速度との関係で歩行者の属性(年齢)を判定するための、図10(b)に例示するような分類表を作成し、ROM162aに格納する。歩行状態と歩行者の歩行速度とをこの分類表に当てはめることにより、例えば歩行速度が「3」で「早歩き」をしていた歩行者は大人であるとの分類が可能である。なお、入力処理部15が、速度センサ14の出力から生成する速度を示す情報は、この分類表で使用される速度のいずれかを示す情報である。
【0039】
また、歩行者の身長に関する事例データを収集し、歩行者モデルの各々の年代における身長の平均値から、身長が高い低いといった境界を決定し、リズムと身長との関係で歩行者の属性(年齢)を判定し、図10(c)に示すような分類表を作成し、ROM162aに格納する。歩行状態と歩行者の身長とをこの分類表に当てはめることにより、例えば身長が高くて走行をしていた歩行者は大人であるとの分類が可能である。なお、入力処理部15が、高さセンサ13の出力から生成する速度を示す情報は、この分類表で使用される高さのいずれかを示す情報である。
【0040】
また、頭頂部を検出するための差分処理の準備として、三次元実空間RSに歩行者が存在しない状態の画像、いわゆる背景画像を取得し、HDD17に記憶させる。
【0041】
2.二次元画像取得動作
三次元実空間RSの所定の位置に設置された撮像装置11は、一定時間Δt間隔で、三次元空間RSを撮影した二次元画像IMを取得して、出力する。この二次元画像IMは、画像バッファ12に一旦蓄積された後、入力処理部15により撮像時刻と対応付けられてHDD17に転送される。HDD17は、図4に模式的に示すように、順次転送されてくる二次元画像IMを記憶する。
【0042】
3.速度・高さ取得動作
二次元画像IMの取得動作と平行して、高さセンサ13および速度センサ14により、通行人の背の高さと速度とを示す情報を収集する。この情報は、入力処理部15により時刻情報と対応付けられてHDD17に転送され、HDD17に蓄積される。
【0043】
4.歩行状態・歩行者属性判定動作
上述の画像取得動作と並行して、或いは、上述の画像取得動作で過去に取得した一連の二次元画像IMについて、コンピュータ16は、以下の一連の動作を行って、三次元実空間RSを歩行する歩行者の歩行状態と属性(eg.年代)とを求める。この処理は、以下に説明する、特徴点検出動作と状態・属性判定動作とから構成される。
【0044】
4.1 特定部位検出動作
この処理は、各二次元画像IM上で、検出対象物の特徴点である歩行者の頭頂部の位置を求める動作である。この特徴点検出動作を図6を参照して説明する。
【0045】
コンピュータ16の制御部161は、入力部163からの入力指示等に応答して、HDD17に蓄積されている二次元画像IMを撮影時刻の順に読み出し、読み出した各二次元画像IMについて図6のフローチャートに示す処理を実行する。まず、最初の二次元画像IM(撮影時刻t)を呼び出し、この二次元画像IM中で歩行者の頭頂部を検出する(ステップS101)。
【0046】
続いて、ステップS101の処理で得られた画像中に歩行者の画像が存在するか否かを判別する(ステップS102)。歩行者の存在が確認されなかった場合(ステップS102:No)、この画像については、これ以上の処理は行わず、メインルーチンにリターンする。
【0047】
一方、歩行者を検出した場合(ステップS102:Yes)、歩行者の特徴点(頭頂部)の位置、即ち、人間の画像のうちの最上点の座標(x、y)を検出する(ステップS103)。
【0048】
続いて、時間的に隣り合わせとなる2枚の静止画像の間でどの歩行者がどの歩行者と同一人物であるのかを確認する作業(同定作業)を行う(ステップS104)。ただし、t=tは撮影開始時の時刻であり、それ以前の時刻の情報が存在せず、同定作業を必要としないため、素通りしてステップS105に進む。
【0049】
ステップS105においては、二次元画像IM内に新たな歩行者を検出したか否かを判別する。それ以前の二次元画像IMのないt=tの二次元画像IM内では、全ての歩行者が新歩行者である。このため、ステップS105では、Yesと判別され、処理はステップS106へ進む。
【0050】
ステップS106において、制御部161は、画像内で新たに検出された歩行者について、その人間を識別するための情報(以下、オブジェクト番号OBi:iは整数)を割り当てる。例えば、画像内で検出した第1の歩行者にオブジェクト番号OB1を割り当てる。二次元画像IM内に歩行者が複数存在する場合は、順次、OB2、、OB3、・・・・・・を割り当てる(ステップS106)。
【0051】
次に、t=tのタイミングで、高さセンサ13と速度センサ14によって高さと速度とが測定されて、HDD17に記憶されているか否かを判別し、記憶されていれば、対応するオブジェクトに検出された高さ(背の高さ)と速度(歩行速度)とを割り当てる(ステップS107)。なお、オブジェクトが2つ以上存在し、高さセンサ13の光ビームを横切った人物に対応するオブジェクトを判定できないような場合には、オペレータにエラー処理(オブジェクトと高さ・速度情報との対応付け)を要求してもよい。
【0052】
以上で、t=tの二次元画像IMへの処理が終了する。
【0053】
図7(a)に、t=tの二次元IM画像への処理の結果の例を模式的に表す。この例は、二次元画像IM内に二人の歩行者を検出し、オブジェクト番号OB1とOB2を割り当て、OB1の頭頂部の座標が(x01,y01)とOB2の頭頂部の座標が(x02,y02)であったことを示している。
【0054】
次に、制御部161は、2番目の二次元画像IM(t=t)を選択し、この画像に図6の処理を実行する。まず、この二次元画像IM内に存在する歩行者の頭頂部を検出する(ステップS101)。
【0055】
次に、歩行者が検出されたか否かを判別し(ステップS102)、歩行者が検出されれば(ステップS102:Yes)、検出した各歩行者の頭頂部の位置座標(x,y)を検出し(ステップS103)、検出した歩行者の同定作業を行う(ステップS104)。即ち、検出した歩行者が従前の二次元画像IM内にも存在していた歩行者であるか否かを判別する。この処理のため、制御部161は、t=tの二次元画像IM上に存在した歩行者の位置と今回検出した歩行者の位置とを比較し、両画像間で最も近い位置に存在する歩行者を同一の歩行者であると判別し、従前と同一のオブジェクト番号OBを割り当てる。
【0056】
続いて、検出された歩行者のうちで従前の画像に存在しない歩行者がいるか否かを判別する(ステップS105)。新たな歩行者の存在が確認された場合(ステップS105:Yes)、処理はステップS106へ進む。一方、新たな歩行者が検出されなかった場合(ステップS105:No)は、ステップS107にジャンプする。
【0057】
ステップS106において、制御部161は、画像で新たに検出された人間について、新規のオブジェクト番号を割り当てる。例えば、従前の画像内に歩行者が2人存在した場合、新たに検出された3人目の歩行者にオブジェクト番号OB3を割り当てる。新たに検出された歩行者が複数存在する場合は、順次、OB4、OB5、・・・・・・を割り当てる(ステップS106)。
【0058】
次に、t=tのタイミングで、歩行者の高さと速度とが測定されて、HDD17に記憶されているか否かを判別し、記憶されていれば、対応するオブジェクトに検出された高さ(背の高さ)と速度(歩行速度)とを割り当てる(ステップS107)。
【0059】
以上で、t=tの二次元画像IMへの処理が終了する。
【0060】
図7(b)に、t=tの二次元画像IMへの処理の結果の例を模式的に表す。この例は、図7(a)で示した二人の歩行者がt=tからt=tにかけてそれぞれ移動し、OB1の頭頂部の座標が(x11,y11)、OB2の頭頂部の座標が(x12,y12)へと変化したことを示している。
【0061】
以下同様にt=tn−1まで、制御部161が画像を呼び出し、歩行者を検出し、頭頂部の座標を求めて、OBを同定する作業を繰り返す。
【0062】
図7(c)に、t=tの二次元画像IMへの処理の結果の例を模式的に表す。この例は、OB1とOB2のそれぞれの頭頂部の座標が(xk1,yk1)と(xk2,yk2)に変化し、また、新たな人物OB3が出現していて、その頭頂部の座標が(xk3,yk3)であることを示している。
【0063】
4.2 状態・属性判定動作
次に、状態・属性判定動作を、図9のフローチャートを参照して説明する。
【0064】
まず制御部161が、HDD17内に格納されているt=tにおけるOB1の頭頂部の座標を呼び出す(ステップS201)。次に、その二次元画像IMのx軸およびy軸に直交する軸を時間軸(t軸)として定めて三次元座標(txy)を形成し、その三次元座標中のt=tの位置に、OB1の頭頂部の位置をプロットして表示部164上に表示する。続いて、t=tにおけるOB1の頭頂部の座標を呼び出し、同様にして三次元座標上のt=tの位置にプロットする。以下、制御部161はt=tn−1まで同じ作業を繰り返し、図8に模式的に示すように、時間軸方向に整列された各時刻(t=t〜tn−1)のn個の頭頂部の位置を求める(ステップS202)。
【0065】
次に、このようにして得られた三次元時空間(txy)上の軌跡を周波数解析処理装置FFT18に送信する。周波数解析処理装置FFT18は、受信したOB1の三次元時空間画像上の軌跡に対して、高速フーリエ変換(FFT)を用いて周波数解析処理を行う(ステップS203)。時系列データ(x,y)tに対して、演算処理を行うことにより、頭頂部の運動軌跡の周波数スペクトルが得られる。
【0066】
周波数解析処理装置FFT18は、処理の結果を制御部161に送信する。制御部161は、得られたスペクトル分布から、最もエネルギーの大きい(振幅の大きい)周波数を基本周波成分として抽出する(ステップS204)。なお、人間の歩行動作には、ある程度の限界があるので、上限を5Hz程度としてもよい。また、歩行者が蛇行して歩いた場合に、蛇行による周波数成分を除去できるように、例えば、下限周波数を0.5Hz程度としてもよい。したがって、例えば、0.5HzZ〜5Hzの範囲内で最も振幅の大きい周波数を抽出する。
【0067】
次に、抽出した基本周波数、即ち、歩行リズム、を図10(a)に示す分類表に適応して、歩行状態がゆっくり歩きか、早歩きか、走行かを判定する(ステップS205)。
例えば、基本周波数が0.5〜1.5Hz程度であれば、「ゆっくり歩き」、基本周波数が1.5〜2.5Hz程度であれば「早歩き」、基本周波数が2.5〜5Hz程度であれば、「走行」状態にあると判定する。
【0068】
次に、処理対象のオブジェクトに割り当てられている速度を読み出し、先に判定した歩行状態(ゆっくり歩き、早歩き、走行)と共に図10(b)に示す分類表に適応し、そのオブジェクト(歩行者)の属性を判定する(ステップS206)。例えば、「ゆっくり歩き」で「速度が2」の人であれば、大人であると判定する。
【0069】
次に、処理対象のオブジェクトに割り当てられている身長を読み出し、先に判定した歩行状態(ゆっくり歩き、早歩き、走行)と共に図10(c)に示す分類表に適応し、そのオブジェクト(歩行者)の属性を判定する(ステップS207)。例えば、「ゆっくり歩き」で「身長の低い」人であれば、幼児であると判定する。
【0070】
以上で、OB1についての状態・属性判定動作の処理を終了する(ステップS208)。
【0071】
上述の処理を、各オブジェクトについて順番に繰り返して、各オブジェクト(通行人)の歩行状態と属性とを求める(ステップS209)。
【0072】
上記実施の形態では、歩行者の速度又は身長のどちらかの情報と、歩行周波数の情報とから歩行者属性の判定を行ったが、歩行者の速度と身長と周波数とを全て用いて歩行者属性を判定してもよい。その場合の分類表は、図11に模式的に示すように三次元の形態をとり、より詳細な属性判定が可能となる。
【0073】
上記実施例では、歩行者がある位置を通過する際の速度をスピードガンで測定した。しかし、測定方法はこれに限られない。例えば、通路の横方向からの画像を取って、画像内を通過する人物の速度を取得してもよい。或いは、発光器131,132を高さ方向ではなく水平方向に一定間隔を空けて配置し、発光器131,132からの照射光が遮られる時間間隔を測定して、これから速度を求めてもよい。
【0074】
また、上記実施の形態では、上下に設置された光源を用いて身長の高低を判別したが、判別方法はこれに限られない。例えば通路(三次元実空間RS)の一側に高さ方向に連続した赤外線センサを配置し、通過する歩行者から放出される赤外線を検知して、身長を測定してもよい。
【0075】
また、上記実施例では速度を4段階、身長を2段階、歩行者の年齢を3段階に分けて分類表を作成したが、分け方はこれに限られず、任意である。例えば、高さセンサ13の光源を3段階に設置し、歩行者の年齢を幼児・少年・大人・老人の4段階に分けて、より詳細な分類を行うことも可能である。
【0076】
また上記実施例では、周波数、身長および速度と、歩行状態および属性との関連付けを離散的な分類表として表現し、利用した。しかし、これらを二次元又は三次元の連続空間における統計データとして扱い、確率的に歩行状態および属性を推定することも可能である。このような確率的な取り扱いには、ベイズ推定など様々な方法があるが、ここではその詳細は限定しない。
【0077】
また上記実施の形態では、オンラインで連続静止画像を取得し、それを解析するという手法を用いた。しかし、まず最初に画像だけを取得し、時間と場所を改めてから解析を行うことも可能である。
【0078】
また上記実施例では、周波数解析処理装置FFT18を用いて周波数解析を行ったが、外部に専用の装置を設けず、コンピュータ16内で周波数解析を行ってもよい。
【0079】
また上述の実施例で述べた、対象の検出、特徴点の検出、追跡方法はこれに限られず、他の様々な方法で置き換えることができる。
【0080】
本発明の実施の形態に係る装置は、歩行者の属性(大人か、幼児か、老人か)を判定するものである。したがって、遊園地やコンサート、映画などへの来場者の客層を分析するなど、マーケティングにおける情報を得るのに有効である。また、赤外線カメラ等を用いることにより、暗闇の中などの肉眼では判定しづらい状況で歩行者を撮影し、情報を取得できるため、防犯や監視の分野においても有効となり得る。
【0081】
【発明の効果】
以上説明したように本発明によれば、観察対象エリアの歩行者の歩行状況を判定することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る歩行状態・歩行者属性判定装置の構成図である。
【図2】歩行状態・歩行者属性判定処理を説明するための図であり、歩行者の画像を取得する処理を説明するための図である。
【図3】歩行者の身長と速度を測定する処理を説明するための図である。
【図4】カメラで取得された画像が撮影時刻順にHDDに格納される様子を模式的に表す図である。
【図5】メモリの構成と、ROMに格納されるデータの例を示す図である。
【図6】画像中の歩行者の頭頂部(特徴点)を検出する処理の流れ示すフローチャートである。
【図7】歩行者検出処理の結果画像を模式的に示す図である。
【図8】画像処理によって検出された頭頂部の(txy)空間内の軌跡の例を示す図である。
【図9】歩行状態・属性判定の処理の流れを示すフローチャートである。
【図10】歩行リズム、速度、身長に基づく分類表の例を示す図である。
【図11】歩行リズムと速度と身長とに基づく分類表の例を示す図である。
【符号の説明】
11 撮像装置
12 画像バッファ
13 高さセンサ
131、132 発光器
133、134 受光器
14 速度センサ
15 入力処理部
16 コンピュータ
161 制御部
162 メモリ
162a ROM
162b RAM
163 入力部
164 表示部
17 HDD
18 FFT
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for determining a pedestrian's walking state and attributes using image processing.
[0002]
[Prior art]
As a method for determining the walking state, a method using a pressure sensor has been proposed (for example, see Non-Patent Document 1). This method measures the foot pressure of a pedestrian using a pressure sensor formed on a large area, and analyzes the distribution of foot pressure and the spatial parameters of walking (stride, overlapping stride, stride) and temporal parameters (one step, This is a method of displaying the pedestrian's walking state by displaying the overlapping walking time, the free leg time, and both foot contact time.
On the other hand, as a method of determining a walking state, there is a method of obtaining information such as a walking speed and a stride over a wide range at low cost by using an image (for example, see Patent Document 1).
[0003]
In addition, as a method for estimating pedestrian attributes, a method of estimating gender from the shape characteristics of the whole body (for example, see Non-Patent Document 2) and a method of estimating age from characteristics of a pedestrian's face (for example, , Non-Patent Document 3). The method in Non-Patent Document 2 focuses on the fact that gender identification information such as differences in clothes and hairstyles appears in the shape of a human silhouette, performs morphological processing on a silhouette image of a person, and identifies males and females from the differences in the pattern spectrum. Method. The method in Non-Patent Document 3 uses a CCD camera to photograph a person's face, performs weblets transform processing on each feature point of the face to determine the directionality and frequency of each point, and obtains them in advance. This is a method of recognizing a face as compared with a standard face image.
[0004]
[Non-patent document 1]
Development of walking pattern measurement device using large area pressure sensor (Transactions of the Institute of Electronics, Information and Communication Engineers D-II Vol.J84-D-II No.2 pp.380-389)
[Patent Document 1]
JP-A-11-339139
[Non-patent document 2]
A gender discrimination method using a very small amount of pattern spectrum by morphological processing (Transactions of the Institute of Electronics, Information and Communication Engineers D-II Vol. J80-D-II No. 5 pp. 1037-1045)
[Non-Patent Document 3]
Face Recognition under Free Walking (Interaction '99 (Information Processing Society of Japan) IA-01 March 1999)
[0005]
[Problems to be solved by the invention]
In a method of determining a walking state using a pressure sensor, a thin film sensor is used. Such a sensor is very delicate, and in a situation where the weight of a human is hung or a person is strongly kicked with a foot, anxiety arises in terms of durability. Further, since a sensor having a large area corresponding to a space where humans can walk is required, the price is high.
[0006]
On the other hand, when an image is used, it is extremely difficult to determine the position of the foot and the state of the foot in a situation where the foot of the pedestrian is hidden by some obstacle. Therefore, it is difficult to determine the absolute value of the speed because the position in the real space cannot be specified. For this reason, the method of Patent Literature 1 that obtains information on the speed and the stride from the image is extremely limited in the situations where it can be used.
[0007]
Regarding the pedestrian attribute estimation method, in any of the above methods (sex estimation method from whole body shape feature, age estimation method from face feature), whole body or face image is clearly displayed in a stable state. It is necessary to be photographed, and the use scene is limited, so that it lacks practicality.
[0008]
The present invention has been made in view of the above situation, and has as its object to enable highly versatile determination of a walking state and determination of a pedestrian attribute while maintaining high accuracy. Another object of the present invention is to make it possible to determine a walking state in a scene where a foot of a pedestrian is not visible due to some obstacle (such as a store shelf).
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a walking state determination device according to a first aspect of the present invention includes:
Storage means for storing a series of two-dimensional images taken of a three-dimensional space;
A specific part detection means for detecting a specific part of the detection target person in the two-dimensional image stored in the storage means,
Trajectory calculation means for calculating a movement trajectory on the time axis in the two-dimensional image of the specific part detected by the specific part detection means,
Frequency analyzing means for obtaining a frequency spectrum of the locus calculated by the locus calculating means,
Walking state determining means for determining a walking state based on the frequency spectrum obtained by the frequency analyzing means,
It is characterized by having.
[0010]
The walking state determination device further includes:
Storage means for storing statistical case data of the fundamental vibration frequency of the walking motion;
Means for classifying the fundamental vibration frequency of the frequency spectrum into one of the categories based on the case data, and determining a walking state of the detection target person by the category assigned to the category;
May be provided.
[0011]
The pedestrian attribute determination device according to the second aspect of the present invention includes:
Speed detection means for detecting the speed of the detection target person,
Storage means for storing statistical case data of walking speed;
Means for classifying the speed of the detection target person based on the case data,
Means for determining the attribute of the detection target person based on the classification of the fundamental vibration frequency and the classification of the speed,
It is characterized by having.
[0012]
The pedestrian attribute determination device according to the third aspect of the present invention includes:
In the walking state determination device, height detection means for detecting the height of the detection target person,
Storage means for storing statistical height case data;
Classification means for classifying the height of the detection target person based on the case data,
Attribute determination means for determining the attribute of the detection target person based on the classification of the fundamental vibration frequency and the classification of the height,
It is characterized by having.
[0013]
The walking state and the pedestrian attribute determining method according to the fourth aspect of the present invention include:
Input a two-dimensional image of a three-dimensional space,
Detect the target person on the input two-dimensional image,
Calculate the moving trajectory of the detected subject in three-dimensional space-time,
Based on the calculated trajectory, the fundamental vibration frequency of the subject's motion is determined,
Detect the speed of the detected subject,
Detects the height of the detected subject,
Based on the detected fundamental vibration frequency, speed, and height, determine the walking state and pedestrian attribute of the subject,
It is characterized by the following.
[0014]
A program according to a fifth aspect of the present invention includes:
Computer
Storage means for storing a continuous two-dimensional image on a time axis taken of a three-dimensional space,
A specific part detection means for detecting a specific part of the detection target person in the two-dimensional image stored in the storage means,
Trajectory calculation means for calculating a movement trajectory in three-dimensional space-time of the specific part detected by the specific part detection means,
Frequency analysis means for extracting the frequency spectrum of the movement trajectory calculated by the trajectory calculation means,
Based on the frequency spectrum extracted by the frequency analysis unit, a walking state and a pedestrian attribute determining unit that determines a walking state and an attribute of the subject,
It is characterized by functioning as
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a walking state / pedestrian attribute determination device and a determination method according to an embodiment of the present invention will be described with reference to the drawings.
[0016]
As shown in FIG. 1, a walking state / pedestrian attribute determining device 1 according to the present embodiment includes an imaging device (camera) 11, an image buffer 12, a height sensor 13, a speed sensor 14, an input process, It comprises a unit 15, a computer 16, a large-capacity hard disk (HDD) 17, and a frequency analysis processor (FFT) 18.
[0017]
The imaging device 11 is configured by a digital still camera or the like, and is installed so as to photograph a pedestrian passing through the real space RS at an arbitrary position in the three-dimensional real space RS, as schematically shown in FIG. . The height T of the installation position of the imaging device 11 and the inclination α of the optical axis are obtained in advance. The imaging device 11 acquires a still image in the three-dimensional real space at regular intervals of Δt, and outputs image data in an arbitrary format.
[0018]
The image buffer 12 temporarily stores the image data sent from the imaging device 11 and sequentially sends out the image data in accordance with the transfer speed of the input processing unit 15.
[0019]
The height sensor 13 detects the height (tall or low) of a person passing through the three-dimensional real space RS. As shown in FIG. 3, the height sensors 13 are arranged at different height positions on one side of the passage (the three-dimensional real space RS), and each emit a light beam horizontally toward the other side of the passage. 131 and 132, and photodetectors 133 and 134 arranged on the other side of the traffic area.
[0020]
When the passerby passes the installation position of the height sensor 13 and the light receivers 133 and 134 cannot receive any of the light beams from the light emitters 131 and 132, the passerby is a tall person; If the 134 can receive the light beam from the light emitter 132 and the light receiver 133 cannot receive the light from the light emitter 131, the pedestrian is a short person.
[0021]
The speed sensor 14 detects the speed of the pedestrian when the pedestrian crosses the light beam emitted by one of the light emitters 131 and 132 of the height sensor 13 (blocks the beam). That is, when the light receiver 133 cannot detect the light beam, it issues a trigger signal to the speed sensor 14. The speed sensor 14 detects the speed of the pedestrian at the position where the light beam is being emitted in response to the trigger signal.
[0022]
The height sensor 13 and the speed sensor 14 supply measurement results to the input processing unit 15.
[0023]
The input processing unit 15 is connected to the HDD 17 via a communication network. As schematically shown in FIG. 4, the input processing unit 15 associates the image data of a series of still images IM continuously supplied from the imaging device 11 via the image buffer 12 with the shooting time (or order) t. And provide it to the HDD 17.
[0024]
In addition, the input processing unit 15 divides the height of the person who has crossed the light beam into two stages, high and low, based on the output signals of the two light receivers 133 and 134 of the height sensor 13. Further, based on the output of the speed sensor 14, the speed of the person crossing the light beam is divided into four stages of 1 to 4 (note that such a classification corresponds to the classification in the classification table described later with reference to FIG. 9). Do). Next, for example, “t = t 3 , Tall = high, speed = 3 ”and transmitted to the HDD 17.
[0025]
The computer 16 includes a control unit 161, a memory 162, an input unit 163, and a display unit 164.
[0026]
The memory 162 includes a ROM 162a and a RAM 162b as shown in FIG.
[0027]
The ROM 162a includes a flash memory, a hard disk device, and the like, and stores an operation program that defines the operation of the control unit 161. In addition, the ROM 162a stores control data for controlling the operation of the control unit 161 and statistical data such as a basic frequency, a speed, and a height of the pedestrian when the pedestrian walks, as schematically shown in FIG. The classification data classified based on the typical value is stored.
[0028]
The RAM 162b functions as a work area of the control unit 161.
[0029]
The input unit 163 illustrated in FIG. 1 includes a keyboard, a mouse, and the like, and inputs various commands and data to the control unit 161.
[0030]
The display unit 164 includes a CRT, a liquid crystal display device, and the like, and displays various images such as a two-dimensional image acquired by the imaging device 11. In addition, the trajectory on the image of the top of the human head walking in the three-dimensional real space RS and the result of frequency analysis of the trajectory by the FFT 18 are displayed.
[0031]
The control unit 161 is for controlling the operation of the entire computer 16 and is constituted by a microprocessor or the like, and operates using the RAM 162b as a work area according to an operation program stored in the ROM 162a. The control unit 161 obtains a trajectory on the image of the pedestrian who walks in the three-dimensional real space RS. It determines and outputs the attribute of the pedestrian, such as noh.
[0032]
Specifically, the control unit 161 1) reads a series of two-dimensional images IM stored in the HDD 17 and 2) detects a feature point (head finger) of a detection target (human) in each two-dimensional image IM. 3) determine the position of the feature point to be detected in each two-dimensional image IM; 4) join the positions of the feature points in each two-dimensional image IM to obtain a series of feature points on a series of two-dimensional images IM. 5) The trajectory is sent to the frequency analysis processing unit FFT18 to obtain a frequency spectrum by frequency analysis. 6) A dominant frequency component is extracted from the frequency spectrum to determine a walking state. The pedestrian attribute is determined based on the walking state and the speed or height of the pedestrian, and the determination result is displayed on the display unit 164. Details of the processing executed by the control unit 161 will be described later.
[0033]
The HDD 17 has two input / output ports IOP, receives the two-dimensional image IM and the height / speed data provided from the input processing unit 15 at the first port IOP1, and sequentially stores the data. The stored image data is output from the second port IOP2 in accordance with the request of (1). Further, the trajectory data and the image data thereof processed by the computer 16 are received and stored via the second port IOP2.
[0034]
The frequency analysis (Fast Fourier Transform) processing device FFT18 receives the movement locus of the pedestrian's crown on the time axis on the two-dimensional image IM acquired by the control unit 161 and performs frequency analysis processing to perform walking analysis. Find the frequency spectrum.
[0035]
Next, the operation of the walking state / pedestrian attribute determination device 1 having the above configuration will be described as an example of a case where the walking state of a pedestrian walking in the three-dimensional real space RS is determined.
[0036]
In this example, the detection target is a human, and the top of the head is a feature. Here, a technique described in Japanese Patent Application Laid-Open No. 2002-197463 is used as a process for detecting the top of a human head on the two-dimensional image IM. In this process, the input image is classified into a non-background region and a background region by a difference process, and the coordinates of the highest point on the image in the non-background region are extracted as the top of a human head as a detection target portion. is there. An image processing program for extracting the detection target part is also stored in the memory 162.
[0037]
1. Preparation operation
As a preparatory step before entering a series of operations for determining a pedestrian state, case data is collected and statistically analyzed to create a classification table (model) for associating the pedestrian state with the frequency. 162 is stored. For example, 100 pedestrian models including each age group such as infants, adults, and the elderly walk slowly, walk fast, and have them run. From the locus of the head obtained at that time, the fundamental frequency of each walking motion is calculated. (The fundamental frequency of this walking motion is also called a walking rhythm). Next, an average value of the walking rhythm of the pedestrian model is obtained. If the rhythm is equal to or more than the first predetermined value, the vehicle runs, if the rhythm is equal to or less than the second predetermined value, walks slowly, and the first predetermined value and the second predetermined value are compared. The boundary (first and second predetermined values) is determined, for example, if the distance is between the two, the person walks fast. Further, a classification table for classifying walking states is created based on the boundary division. This classification table takes a form as exemplified in FIG. 9 (a), and the walking rhythm of the pedestrian is applied to this classification table. It has a specification to judge. This classification table is stored in the ROM 162a.
[0038]
It also collects case data on pedestrian walking speeds, determines the boundaries of high and low speeds from the average of walking speeds for each age of the pedestrian model, and determines the attributes of pedestrians in relation to rhythm and speed. A classification table as illustrated in FIG. 10B for determining (age) is created and stored in the ROM 162a. By applying the walking state and the walking speed of the pedestrian to this classification table, for example, it is possible to classify a pedestrian whose walking speed is “3” and “walks fast” as an adult. Note that the information indicating the speed generated from the output of the speed sensor 14 by the input processing unit 15 is information indicating any of the speeds used in this classification table.
[0039]
It also collects case data on the height of pedestrians, determines the boundaries of height and height from the average height of the pedestrian model at each age, and determines the pedestrian's attributes (age ) Is determined, and a classification table as shown in FIG. 10C is created and stored in the ROM 162a. By applying the walking state and the height of the pedestrian to this classification table, it is possible to classify, for example, a pedestrian who is traveling tall and is an adult. The information indicating the speed generated by the input processing unit 15 from the output of the height sensor 13 is information indicating one of the heights used in this classification table.
[0040]
In addition, as a preparation for a difference process for detecting a crown, an image in a state where no pedestrian exists in the three-dimensional real space RS, that is, a so-called background image is acquired and stored in the HDD 17.
[0041]
2. 2D image acquisition operation
The imaging device 11 installed at a predetermined position in the three-dimensional real space RS acquires and outputs a two-dimensional image IM obtained by photographing the three-dimensional space RS at regular time intervals Δt. The two-dimensional image IM is temporarily stored in the image buffer 12 and then transferred to the HDD 17 by the input processing unit 15 in association with the imaging time. The HDD 17 stores the sequentially transferred two-dimensional images IM, as schematically shown in FIG.
[0042]
3. Speed / height acquisition operation
In parallel with the acquisition operation of the two-dimensional image IM, the height sensor 13 and the speed sensor 14 collect information indicating the height and speed of the pedestrian. This information is transferred to the HDD 17 by the input processing unit 15 in association with the time information, and is stored in the HDD 17.
[0043]
4. Walking state / pedestrian attribute judgment operation
With respect to a series of two-dimensional images IM acquired in parallel with the above-described image acquisition operation or in the past in the above-described image acquisition operation, the computer 16 performs the following series of operations to walk through the three-dimensional real space RS. The walking state and the attribute (eg. Age) of the walking pedestrian are obtained. This process includes a feature point detection operation and a state / attribute determination operation described below.
[0044]
4.1 Specific site detection operation
This processing is an operation for obtaining the position of the top of the pedestrian, which is the feature point of the detection target, on each two-dimensional image IM. This feature point detection operation will be described with reference to FIG.
[0045]
The control unit 161 of the computer 16 reads the two-dimensional images IM stored in the HDD 17 in the order of photographing times in response to an input instruction or the like from the input unit 163, and performs a flowchart of FIG. The processing shown in is performed. First, the first two-dimensional image IM (imaging time t 0 ) To detect the top of the pedestrian in the two-dimensional image IM (step S101).
[0046]
Subsequently, it is determined whether or not an image of a pedestrian exists in the image obtained in the process of step S101 (step S102). When the presence of the pedestrian is not confirmed (step S102: No), the image returns to the main routine without performing any further processing.
[0047]
On the other hand, when a pedestrian is detected (Step S102: Yes), the position of the pedestrian's characteristic point (top), that is, the coordinates (x, y) of the highest point in the human image is detected (Step S103). ).
[0048]
Subsequently, an operation (identification operation) of confirming which pedestrian is the same person as which pedestrian is performed between two temporally adjacent still images (step S104). Where t = t 0 Is the time at the start of photographing, since there is no information on the time before that and no identification work is required, the process proceeds to step S105 without any processing.
[0049]
In step S105, it is determined whether a new pedestrian has been detected in the two-dimensional image IM. T = t without previous two-dimensional image IM 0 In the two-dimensional image IM, all pedestrians are new pedestrians. Thus, in step S105, the determination is Yes, and the process proceeds to step S106.
[0050]
In step S106, the control unit 161 assigns information (hereinafter, the object number OBi: i is an integer) for identifying the person to the pedestrian newly detected in the image. For example, the object number OB1 is assigned to the first pedestrian detected in the image. If there are a plurality of pedestrians in the two-dimensional image IM, OB2, OB3,... Are sequentially assigned (step S106).
[0051]
Next, t = t 0 At the timing, the height and the speed are measured by the height sensor 13 and the speed sensor 14, and it is determined whether or not the height and the speed are stored in the HDD 17. If the height and the speed are stored, the height detected by the corresponding object ( A height (back height) and a speed (walking speed) are assigned (step S107). If there are two or more objects and it is not possible to determine the object corresponding to the person who has traversed the light beam of the height sensor 13, an error processing (correspondence between the object and the height / speed information) is given to the operator. ) May be required.
[0052]
As described above, t = t 0 Is completed for the two-dimensional image IM.
[0053]
FIG. 7A shows that t = t 0 2 schematically illustrates an example of a result of processing on a two-dimensional IM image. In this example, two pedestrians are detected in the two-dimensional image IM, object numbers OB1 and OB2 are assigned, and the coordinates of the top of OB1 are (x 01 , Y 01 ) And the coordinates of the top of OB2 are (x 02 , Y 02 ).
[0054]
Next, the control unit 161 controls the second two-dimensional image IM (t = t 1 ), And the process of FIG. 6 is performed on this image. First, the top of the pedestrian existing in the two-dimensional image IM is detected (step S101).
[0055]
Next, it is determined whether or not a pedestrian is detected (step S102). If a pedestrian is detected (step S102: Yes), the detected position coordinates (x, y) of the top of each pedestrian are determined. The pedestrian is detected (step S103), and the identified pedestrian is identified (step S104). That is, it is determined whether or not the detected pedestrian is a pedestrian that also existed in the previous two-dimensional image IM. For this processing, the control unit 161 determines that t = t 0 Comparing the position of the pedestrian present on the two-dimensional image IM with the position of the pedestrian detected this time, and determines that the pedestrian located closest to the two images is the same pedestrian. And assigns the same object number OB.
[0056]
Subsequently, it is determined whether or not there is a pedestrian that does not exist in the previous image among the detected pedestrians (step S105). If the presence of a new pedestrian is confirmed (step S105: Yes), the process proceeds to step S106. On the other hand, if no new pedestrian is detected (step S105: No), the process jumps to step S107.
[0057]
In step S106, the control unit 161 assigns a new object number to a person newly detected in the image. For example, when two pedestrians exist in the previous image, the object number OB3 is assigned to the newly detected third pedestrian. If there are a plurality of newly detected pedestrians, OB4, OB5,... Are sequentially assigned (step S106).
[0058]
Next, t = t 1 At the timing, the height and speed of the pedestrian are measured, and it is determined whether or not the pedestrian is stored in the HDD 17. If the pedestrian is stored, the height and the height detected for the corresponding object are determined. A speed (walking speed) is assigned (step S107).
[0059]
As described above, t = t 1 Is completed for the two-dimensional image IM.
[0060]
FIG. 7B shows that t = t 1 2 schematically illustrates an example of a result of processing on the two-dimensional image IM. In this example, the two pedestrians shown in FIG. 0 From t = t 1 And the coordinates of the top of OB1 are (x 11 , Y 11 ), The coordinates of the top of OB2 are (x 12 , Y 12 ).
[0061]
Similarly, t = t n-1 Up to this point, the control unit 161 calls the image, detects the pedestrian, obtains the coordinates of the top of the head, and repeats the operation of identifying the OB.
[0062]
FIG. 7C shows that t = t k 2 schematically illustrates an example of a result of processing on the two-dimensional image IM. In this example, the coordinates of the top of each of OB1 and OB2 are (x k1 , Y k1 ) And (x k2 , Y k2 ), And a new person OB3 has appeared, and the coordinates of the top are (x k3 , Y k3 ).
[0063]
4.2 State / attribute determination operation
Next, the state / attribute determination operation will be described with reference to the flowchart in FIG.
[0064]
First, the control unit 161 determines that t = t stored in the HDD 17 0 The coordinates of the top of OB1 are called (step S201). Next, an axis orthogonal to the x-axis and the y-axis of the two-dimensional image IM is defined as a time axis (t-axis) to form three-dimensional coordinates (txy), and t = t in the three-dimensional coordinates. 0 The position of the top of OB1 is plotted and displayed on the display unit 164 at the position. Then, t = t 1 At the top of OB1 at t = t 1 Plot at position. Hereinafter, the control unit 161 determines that t = t n-1 The same operation is repeated until each time (t = t) aligned in the time axis direction as schematically shown in FIG. 0 ~ T n-1 ) Are obtained (step S202).
[0065]
Next, the trajectory on the three-dimensional space-time (txy) obtained in this way is transmitted to the frequency analysis processor FFT18. The frequency analysis processing device FFT18 performs a frequency analysis process on the received trajectory of the OB1 on the three-dimensional spatiotemporal image using the fast Fourier transform (FFT) (step S203). By performing arithmetic processing on the time-series data (x, y) t, a frequency spectrum of the motion locus of the crown can be obtained.
[0066]
The frequency analysis processing device FFT18 transmits the processing result to the control unit 161. The control unit 161 extracts, from the obtained spectrum distribution, a frequency having the largest energy (having a large amplitude) as a fundamental frequency component (step S204). It should be noted that there is a certain limit in human walking, so the upper limit may be about 5 Hz. Further, when a pedestrian walks meandering, for example, the lower limit frequency may be set to about 0.5 Hz so that the frequency component due to the meandering can be removed. Therefore, for example, the frequency with the largest amplitude in the range of 0.5 Hz to 5 Hz is extracted.
[0067]
Next, the extracted fundamental frequency, that is, the walking rhythm is adapted to the classification table shown in FIG. 10A to determine whether the walking state is slow walking, fast walking, or running (step S205).
For example, if the fundamental frequency is about 0.5 to 1.5 Hz, "walk slowly", if the fundamental frequency is about 1.5 to 2.5 Hz, "walk fast", the fundamental frequency is about 2.5 to 5 Hz. If so, it is determined that the vehicle is in the “running” state.
[0068]
Next, the speed assigned to the object to be processed is read, and adapted to the classification state shown in FIG. 10B together with the previously determined walking state (slow walking, fast walking, running), and the object (pedestrian) ) Is determined (step S206). For example, if the person is “walking slowly” and the “speed is 2”, it is determined that the person is an adult.
[0069]
Next, the height assigned to the object to be processed is read out, and the walking state (slow walking, fast walking, running) determined earlier is adapted to the classification table shown in FIG. ) Is determined (step S207). For example, a person who is "slowly walking" and "short" is determined to be an infant.
[0070]
Thus, the processing of the state / attribute determination operation for OB1 ends (step S208).
[0071]
The above processing is repeated for each object in order, and the walking state and the attribute of each object (passer) are obtained (step S209).
[0072]
In the above embodiment, the pedestrian attribute is determined from the information on either the speed or the height of the pedestrian and the information on the walking frequency. The attribute may be determined. In this case, the classification table takes a three-dimensional form as schematically shown in FIG. 11, and allows more detailed attribute determination.
[0073]
In the above embodiment, the speed at which a pedestrian passes through a certain position was measured with a speed gun. However, the measuring method is not limited to this. For example, the speed of a person passing through the image may be obtained by taking an image from the lateral direction of the passage. Alternatively, the light emitters 131 and 132 may be arranged at fixed intervals in the horizontal direction instead of in the height direction, and the time interval in which the light emitted from the light emitters 131 and 132 is blocked may be measured, and the speed may be determined from this. .
[0074]
Further, in the above-described embodiment, the height is determined using the light sources installed above and below, but the determination method is not limited to this. For example, an infrared sensor that is continuous in the height direction may be arranged on one side of the passage (the three-dimensional real space RS), and infrared light emitted from a pedestrian passing therethrough may be detected to measure the height.
[0075]
In the above-described embodiment, the classification table is created by dividing the speed into four levels, the height into two levels, and the pedestrian's age into three levels. However, the classification is not limited to this, and is arbitrary. For example, it is possible to arrange the light source of the height sensor 13 in three stages and divide the pedestrian's age into four stages of infants, boys, adults, and the elderly to perform more detailed classification.
[0076]
In the above-described embodiment, the association between the frequency, the height, and the speed, and the walking state and the attribute are expressed as a discrete classification table and used. However, it is also possible to treat these as statistical data in a two-dimensional or three-dimensional continuous space and stochastically estimate a walking state and attributes. There are various methods of such stochastic treatment, such as Bayesian estimation, but the details are not limited here.
[0077]
In the above-described embodiment, a method of acquiring a continuous still image online and analyzing it is used. However, it is also possible to acquire only the image first and then change the time and place before conducting the analysis.
[0078]
In the above embodiment, the frequency analysis is performed using the frequency analysis processing device FFT18. However, the frequency analysis may be performed in the computer 16 without providing a dedicated device externally.
[0079]
Further, the method of detecting an object, the method of detecting a feature point, and the method of tracking described in the above embodiment are not limited to the above, and may be replaced by various other methods.
[0080]
The device according to the embodiment of the present invention determines the attribute of a pedestrian (adult, infant, or elderly). Therefore, it is effective for obtaining information in marketing, such as analyzing the audience of visitors to amusement parks, concerts, movies, and the like. In addition, by using an infrared camera or the like, a pedestrian can be photographed and information can be acquired in a situation where it is difficult to determine with the naked eye such as in the dark, so that it can be effective in the field of crime prevention and monitoring.
[0081]
【The invention's effect】
As described above, according to the present invention, it is possible to determine the walking status of a pedestrian in the observation target area.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a walking state / pedestrian attribute determination device according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a walking state / pedestrian attribute determination process, and is a diagram for explaining a process of acquiring an image of a pedestrian;
FIG. 3 is a diagram for explaining a process of measuring the height and speed of a pedestrian;
FIG. 4 is a diagram schematically illustrating a state where images acquired by a camera are stored in an HDD in order of photographing time.
FIG. 5 is a diagram showing a configuration of a memory and an example of data stored in a ROM.
FIG. 6 is a flowchart illustrating a flow of a process of detecting a top portion (feature point) of a pedestrian in an image.
FIG. 7 is a diagram schematically illustrating a result image of the pedestrian detection process.
FIG. 8 is a diagram illustrating an example of a trajectory in the (txy) space of a crown detected by image processing.
FIG. 9 is a flowchart showing the flow of processing for determining a walking state / attribute.
FIG. 10 is a diagram showing an example of a classification table based on walking rhythm, speed, and height.
FIG. 11 is a diagram showing an example of a classification table based on walking rhythm, speed, and height.
[Explanation of symbols]
11 Imaging device
12 Image buffer
13 Height sensor
131, 132 light emitter
133, 134 Receiver
14 Speed sensor
15 Input processing unit
16 Computer
161 control unit
162 memory
162a ROM
162b RAM
163 input section
164 display
17 HDD
18 FFT

Claims (6)

三次元空間を撮影した一連の二次元画像を記憶する記憶手段と、
前記記憶手段に記憶されている前記二次元画像中の検出対象者の特定部位を検出する特定部位検出手段と、
前記特定部位検出手段により検出された特定部位の前記二次元画像内での時間軸上の移動軌跡を算出する軌跡算出手段と、
前記軌跡算出手段により算出された軌跡の周波数スペクトルを得る周波数解析手段と、
前記周波数解析手段により得た周波数スペクトルに基づいて歩行状態を判定する歩行状態判定手段と、
を備えることを特徴とする歩行状態判定装置。
Storage means for storing a series of two-dimensional images taken of a three-dimensional space;
A specific part detection means for detecting a specific part of the detection target person in the two-dimensional image stored in the storage means,
Trajectory calculation means for calculating a movement trajectory on the time axis in the two-dimensional image of the specific part detected by the specific part detection means,
Frequency analyzing means for obtaining a frequency spectrum of the locus calculated by the locus calculating means,
Walking state determining means for determining a walking state based on the frequency spectrum obtained by the frequency analyzing means,
A walking state determination device comprising:
歩行運動の基本振動周波数の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記周波数スペクトルの基本振動周波数をいずれかの分類に分類して、その分類に割り当てられている分類により前記検出対象者の歩行状態を判定する手段と、
を備えることを特徴とする請求項1に記載の歩行状態判定装置。
Storage means for storing statistical case data of the fundamental vibration frequency of the walking motion;
Means for classifying the fundamental vibration frequency of the frequency spectrum into one of the categories based on the case data, and determining a walking state of the detection target person by the category assigned to the category;
The walking state determination device according to claim 1, further comprising:
前記検出対象者の速度を検出する速度検出手段と、
歩行速度の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記検出対象者の速度を分類する手段と、
前記基本振動周波数の分類と前記速度の分類とに基づいて前記検出対象者の属性を判定する手段と、
を備えることを特徴とする歩行者属性判定装置。
Speed detection means for detecting the speed of the detection target person,
Storage means for storing statistical case data of walking speed;
Means for classifying the speed of the detection target person based on the case data,
Means for determining the attribute of the detection target person based on the classification of the fundamental vibration frequency and the classification of the speed,
A pedestrian attribute determination device, comprising:
前記歩行状態判定装置において、前記検出対象者の身長を検出する身長検出手段と、
身長の統計的な事例データを格納する格納手段と、
該事例データに基づいて前記検出対象者の身長を分類する分類手段と、
前記基本振動周波数の分類と前記身長の分類とに基づいて前記検出対象者の属性を判定する属性判定手段と、
を備えることを特徴とする歩行者属性判定装置。
In the walking state determination device, height detection means for detecting the height of the detection target person,
Storage means for storing statistical height case data;
Classification means for classifying the height of the detection target person based on the case data,
Attribute determination means for determining the attribute of the detection target person based on the classification of the fundamental vibration frequency and the classification of the height,
A pedestrian attribute determination device, comprising:
三次元空間を撮影した二次元画像を入力し、
入力した二次元画像上で検出対象者を検出し、
検出された対象者の三次元時空間上の移動軌跡を算出し、
算出された移動軌跡に基づいて、対象者の運動の基本振動周波数を求め、
検出された対象者の速度を検知し、
検出された対象者の身長を検知し、
検知された基本振動周波数と速度と身長とに基づいて、対象者の歩行状態および歩行者属性を判定する、
ことを特徴とする歩行状態および歩行者属性判定方法。
Input a two-dimensional image of a three-dimensional space,
Detect the target person on the input two-dimensional image,
Calculate the moving trajectory of the detected subject in three-dimensional space-time,
Based on the calculated trajectory, the fundamental vibration frequency of the subject's motion is determined,
Detect the speed of the detected subject,
Detects the height of the detected subject,
Based on the detected fundamental vibration frequency, speed, and height, determine the walking state and pedestrian attribute of the subject,
A method for determining a walking state and a pedestrian attribute.
コンピュータを、
三次元空間を撮影した時間軸上で連続する二次元画像を記憶する記憶手段と、
前記記憶手段に記憶されている前記二次元画像中の検出対象者の特定部位を検出する特定部位検出手段と、
前記特定部位検出手段により検出された特定部位の三次元時空間上の移動軌跡を算出する軌跡算出手段と、
前記軌跡算出手段で算出された移動軌跡の周波数スペクトルを抽出する周波数解析手段と、
前記周波数解析手段で抽出された周波数スペクトルに基づいて、対象者の歩行状態と属性とを判定する歩行状態および歩行者属性判定手段と、
として機能させることを特徴とするプログラム。
Computer
Storage means for storing a continuous two-dimensional image on a time axis taken of a three-dimensional space,
A specific part detection means for detecting a specific part of the detection target person in the two-dimensional image stored in the storage means,
Trajectory calculation means for calculating a movement trajectory in three-dimensional space-time of the specific part detected by the specific part detection means,
Frequency analysis means for extracting the frequency spectrum of the movement trajectory calculated by the trajectory calculation means,
Based on the frequency spectrum extracted by the frequency analysis unit, a walking state and a pedestrian attribute determining unit that determines a walking state and an attribute of the subject,
A program characterized by functioning as a program.
JP2003092910A 2003-03-28 2003-03-28 Pedestrian age determination device, walking state / pedestrian age determination method and program Expired - Lifetime JP3655618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003092910A JP3655618B2 (en) 2003-03-28 2003-03-28 Pedestrian age determination device, walking state / pedestrian age determination method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003092910A JP3655618B2 (en) 2003-03-28 2003-03-28 Pedestrian age determination device, walking state / pedestrian age determination method and program

Publications (2)

Publication Number Publication Date
JP2004298285A true JP2004298285A (en) 2004-10-28
JP3655618B2 JP3655618B2 (en) 2005-06-02

Family

ID=33405824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003092910A Expired - Lifetime JP3655618B2 (en) 2003-03-28 2003-03-28 Pedestrian age determination device, walking state / pedestrian age determination method and program

Country Status (1)

Country Link
JP (1) JP3655618B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007078355A (en) * 2005-09-09 2007-03-29 Toa Corp Height measuring instrument
JP2008146185A (en) * 2006-12-06 2008-06-26 Univ Waseda Moving object detection device and program for moving object detection device
DE102008027588A1 (en) 2007-06-12 2009-01-08 Fuji Jukogyo K.K. Device for detecting pedestrians
CN102697507A (en) * 2012-06-26 2012-10-03 中国人民解放军第三军医大学第三附属医院 System for analyzing walking state of rehabilitation training of patient
WO2013103151A1 (en) * 2012-01-04 2013-07-11 株式会社ニコン Electronic device, method for generating information, and method for estimating position
CN104257385A (en) * 2014-10-16 2015-01-07 辽宁省颅面复原技术重点实验室 Method for measuring height of human body in video images
JP2016514976A (en) * 2013-02-28 2016-05-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus and method for detecting a subject based on vital signs
JP2016194829A (en) * 2015-03-31 2016-11-17 富士通株式会社 Display processing method, determination processing method, display processing program, determination processing program, and processing device
JP2016206100A (en) * 2015-04-27 2016-12-08 本田技研工業株式会社 Moving body moving speed estimation device and moving body control device
JP2017000601A (en) * 2015-06-15 2017-01-05 花王株式会社 Walking cycle detection method and detection apparatus
JP2017168885A (en) * 2016-03-14 2017-09-21 株式会社 日立産業制御ソリューションズ Imaging control apparatus and camera
CN110070044A (en) * 2019-04-23 2019-07-30 中国民航大学 Pedestrian's attribute recognition approach based on deep learning
WO2019156799A1 (en) * 2018-02-12 2019-08-15 Microvision, Inc. Smart pulsing in regions of interest in scanned beam 3d sensing systems
US10671219B2 (en) 2018-02-12 2020-06-02 Microvision, Inc. Scanning time of flight 3D sensing with smart pulsing
CN111784742A (en) * 2020-06-29 2020-10-16 杭州海康威视数字技术股份有限公司 Cross-lens tracking method and device for pedestrians
JP2021068044A (en) * 2019-10-18 2021-04-30 ヤフー株式会社 Device, method, and program for processing information
CN112926500A (en) * 2021-03-22 2021-06-08 重庆邮电大学 Pedestrian detection method combining head and overall information
CN113271848A (en) * 2019-02-05 2021-08-17 株式会社日立制作所 Body health state image analysis device, method and system
US20230136684A1 (en) * 2021-11-01 2023-05-04 Toyota Jidosha Kabushiki Kaisha Person movement type determination method, person movement type determination device, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6127455B2 (en) * 2012-11-08 2017-05-17 花王株式会社 Walking age evaluation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH056500A (en) * 1990-09-19 1993-01-14 Hitachi Ltd Mobile / facility control system
JPH07160883A (en) * 1993-12-09 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> Person attribute detection device
JPH08249444A (en) * 1995-03-09 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> Method for detecting object attribute
JP2003228701A (en) * 2002-02-05 2003-08-15 Japan Science & Technology Corp Lameness diagnosis system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH056500A (en) * 1990-09-19 1993-01-14 Hitachi Ltd Mobile / facility control system
JPH07160883A (en) * 1993-12-09 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> Person attribute detection device
JPH08249444A (en) * 1995-03-09 1996-09-27 Nippon Telegr & Teleph Corp <Ntt> Method for detecting object attribute
JP2003228701A (en) * 2002-02-05 2003-08-15 Japan Science & Technology Corp Lameness diagnosis system

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007078355A (en) * 2005-09-09 2007-03-29 Toa Corp Height measuring instrument
JP2008146185A (en) * 2006-12-06 2008-06-26 Univ Waseda Moving object detection device and program for moving object detection device
DE102008027588A1 (en) 2007-06-12 2009-01-08 Fuji Jukogyo K.K. Device for detecting pedestrians
US8160300B2 (en) 2007-06-12 2012-04-17 Fuji Jukogyo Kabushiki Kaisha Pedestrian detecting apparatus
WO2013103151A1 (en) * 2012-01-04 2013-07-11 株式会社ニコン Electronic device, method for generating information, and method for estimating position
CN102697507A (en) * 2012-06-26 2012-10-03 中国人民解放军第三军医大学第三附属医院 System for analyzing walking state of rehabilitation training of patient
JP2016514976A (en) * 2013-02-28 2016-05-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus and method for detecting a subject based on vital signs
CN104257385A (en) * 2014-10-16 2015-01-07 辽宁省颅面复原技术重点实验室 Method for measuring height of human body in video images
JP2016194829A (en) * 2015-03-31 2016-11-17 富士通株式会社 Display processing method, determination processing method, display processing program, determination processing program, and processing device
JP2016206100A (en) * 2015-04-27 2016-12-08 本田技研工業株式会社 Moving body moving speed estimation device and moving body control device
JP2017000601A (en) * 2015-06-15 2017-01-05 花王株式会社 Walking cycle detection method and detection apparatus
JP2017168885A (en) * 2016-03-14 2017-09-21 株式会社 日立産業制御ソリューションズ Imaging control apparatus and camera
WO2019156799A1 (en) * 2018-02-12 2019-08-15 Microvision, Inc. Smart pulsing in regions of interest in scanned beam 3d sensing systems
US10474248B2 (en) 2018-02-12 2019-11-12 Microvision, Inc. Smart pulsing in regions of interest in scanned beam 3D sensing systems
US10671219B2 (en) 2018-02-12 2020-06-02 Microvision, Inc. Scanning time of flight 3D sensing with smart pulsing
CN113271848A (en) * 2019-02-05 2021-08-17 株式会社日立制作所 Body health state image analysis device, method and system
CN113271848B (en) * 2019-02-05 2024-01-02 株式会社日立制作所 Body health state image analysis device, method and system
CN110070044A (en) * 2019-04-23 2019-07-30 中国民航大学 Pedestrian's attribute recognition approach based on deep learning
CN110070044B (en) * 2019-04-23 2023-03-10 中国民航大学 Pedestrian attribute identification method based on deep learning
JP2021068044A (en) * 2019-10-18 2021-04-30 ヤフー株式会社 Device, method, and program for processing information
CN111784742B (en) * 2020-06-29 2023-08-29 杭州海康威视数字技术股份有限公司 Pedestrian cross-lens tracking method and device
CN111784742A (en) * 2020-06-29 2020-10-16 杭州海康威视数字技术股份有限公司 Cross-lens tracking method and device for pedestrians
CN112926500A (en) * 2021-03-22 2021-06-08 重庆邮电大学 Pedestrian detection method combining head and overall information
US20230136684A1 (en) * 2021-11-01 2023-05-04 Toyota Jidosha Kabushiki Kaisha Person movement type determination method, person movement type determination device, and storage medium

Also Published As

Publication number Publication date
JP3655618B2 (en) 2005-06-02

Similar Documents

Publication Publication Date Title
JP3655618B2 (en) Pedestrian age determination device, walking state / pedestrian age determination method and program
JP6296043B2 (en) Measuring device, measuring method and measuring program
JP5950296B2 (en) Person tracking attribute estimation device, person tracking attribute estimation method, program
CN105574501B (en) A kind of stream of people&#39;s video detecting analysis system
TWI508004B (en) Object counter and method for counting objects
JP6120404B2 (en) Mobile body behavior analysis / prediction device
Gomes et al. Multi-human fall detection and localization in videos
JP6779410B2 (en) Video analyzer, video analysis method, and program
JP5027741B2 (en) Image monitoring device
JP7263094B2 (en) Information processing device, information processing method and program
JP2018099267A (en) Movement quantity estimation device, movement quantity estimation program and movement quantity estimation system
JPH10334207A (en) Human flow measurement device
CN112597903B (en) Electric power personnel safety state intelligent identification method and medium based on stride measurement
Nguyen et al. Extracting silhouette-based characteristics for human gait analysis using one camera
JP2015230616A (en) Image processing method and image processor
US20230062630A1 (en) Touch recognition method and device having lidar sensor
JP2012230494A (en) Pedestrian detection device
KR101355206B1 (en) A count system of coming and going using image analysis and method thereof
KR20230008483A (en) Apparatus and method for measuring pedestrian volume
Bansal et al. Elderly people fall detection system using skeleton tracking and recognition
CN117593788A (en) Human body posture classification method based on computer vision
JP2010205015A (en) Group behavior estimation device and service provision system
JP2004167002A (en) Instrument and method for measuring step
JP7208051B2 (en) State recognition device
JP3810755B2 (en) POSITION JUDGING DEVICE, MOVING ROUTE CALCULATION DEVICE, POSITION JUDGING METHOD AND PROGRAM

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050303

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3655618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载