+

JP6875559B2 - 映像整合装置及び映像整合方法 - Google Patents

映像整合装置及び映像整合方法 Download PDF

Info

Publication number
JP6875559B2
JP6875559B2 JP2019566557A JP2019566557A JP6875559B2 JP 6875559 B2 JP6875559 B2 JP 6875559B2 JP 2019566557 A JP2019566557 A JP 2019566557A JP 2019566557 A JP2019566557 A JP 2019566557A JP 6875559 B2 JP6875559 B2 JP 6875559B2
Authority
JP
Japan
Prior art keywords
patient
spine
image
dorsal surface
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019566557A
Other languages
English (en)
Other versions
JP2020508200A (ja
Inventor
ジュ イ、ビョン
ジュ イ、ビョン
Original Assignee
コー・ヤング・テクノロジー・インコーポレーテッド
インダストリー−ユニバーシティー コーペレイション ファンデーション ハンヤン ユニバーシティー エリカ キャンパス
インダストリー−ユニバーシティー コーペレイション ファンデーション ハンヤン ユニバーシティー エリカ キャンパス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コー・ヤング・テクノロジー・インコーポレーテッド, インダストリー−ユニバーシティー コーペレイション ファンデーション ハンヤン ユニバーシティー エリカ キャンパス, インダストリー−ユニバーシティー コーペレイション ファンデーション ハンヤン ユニバーシティー エリカ キャンパス filed Critical コー・ヤング・テクノロジー・インコーポレーテッド
Publication of JP2020508200A publication Critical patent/JP2020508200A/ja
Application granted granted Critical
Publication of JP6875559B2 publication Critical patent/JP6875559B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本出願は2017年2月21日付で出願された米国仮特許出願第62/461,507号の優先権の利益を主張する。仮出願第62/461,507号は、これをもって本発明に参照文献として含まれる。
本発明は、映像整合装置及び映像整合方法に関するものである。
本発明は、中小企業庁のWC300プロジェクト技術開発支援の一環として実行された研究から導き出されたものである(課題固有番号:S2482672、研究課題名:整合精度1mm以下の手術用ナビゲーション融合頭頸部手術ロボットシステムの開発)。
患者の脊椎手術において、患者の患部を撮影した映像を活用する映像誘導手術(image−guided surgery)が多く活用されている。特に、患者身体内の重要な神経と主要な臓器を回避しながら手術を進めなければならない場合には、撮影された映像を基盤として高い精度を有する手術を行うことが要求される。
また、患者人体から解像度の高い映像を得ることが可能であり、ロボットアームなどを用いて医療機構の微細な操作が可能となることにより、非侵襲手術(MIS、Minimize Invasive Surgery)が活用されている。即ち、人体に直接的な切開をせず皮膚に小さい孔を作って、これを通じて医療用針などの手術道具を入れて手術が行われ得る。このような非侵襲手術は、通常、前記映像誘導手術と共に、医者のような使用者は映像を通じて患者人体内部を観察しながら手術を行うようになる。
映像を通じた非侵襲手術方式では、手術中に映像診断装置などを用いて、患者を持続的または間欠的に撮影する必要があった。脊椎手術を進める場合、脊椎の位置を高い精度で見つけるのが要求されるからである。特に切開部位を最小化した状況では、手術の対象になる脊椎の位置を正確に見つけるために、患者に対する映像撮影が不可避であった。
このためにC−armまたはO−armのような方式の映像撮影装備を用いて、映像撮影を併行しながら脊椎手術が行われた。しかし、このような方式は患者が大量の放射線に被ばくされる問題がある。また、このような方式は映像撮影が並行されるので、患者の手術費用が増加する問題がある。
患者が手術前に撮影した、既存の脊椎映像を基盤として脊椎手術を行うこともできるが、この場合、脊椎の位置推定の精度が大きく落ちる。特に、患者の手術時における姿勢が手術前の脊椎映像を撮影した時とは異なるため、精密に手術対象の脊椎を発見するのが難しいことがある。
本発明は、上述した従来技術の欠陥を解決するためのものであって、映像整合装置及び映像整合方法を提供する。
本発明の一実施例による映像整合装置は、手術テーブルに支持された患者の第1姿勢における背表面を3Dスキャンして第1背表面スキャンイメージを取得する3Dスキャナと、前記患者人体に表示された基準マーカーの位置と姿勢情報及び3Dスキャナに表示されたスキャナマーカーの位置と姿勢情報を取得するトラッキングセンサと、前記患者の背表面と脊椎の相関関係に対する人体相関モデルを格納するメモリと、前記3Dスキャナ、前記トラッキングセンサ及び前記メモリと電気的に連結されるプロセッサとを含み、前記プロセッサは、前記人体相関モデル及び前記第1背表面スキャンイメージに基づいて、前記患者の脊椎の位置を推定する仮想の第1脊椎測定映像を生成し、前記基準マーカーの位置と姿勢情報及び前記スキャナマーカーの位置と姿勢情報に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合することができる。
一実施例によれば、上記プロセッサは、前記プロセッサは、前記第1背表面スキャンイメージから前記患者の前記第1姿勢における背表面情報を抽出し、前記人体相関モデル及び前記背表面情報に基づいて、前記患者の前記第1姿勢における脊椎位置情報を取得し、前記脊椎位置情報に基づいて、前記仮想の第1脊椎測定映像を生成することができる。
一実施例によれば、前記人体相関モデルは、前記患者の第2姿勢における背表面を3Dスキャンして取得された第2背表面スキャンイメージと前記患者の前記第2姿勢における脊椎を撮影して取得された第2脊椎測定映像の間の相関関係を用いて生成された第1相関モデルであり得る。
一実施例によれば、前記人体相関モデルは、複数の他の患者のグループから選択された少なくとも1つの患者の背表面を3Dスキャンして取得された第3背表面スキャンイメージと前記少なくとも1つの患者の脊椎を撮影して取得された第3脊椎測定映像の間の相関関係を用いて、前記第1相関モデルを補正することにより生成された第2相関モデルであり得る。
一実施例による前記映像整合装置は、前記患者の前記第1姿勢における脊椎を撮影して第4脊椎測定映像を取得する脊椎映像撮影部をさらに含み、前記プロセッサは、前記第4脊椎測定映像と前記第1背表面スキャンイメージの間の相関関係を用いて前記人体相関モデルを補正し、前記補正された人体相関モデルを用いて前記仮想の第1脊椎測定映像を生成することができる。
一実施例によれば、前記プロセッサは、前記第4脊椎測定映像に基づいた前記人体相関モデルの補正を所定回数繰り返して実施することができる。
一実施例によれば、 末端に手術道具が付着されたロボットアームをさらに含み、前記トラッキングセンサは、前記ロボットアームに表示されたロボットアームマーカーの位置と姿勢情報を取得し、前記プロセッサは、前記仮想の第1脊椎測定映像の座標系と整合された前記患者の座標系上に示される前記ロボットアームマーカーの位置と姿勢情報に基づいて、前記ロボットアームを制御することができる。
一実施例によれば、前記プロセッサは、前記基準マーカーの位置と姿勢情報、前記スキャナマーカーの位置と姿勢情報、前記スキャナマーカーの位置と姿勢情報及び前記第1背表面スキャンイメージの間の第1座標変換関係、及び前記第1背表面スキャンイメージ及び前記仮想の第1脊椎測定映像の間の第2座標変換関係に基づいて、前記仮想の第1脊椎測定映像及び前記基準マーカーの位置と姿勢情報の間の第3座標変換関係を取得し、前記第3座標変換関係に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合することができる。
一実施例によれば、前記第2脊椎測定映像、前記第3脊椎測定映像及び前記第4脊椎測定映像は、CTA(Computed Tomography Angiography)映像、MRI(Magnetic Resonance Imaging)映像またはCT(Computed Tomography)映像のうちの1つであり得る。
本発明の一実施例による映像整合方法は、3Dスキャナが手術テーブルに支持された患者の第1姿勢における背表面を3Dスキャンして第1背表面スキャンイメージを取得する段階と、前記患者人体に表示された基準マーカーの位置と姿勢情報及び前記3Dスキャナに表示されたスキャナマーカーの位置と姿勢情報を取得する段階と、前記患者の背表面と脊椎の相関関係に対する人体相関モデル及び前記第1背表面スキャンイメージに基づいて、前記患者の脊椎の位置を推定する仮想の第1脊椎測定映像を生成する段階と、前記基準マーカーの位置と姿勢情報及び前記スキャナマーカーの位置と姿勢情報に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する段階とを含むむことができる。
一実施例によれば、前記仮想の第1脊椎測定映像を生成する段階は、前記第1背表面スキャンイメージから前記患者の前記第1姿勢における背表面情報を抽出する段階と、前記人体相関モデル及び前記背表面情報に基づいて、前記患者の前記第1姿勢における脊椎位置情報を取得する段階と、前記脊椎位置情報に基づいて、前記仮想の第1脊椎測定映像を生成する段階とを含むことができる。
一実施例による映像整合方法は、 前記患者の前記第1姿勢における脊椎を撮影して第4脊椎測定映像を取得する段階と、前記第4脊椎測定映像と前記第1背表面スキャンイメージの間の相関関係を用いて前記人体相関モデルを補正する段階とをさらに含み、前記仮想の第1脊椎測定映像を生成する段階は、前記補正された人体相関モデルを用いて前記仮想の第1脊椎測定映像を生成する段階を含むことができる。
一実施例によれば、前記人体相関モデルを補正する段階は、所定回数繰り返して実施され得る。
一実施例による映像整合方法は、末端に手術道具が付着されたロボットアームに表示されたロボットアームマーカーの位置と姿勢情報を取得する段階と、前記仮想の第1脊椎測定映像の座標系と整合された前記患者の座標系上に示される前記ロボットアームマーカーの位置と姿勢情報に基づいて、前記ロボットアームを制御する段階とをさらに含むことができる。
一実施例によれば、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する段階は、前記基準マーカーの位置と姿勢情報、前記スキャナマーカーの位置と姿勢情報、前記スキャナマーカーの位置と姿勢情報及び前記第1背表面スキャンイメージの間の第1座標変換関係、及び前記第1背表面スキャンイメージ及び前記仮想の第1脊椎測定映像の間の第2座標変換関係に基づいて、前記仮想の第1脊椎測定映像及び前記基準マーカーの位置と姿勢情報の間の第3座標変換関係を取得する段階と、前記第3座標変換関係に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する段階とを含むことができる。
本発明の一実施例によれば、コンピュータ上で行われるためのプログラムを記録した非一時的なコンピュータ読み取り可能な記録媒体において、前記プログラムは、プロセッサによる実行時に、前記プロセッサが、3Dスキャナによって手術テーブルに支持された患者の第1姿勢における背表面を3Dスキャンして取得された第1背表面スキャンイメージを取得する段階と、前記患者人体に表示された基準マーカーの位置と姿勢情報及び前記3Dスキャナに表示されたスキャナマーカーの位置と姿勢情報を取得する段階と、前記患者の背表面と脊椎の相関関係に対する人体相関モデル及び前記第1背表面スキャンイメージに基づいて、前記患者の脊椎の位置を推定する仮想の第1脊椎測定映像を生成する段階と、前記基準マーカーの位置と姿勢情報及び前記スキャナマーカーの位置と姿勢情報に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する段階とを行うようにする実行可能な命令を含むことができる。
一実施例による映像整合装置及び映像整合方法によれば、手術対象になる患者の手術時の放射線被ばくが低減される。
また、手術中C−armなどによる映像撮影が最小化されるので、手術費用が節減される。
また、人体相関モデルを用いて患者の脊椎位置を推定するので、手術時に患者の姿勢変化への対処が可能であり、これにより手術の精度を高めることができる。
本発明の一実施例による映像整合装置を示す図である。 本発明の一実施例による映像整合装置が手術に用いられている活用例を示す図である。 本発明の一実施例による人体相関モデルを生成する過程を示す図である。 本発明の一実施例による患者毎の人体相関モデルの生成及び活用過程を示す図である。 本発明の一実施例によるデータベース基盤の人体相関モデルの生成及び活用過程を示す図である。 本発明の一実施例による人体相関モデルを補正する過程を示す図である。 本発明の一実施例による仮想の脊椎測定映像を患者人体に整合する過程を示す図である。 本発明の一実施例による整合された仮想の脊椎測定映像を用いてロボットアームを制御する過程を示す図である。 本発明の一実施例による映像整合装置により行われ得る、映像整合方法を示すフローチャートである。
以下に説明する本発明の実施例は本発明を説明するための目的で例示されたものである。本発明の実施例は多様な形態で実施され得、本発明が下記に提示された実施例やこれらの実施例に関する具体的説明に限定されると解釈されない。
本明細書で用いられる全ての技術的用語及び科学的用語は、別に定義されていない限り、本発明の属する技術分野で通常の知識を有する者に一般に理解される意味を有する。本明細書で用いられる全ての用語は本発明をより明確に説明するための目的で選択されたものであり、本発明の範囲を制限するために選択されたものではない。
本明細書で用いられる「含む」、「備える」及び「有する」という表現は、当該表現が含まれる文句または文章において特に異なって言及されない限り、他の実施例を含む可能性を内包する開放型用語(open−ended terms)と理解されなければならない。
本明細書で記述された単数形の表現は、別に言及しない以上、複数形の表現もともに含み得、これは、請求項に記載された単数形の表現にも同様に適用される。
本明細書で用いられた「第1」、「第2」などの表現は、複数の構成要素を相互に区分するために用いるものに過ぎず、当該構成要素の順序または重要度を限定するものではない。
本明細書で用いられる用語「部」は、ソフトウェア、FPGA(field−programmable gate array)、ASIC(application specific integrated circuit)のようなハードウェア構成要素を意味する。しかし、「部」は、ハードウェア及びソフトウェアに限定されるものではない。「部」は、アドレッシングできる格納媒体にあるように構成されてもよく、1つまたはそれ以上のプロセッサを再生させるように構成されてもよい。従って、一例として「部」はソフトウェア構成要素、客体指向ソフトウェア構成要素、クラス構成要素及びタスク構成要素のような構成要素と、プロセッサ、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素と「部」内で提供される機能はさらに小さい数の構成要素及び「部」に結合したり追加の構成要素と「部」にさらに分離され得る。
本明細書で「〜に基づいて」という表現は、当該表現が含まれる文句または文章で記述される、決定または判断の行為または動作に影響を与える1つ以上の因子を記述するのに用いられ、この表現は決定または判断の行為または動作に影響を与える追加の因子を排除しない。
本明細書において、ある構成要素が他の構成要素に「連結されて」いるとか、「接続されて」いると言及されたときには、前記ある構成要素が前記他の構成要素に直接的に連結されているか、または接続されていてもよいが、前記ある構成要素と前記他の構成要素の間に新たな他の構成要素が存在してもよいと理解されるべきである。
以下、添付した図面を参照して、本発明の実施例を詳細に説明する。図面上の同一の構成要素に対しては同一の参照符号を用い、同一の構成要素について重複する説明は省略する。しかし、構成要素に関する記述が省略されても、そのような構成要素がある実施例に含まれないものとは意図されない。
図1は、本発明の一実施例による映像整合装置を示す図である。
一実施例によれば、本発明は、映像整合装置に関する。映像整合装置は、背表面と脊椎の相関関係を用いて、患者の背表面スキャンイメージから患者の脊椎に対する仮想の脊椎測定映像を生成できる。また、映像整合装置は、生成された仮想の脊椎測定映像を患者人体に整合することができる。
具体的には、映像整合装置は、手術テーブルに支持された患者の背表面を3D(3−Dimensional)スキャンして背表面スキャンイメージを取得し、背表面と脊椎の相関関係を示す人体相関モデル及び/又は背表面スキャンイメージに基づいて仮想の脊椎測定映像を生成し、患者人体に表示された基準マーカー及び3Dスキャナに表示されたスキャナマーカーの位置と姿勢情報を取得して仮想の脊椎測定映像を患者人体に整合できる。
本発明による映像整合装置は、3Dスキャナ1010、トラッキングセンサ1020、メモリ1030及び/又はプロセッサ1040を内部/外部コンポーネントとして含むことができる。
3Dスキャナ1010は、手術テーブルに支持された患者から当該患者の手術時(intra−operative)の姿勢における背表面を3Dスキャンすることができる。3Dスキャナ1010は、これを通じて患者の手術時の姿勢に対する背表面スキャンイメージを取得できる。3Dスキャナ1010は、取得された背表面スキャンイメージをプロセッサ1040に伝達する。この過程で取得された背表面スキャンイメージは、実施例によって第1背表面スキャンイメージと称される。
ここで、3Dスキャナによって取得されるスキャンイメージは、3次元で対象体の表面をスキャンして示す3D情報であり得る。即ち、背表面スキャンイメージは、3Dで背表面をスキャンした、3D背表面スキャンイメージであり得る。また、背表面スキャンイメージから取得される背表面形態情報は、当該背表面形態を3次元で示す、3D背表面形態情報であり得る。
トラッキングセンサ1020は、マーカー(marker)をセンシングしてその位置と姿勢情報を取得できる。実施例によって、トラッキングセンサ1020は、基準マーカー及び/又はスキャナマーカーから当該マーカーの位置と姿勢情報を取得できる。基準マーカーは、患者人体に表示されたマーカーであり、スキャナマーカーは、3Dスキャナ1010に表示されたマーカーであり得る。ここで、マーカーが特定の対象体に表示されるということは、マーカーが特定の対象体に固定的に設けられたり、付着されることを意味する。トラッキングセンサ1020は、取得されたマーカーの位置と姿勢情報をプロセッサ1040に伝達できる。
メモリ1030は、背表面と脊椎の相関関係を示す人体相関モデルを格納することができる。人体相関モデルに関する具体的な事項は後述する。
プロセッサ1040は、3Dスキャナ1010によって取得された患者の手術時の姿勢における背表面スキャンイメージとメモリに格納された人体相関モデルに基づいて、仮想の脊椎測定映像を生成できる。仮想の脊椎測定映像は、当該患者の手術時の姿勢における脊椎の位置を推定する仮想の脊椎映像であり得る。この過程で生成される仮想の脊椎測定映像は、実施例によって仮想の第1脊椎測定映像と称される。
また、プロセッサ1040は、マーカーの位置と姿勢情報に基づいて、仮想の脊椎測定映像を患者人体に整合できる。具体的には、プロセッサ1040は、トラッキングセンサ1020によって取得された基準マーカーの位置と姿勢情報及び/又はスキャナマーカーの位置と姿勢情報に基づいて、仮想の脊椎測定映像の座標系を患者の座標系に整合できる。
プロセッサ1040は、3Dスキャナ1010、トラッキングセンサ1020及び/又はメモリ1030と電気的に連結されていることができる。
一実施例によれば、プロセッサ1040は、手術テーブルに支持された患者から取得した背表面スキャンイメージから、患者の手術時の姿勢における背表面情報を抽出できる。プロセッサ1040は、上述の人体相関モデル及び抽出された背表面情報に基づいて、当該患者の手術時の姿勢における脊椎位置情報を取得できる。プロセッサ1040は、取得された脊椎位置情報に基づいて、上述の仮想の脊椎測定映像を生成できる。
一実施例によれば、人体相関モデルは、背表面と脊椎の相関関係を示す人体モデルであり得る。人体相関モデルは、背表面の形態と当該背表面の形態による人体内部の脊椎の位置の間の相関関係を示す、人体に対する相関モデルであり得る。
一実施例によれば、人体相関モデルは、当該患者に対する患者毎の人体相関モデルであり得る。患者毎の人体相関モデルは、当該患者の特性が考慮された、当該患者個人に対する背表面と脊椎の間の相関関係による人体相関モデルであり得る。この過程により生成される人体相関モデルは、第1相関モデルと称される。患者毎の人体相関モデルに関する具体的な事項は後述する。
一実施例によれば、人体相関モデルは、データベース基盤の人体相関モデルであり得る。データベース基盤の人体相関モデルは、上述の患者毎の人体相関モデルをデータベースに格納された少なくとも1つ以上の患者の背表面及び/又は脊椎に関する情報を用いて補正した人体相関モデルであり得る。この過程により生成される人体相関モデルは第2相関モデルと称される。データベース基盤の人体相関モデルの具体的な事項については後述する。
一実施例によれば、プロセッサ1040は、手術テーブルに支持された患者の手術時の姿勢から取得される追加の情報に基づいて、上述の人体相関モデルをさらに補正することができる。プロセッサ1040は、補正された人体相関モデルを用いて上述の仮想の脊椎測定映像を生成できる。
一実施例によれば、映像整合装置は、脊椎映像撮影部(図示せず)をさらに含むことができる。脊椎映像撮影部は、手術テーブルに支持された患者の脊椎を撮影することにより、手術時の姿勢における脊椎測定映像を取得できる。この過程で取得された背表面スキャンイメージは、実施例によって第4背表面スキャンイメージと称される。プロセッサ1040は、上述のように患者の手術時の姿勢から取得される追加の情報に基づいて人体相関モデルを補正することにより、脊椎映像撮影部から取得された脊椎測定映像と、上述の手術時の姿勢における背表面スキャンイメージ(第1背表面スキャンイメージ)の間の相関関係を用いることができる。
一実施例によれば、プロセッサ1040は、手術時の姿勢から取得される追加の情報に基づいた人体相関モデルの補正を所定回数繰り返して実施することができる。
一実施例によれば、プロセッサ1040は、生成された仮想の脊椎測定映像及び患者人体に固定された基準マーカーの位置と姿勢情報の間の座標変換関係を取得し、取得された座標変換関係に基づいて仮想の脊椎測定映像の座標系を患者の座標系に整合できる。
一実施例によれば、トラッキングセンサ1020がトラッキングするマーカーとは、対象体の動きや姿勢を測定するのに用いられる基準体であり得る。具体的には、マーカーは対象体に付着され得、前記トラッキングセンサ1020は当該マーカーの3次元空間上の位置情報とロール(roll)、ピッチ(pitch)、ヨー(yaw)として定義される姿勢情報を測定することにより、マーカーが付着された対象体の現在の動きや姿勢を測定したり、または時間の経過によって変化する対象体の動きや姿勢をトラッキングできる。
一実施例によれば、マーカーの姿勢情報は、当該マーカーが3次元空間上で有する姿勢をロール(roll)、ピッチ(pitch)、ヨー(yaw)による航空機の主軸(Aircraft Principal Axes)の概念を通じて示すものであり得る。ここで、ロール(roll)、ピッチ(pitch)、ヨー(yaw)は、当該マーカーが3次元空間上で回転する軸または方向を意味する。ロール(roll)は、対象体の前の部分から後ろの部分へ貫通する軸またはその軸を基準に回転する方向を意味する。ピッチ(pitch)は、対象体の前の部分を基準に上下に回転する方向またはその軸を意味する。ヨー(yaw)は、対象体の前の部分を基準に左右に回転する方向またはその軸を意味する。
一実施例によれば、マーカーが付着される対象体の位置と姿勢を同時に測定するために、イメージ情報が含まれたマーカーが用いられ得る。実施例によって、マーカーには、プリンティング技法、ステンシル技法、スタンピング技法またはリソグラフィ技法などを通じて形成されたイメージ情報が含まれ得る。マーカーに含まれた当該イメージを実際に結像した結像イメージと、既に格納されている当該イメージに関する情報から、それぞれ互いに対応する2つ以上の任意の特徴点座標が検出され得る。この対応する特徴点座標の間の関係式から当該イメージを含むマーカーに対する姿勢が決定され得る。また、複数の位置でマーカーに含まれた当該イメージを結像し、それぞれの結像イメージ情報に基づいた三角法を通じて当該マーカーの位置も決定され得る。
一実施例によれば、マーカーが付着される対象体の位置と姿勢を同時に測定するために、3つ以上の複数のマーカーが用いられることもできる。それぞれのマーカーを用いて、当該対象体の、6自由度(6 Degree of Freedom)の位置及び姿勢が全て測定され得る。
一実施例によれば、基準マーカーは、仮想の脊椎測定映像を患者人体に整合する基準になるマーカーであり得る。実施例によって基準マーカーは患者人体に固定され得る。例えば、患者の脊椎骨のうちの1つに基準マーカーが固定されたり、患者の歯に基準マーカーが付着されたテンプレートが固定され得る。基準マーカーの位置と姿勢情報に基づいて、患者の座標系に仮想の脊椎測定映像の座標系が整合され得る。
一実施例によれば、スキャナマーカーは、上述の3Dスキャナに付着されて、3Dスキャナのスキャニングポイントを取得するのに用いられるマーカーであり得る。スキャナマーカーの位置と姿勢情報に基づいて、3Dスキャナが背表面のスキャニングを行う背表面の所定部位と、それに対応する背表面スキャンイメージに関する座標変換関係が取得され得る。
一実施例によれば、上述した脊椎測定映像のうち、プロセッサにより生成される仮想の脊椎測定映像を除いた脊椎測定映像は、CTA(Computed Tomography Angiography)映像、MRI(Magnetic Resonance Imaging)映像またはCT(Computed Tomography)映像であり得る。ここで、映像とは、対象体の内部構造を撮影した映像を意味する。具体的には、映像は、非侵襲検査のために、身体内の構造的な細部事項、内部組織及び/又は流体の流れなどを撮影した後に処理したものであり得る。
一実施例によれば、上述の3Dスキャナ1010、トラッキングセンサ1020及び/又は脊椎映像撮影部は、取得した背表面スキャンイメージ、マーカーの位置と姿勢情報及び/又は脊椎測定映像をメモリ1030に伝達することができる。メモリ1030は、伝達された背表面スキャンイメージ、マーカーの位置と姿勢情報及び/又は脊椎測定映像を今後の活用のために格納できる。
一実施例によれば、映像整合装置は、ネットワークインターフェース(図示せず)をさらに含むことができる。ネットワークインターフェースは、サーバとブロードバンドを通じて通信し、人体相関モデルを受信することができる。
一実施例によれば、プロセッサ1040は、上述の人体相関モデルを直接生成することができる。プロセッサ1040は、手術対象になる患者の背表面スキャンイメージ及び/又は脊椎測定映像をメモリ1030から取得し、当該患者の患者毎の人体相関モデルを生成できる。実施例によってプロセッサ1040は、複数の他の患者のグループから選択された少なくとも1つの患者に対する背表面スキャンイメージ及び/又は脊椎測定映像をメモリ1030から取得し、データベース基盤の人体相関モデルを生成できる。実施例によってプロセッサ1040は、ネットワークインターフェースを通じてサーバから取得された背表面スキャンイメージ及び/又は脊椎測定映像を用いて、患者毎の人体相関モデルまたはデータベース基盤の人体相関モデルを生成できる。
一実施例によれば、映像整合装置は、表出部(図示せず)をさらに含むことができる。表出部は、3Dスキャナ1010によって取得された手術時の姿勢における患者の背表面スキャンイメージ、生成された仮想の脊椎測定映像及び/又は患者の座標系に整合された仮想の脊椎測定映像などをディスプレイできる。
一実施例によれば、映像整合装置は、ロボットアーム(arm)をさらに含むことができ、プロセッサ1040は、ロボットアームを制御することができる。
一実施例によれば、映像整合装置は、上述のプロセッサ1040と上述のメモリ1030のみを含む概念で定義され得る。この実施例によれば、映像整合装置は、映像整合装置の外部の3Dスキャナ、トラッキングセンサ及び/又は脊椎映像撮影部から情報の伝達を受けることができる。プロセッサは、伝達された情報を用いて上述の映像整合装置の実施例による動作を行うことができる。
上述した本発明による映像整合装置の実施例は互いに組み合わされ得る。また、上述した本発明による映像整合装置の内部/外部コンポーネントは、実施例によって追加、変更、代替または削除され得る。また、上述した映像整合装置の内部/外部コンポーネントは、ハードウェアで具現され得る。
図2は、本発明の一実施例による映像整合装置が手術に用いられている活用例を示す図である。
上述のように、映像整合装置は、患者から取得された背表面スキャンイメージと人体相関モデルを用いて、当該患者に対する仮想の脊椎測定映像を生成できる。
上述した実施例のうち、任意の一実施例による映像整合装置が、手術テーブル2010に支持された患者2020に活用されている図が図2に示されている。図2に示すように、一実施例による映像整合装置は、3Dスキャナ1010、トラッキングセンサ1020、メモリ及び/又はプロセッサを含むことができる。
具体的には、手術の対象になる患者2020は、手術テーブル2010に支持され得る。手術テーブルに支持された患者人体には、基準マーカー3010が固定され得る。上述のように、基準マーカー3010は、患者の脊椎骨のうちの1つに固定的に設けられる。3Dスキャナ1010には、スキャナマーカー3020が付着され得る。スキャナマーカー3020は、3Dスキャナ1010のスキャニングポイントに関する情報を取得するのに用いられる。
3Dスキャナ1010は、手術テーブルに支持された患者の背表面を3Dスキャンすることができる。ここで、手術テーブルに支持された患者の、手術時の姿勢における背表面がスキャンされ得る。これにより3Dスキャナ1010は、手術時の姿勢における患者の背表面スキャンイメージを取得できる。手術の対象になる患者の手術時の姿勢は、実施例によって第1姿勢と称される。
3Dスキャナ1010は、例えば、手術テーブルのz軸上の上方で、手術テーブルの上板を眺める方向に設けられる。これにより3Dスキャナ1010は、手術テーブル2010に支持された患者2020の人体をスキャニングできるように、手術テーブル2010の上板を眺めることができる。3Dスキャナ1010の位置は、実施例によって変更され得る。
トラッキングセンサ1020は、基準マーカー3010の位置と姿勢情報、及びスキャナマーカー3020の位置と姿勢情報を取得できる。トラッキングセンサ1020は、例えば、手術テーブルのy軸上の上方または下方で、手術テーブル2010を眺める方向に設けられる。即ち、トラッキングセンサ1020は、患者人体に固定された基準マーカー3010及び/又は3Dスキャナ1010に付着されたスキャナマーカー3020の位置と姿勢をトラッキングできるように、手術テーブルに支持された患者の頭または足の方向に設けられ得る。トラッキングセンサ1020の位置は、実施例によって変更され得る。
メモリは、上述した実施例による人体相関モデルを格納できる。実施例によってメモリは、上述した実施例による人体相関モデルのうち少なくとも1つを格納できる。メモリは、この活用例で示されていない。
プロセッサは、3Dスキャナ1010が取得した対象患者の背表面スキャンイメージを3Dスキャナ1010から取得できる。また、プロセッサは、人体相関モデルをメモリから取得できる。プロセッサは、取得された背表面スキャンイメージを人体相関モデルに適用して仮想の脊椎測定映像を生成できる。プロセッサは、この活用例で示されていない。
具体的には、プロセッサは、伝達された背表面スキャンイメージから対象患者の背表面の形態に関する情報を抽出できる。この時、抽出される背表面形態に関する情報は、対象患者に対する背表面形態を示す情報であり得る。具体的に当該背表面形態に関する情報は、対象患者が手術テーブルに支持された状態で、手術時(intra−operative)の姿勢を取っている時の背表面の形態を示す情報であり得る。
また、プロセッサは、抽出された対象患者の背表面形態情報を、伝達された人体相関モデルに入力して背表面が当該形態を現す時の脊椎の推定された位置値を取得できる。これを通じて対象患者が手術時の姿勢を取っている時の推定された脊椎の位置に関する情報が取得され得る。
プロセッサは、推定された脊椎の位置に関する情報を用いて、仮想の脊椎測定映像を生成できる。生成される仮想の脊椎測定映像は、対象患者が手術時の姿勢を取っている時の脊椎の位置を推定して、これを実際に撮影された脊椎測定映像のようにイメージ化したものであり得る。
プロセッサは、生成された仮想の脊椎測定映像を患者身体に整合できる。即ち、プロセッサは整合過程で、トラッキングセンサ1020によって取得された基準マーカー3010の位置と姿勢情報、及びスキャナマーカー3020の位置と姿勢情報を用いることができる。整合過程によって仮想の脊椎測定映像の座標系は、患者身体の座標系に整合され得る。これにより、整合された仮想の脊椎測定映像に示される推定された脊椎の位置に基づいて、実際の患者身体における手術などが進められる。
図3は、本発明の一実施例による人体相関モデルを生成する過程を示す図である。
上述のように人体相関モデルは、人体の背表面と脊椎の相関関係に対するモデルであり得る。具体的には、人体相関モデルは、背表面の形態と、当該背表面の形態における患者人体内部の脊椎の位置間の関係を示すことができる。
ここで、脊椎の位置とは、脊椎の患者人体内における位置を意味したり、あるいは文脈によっては脊椎の軟組織が収縮または弛緩することにより脊椎が配列される位置または形態を示す意味であり得る。
図3に示すように、人体相関モデルは、背表面をスキャンした背表面スキャンイメージとこの時の脊椎を撮影した脊椎測定映像5010を用いて生成され得る。具体的には、人体相関モデルは、背表面スキャンイメージから取得される背表面形態に関する情報5030と、脊椎測定映像5010から取得される脊椎の位置に関する情報に基づいて、背表面と脊椎の間の相関関係を取得することにより生成され得る。実施例によって人体相関モデルの生成過程で、患者の脊椎の軟組織物性値5040がさらに用いられることもできる。
ここで、脊椎撮影映像5010、背表面の形態に関する情報5030及び/又は脊椎の軟組織物性値5040は、ある患者人体に関するデータであり得る。例えば、上述の患者毎の人体相関モデルを生成する場合、生成に用いられる脊椎測定映像は、手術の対象になる患者の脊椎測定映像であり、背表面形態に関する情報は、当該患者の背表面から取得されたものであり、脊椎の軟組織物性値は、当該患者の脊椎軟組織の測定された物性値であり得る。
まず、脊椎測定映像5010を通じて当該人体の脊椎に対する脊椎3Dモデル5020が生成され得る。ここで、脊椎測定映像5010は、人体の脊椎を撮影したCTA映像、CT映像及び/又はMRI映像などを意味する。生成された脊椎3Dモデル5020は、脊椎の形態、即ち、脊椎骨のような硬組織及び/又は脊椎骨の間の軟組織を3Dでモデリングしたものであり得る。
この後、脊椎の位置による背表面形態値が測定され得る。脊椎骨及び脊椎軟組織が配列される位置により、人体の背表面の形態が異なり得る。このような脊椎の位置による背表面の形態を測定することにより、脊椎の位置と背表面の形態の間の相関関係情報が取得され得る。この相関関係情報は、脊椎測定映像5010から取得される脊椎の位置に関する情報と背表面スキャンイメージから取得される背表面形態情報5030の間の物理的な関係を示す構成方程式(constitutive law)であり得る。
取得された相関関係情報は、上述した脊椎3Dモデル5020に反映され得る。脊椎位置と背表面形態の間の相関関係情報が上述した脊椎3Dモデル5020に反映されることにより、人体相関モデル4010が生成され得る。
この過程で、相関関係情報及び脊椎3Dモデル5020を通じて生成される人体相関モデル4010は、脊椎に対する動的モデルであり得る。即ち、人体相関モデルは、背表面の形態変化により脊椎の位置変化を予測することができる。例えば、人体相関モデルに背表面の形態に対する時系列的な情報を入力した時、人体相関モデルは、時間の経過によって変化する脊椎の位置変化を出力できる。これにより、人体相関モデルは、患者の手術中に動きや姿勢の変更が発生しても、変化した脊椎の位置を予測することができる。
一実施例によれば、脊椎の位置による背表面形態値の測定は、複数繰り返して行うことができる。即ち、患者の姿勢変更を通じて脊椎の位置を異にしながら、それぞれの脊椎の位置による背表面の形態が測定できる。これにより複数の相関関係情報が取得され、人体相関モデル4010に反映される。多様な脊椎の位置における相関関係情報が取得されるほど、以降に生成される人体相関モデル4010がさらに正確に脊椎の位置による背表面の形態を推定することができる。
一実施例によれば、脊椎が特定方向に動く時の背表面の形態から時間順に複数の背表面スキャンイメージを取得し、これから取得された複数の相関関係情報を人体相関モデルに反映させることができる。これを通じて、脊椎が特定方向に動く場合に背表面形態の時系列的な変化過程が人体相関モデルに反映され得る。
一実施例によれば、相関関係情報は、偏微分方程式の解を有限要素法(Finite Element Method、FEM)によって求めることによって取得できる。具体的には、脊椎位置と背表面形態の間の関係は、脊椎位置を変数とする背表面形態値の偏微分方程式または背表面形態値を変数とする脊椎位置の偏微分方程式で示され得る。当該偏微分方程式の近似解を有限要素法によって求めることにより、上述の脊椎位置と背表面形態の間の相関関係情報が取得できる。
一実施例によれば、人体相関モデル4010は、患者の脊椎に対して測定された軟組織物性値5040を追加で反映させて生成できる。具体的には、上述の脊椎位置による背表面形態の相関関係に基づいて人体相関モデル4010を生成する過程で、患者の脊椎の軟組織物性値5040が考慮できる。ここで脊椎の軟組織とは、脊椎骨を囲んでいる筋肉系、腱、靭帯など、脊椎骨の隣接部位の軟組織を意味し得る。軟組織物性値とは、そのような軟組織の弾性度、収縮係数などの物理的特性及び/又は軟組織を構成する物質の化学的、生物学的特性などを全て意味する。軟組織物性値は、患者によって異なり得る。
まず、脊椎骨のような硬組織と前記軟組織が区分され得る。患者の脊椎が特定方向に収縮または弛緩する時、同じ方向への動きでも患者の脊椎軟組織物性値によって、脊椎硬組織が配列される位置が異なり得る。また、同じ脊椎硬組織の配列でも、患者の脊椎軟組織物性値によって、その時の背表面の形態が異なり得る。
よって、脊椎測定映像及び/又は背表面スキャンイメージを反映させて人体相関モデルを生成する時、当該患者の脊椎軟組織物性値が反映されれば、脊椎の位置による背表面の形態をさらに正確に推定する、動的モデルとしての人体相関モデルが生成され得る。例えば、脊椎の位置によって軟組織がいかなる方向にどの程度収縮するようになるか、これにより背表面はいかなる形態を現すようになるかについて、より具体的な相関関係を取得して人体相関モデルが生成され得る。
ここで脊椎軟組織の物性値5040は、軟組織の弾性関連特性及び硬直度の模様をイメージ化して測定され得る。このためにUSE(Ultrasound Elastography)方式が用いられる。
一実施例によれば、ディープラーニング(deep learning)方式を用いて、脊椎の位置による背表面形態の相関関係情報を導き出すことができる。ここでディープラーニングとは、マシンラーニングの1つの分野であって、コンピュータなどにロー(raw)データをそのまま入力すると、ディープラーニングアルゴリズムが人工神経網を基盤に当該データを理解して高い水準の抽象化された情報を抽出する方式である。このようなディープラーニング方式を基盤に、ビッグデータ形態の脊椎位置情報及びそれによる背表面形態の情報を用いて両者間の相関関係情報を導き出せる。ディープラーニングを通じて取得された相関関係情報を人体相関モデルの生成時に用いることにより、脊椎位置及び背表面形態の相関関係の精度を高めることができる。
一実施例によれば、人体相関モデルは、患者の背表面に対する3Dスキャンイメージなしに、患者の脊椎に対する映像を周波数を異にして撮影することにより生成されることができる。CTなどの映像撮影技法は、撮影時に周波数によって骨、歯などの硬組織または皮膚などの軟組織が明確に示されるように人体を撮影することができる。この時、軟組織が明確に示されるように撮影された脊椎撮影映像が上述の背表面スキャンイメージに代替することができる。硬組織が明確に示されるように撮影された脊椎撮影映像と、軟組織が明確に示されるように撮影された脊椎撮影映像を用いて背表面と脊椎に対する相関関係が取得され得、これを基盤に人体相関モデルが生成されることができる。
図4は、本発明の一実施例による患者毎の人体相関モデルの生成及び活用過程を示す図である。
上述のように人体相関モデルは、患者毎の人体相関モデルであり得る。患者毎の人体相関モデルは、手術の対象になる患者の背表面と脊椎の間の相関関係による人体相関モデルであり得る。
患者毎の人体相関モデルは、当該患者から手術前(pre−operative)に既取得した脊椎測定映像6010及び/又は背表面スキャンイメージ6020に基づいて生成され得る。ここで、手術前に既取得した当該患者の脊椎測定映像6010は第2脊椎測定映像、手術前に既取得した当該患者の背表面スキャンイメージ6020は第2背表面スキャンイメージと称される。
具体的には、図4に示された患者毎の人体相関モデルの生成及び活用過程は、手術対象の患者の手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020に基づいて両者間の相関関係情報を取得する段階(S1010)、相関関係情報に基づいて生成された患者毎の人体相関モデル4010に対象患者の手術中の背表面スキャンイメージ4020を適用する段階(S1020)及び/又は仮想の脊椎測定映像4030を生成する段階(S1030)を含むことができる
まず、手術の対象になる患者の手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020が取得され得る。ここで手術前の脊椎測定映像6010は、手術前に対象患者から既取得した脊椎測定映像であり得る。また、手術前の背表面スキャンイメージ6020は、手術前の脊椎測定映像6010が取得される時の患者の姿勢から取得された患者の背表面スキャンイメージであり得る。
手術前の脊椎測定映像6010から取得される脊椎位置情報と、手術前の背表面スキャンイメージ6020から取得される背表面形態情報の間の相関関係情報が取得され、これを基にして、手術対象の患者に対する患者毎の人体相関モデル4010が生成され得る。この患者毎の人体相関モデル4010の生成過程は、上述の人体相関モデルの生成過程によるものの、その過程で用いられる脊椎撮影映像は手術前の脊椎測定映像6010であり、背表面に関する情報は手術前の背表面スキャンイメージ6020から取得される情報であり得る。
生成された患者毎の人体相関モデル4010に、手術中に取得される背表面スキャンイメージ4020が適用され得る。手術中に取得される背表面スキャンイメージ4020は、手術テーブルに支持された対象患者の手術時の姿勢から取得される背表面スキャンイメージであり得る。この背表面スキャンイメージ4020は、対象患者の手術直前または手術途中に少なくとも1回以上対象患者の背表面から取得され得る。
ここで既取得して患者毎の人体相関モデルの生成の基礎となった手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020は、対象患者の手術時における姿勢とは異なる姿勢から取得されたものであり得る。即ち、患者が手術時に手術テーブルに支持された状態で取る姿勢は、手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020が患者から取得される時の患者の姿勢とは異なり得る。ここで、手術時に手術テーブルに支持された患者の姿勢は、上述のように第1姿勢と称される。手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020が取得される時の患者の姿勢は第2姿勢と称される。
手術中に取得される背表面スキャンイメージ4020を、対象患者の患者毎の人体相関モデル4010に適用することにより、仮想の脊椎測定映像4030が生成され得る。仮想の脊椎測定映像4030は、対象患者が手術テーブルに支持された実際の手術時の姿勢における脊椎位置を推定して示すことができる。
一実施例によれば、上述のようにイメージ整合装置のプロセッサが、メモリに格納されている患者毎の人体相関モデルを用いるのではなく、手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020に基づいて患者毎の人体相関モデルを直接生成することができる。この場合、イメージ整合装置のメモリは、手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020を格納していることができる。プロセッサは、メモリから手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020が伝達されて、患者毎の人体相関モデルを直接生成することができる。
一実施例によれば、対象患者の手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020は、オプティカルマーカーを用いて既取得したものであり得る。対象患者は、手術前の脊椎測定映像6010を撮影する時、背表面の患部の周辺にオプティカルマーカーを付着して撮影することができる。実施例によってオプティカルマーカーは、中空の四角形環状であり、各四角形の辺には光を発散するマーカーが四角形の辺に沿って並んで付着されていることができる。手術前の脊椎映像6010を撮影する時、脊椎測定映像を取得すると同時に、対象患者に付着されているオプティカルマーカーから背表面の形態を取得することができる。この後に実際の手術時に患者の手術部位にオプティカルマーカーを同一に付着して、手術時の患者の背表面形態をリアルタイムで取得しながら手術を進めることができる。オプティカルマーカーから取得される患者の背表面形態は、脊椎の位置をリアルタイムで推定する仮想の脊椎測定映像を生成するのに用いられ得る。
一実施例によれば、患者毎の人体相関モデルの生成時には、手術対象の患者から既測定された脊椎軟組織物性値がさらに活用され得る。手術対象の患者の脊椎軟組織物性値を人体相関モデルに反映させることにより、患者毎の人体相関モデルが手術対象の患者の人体特性をさらに反映させた形態で生成され得る。
図5は、本発明の一実施例によるデータベース基盤の人体相関モデルの生成及び活用過程を示す図である。
上述のように人体相関モデルは、データベース基盤の人体相関モデルであり得る。データベース基盤の人体相関モデルは、データベース7030に蓄積された少なくとも1つ以上の脊椎及び背表面に関するデータに基づいて、人体の脊椎位置と背表面の平均的な相関関係を示す人体相関モデルであり得る。
データベース基盤の人体相関モデルは、上述の患者毎の人体相関モデルをデータベース7030に格納された背表面スキャンイメージ7020及び/又は脊椎測定映像7010を用いて補正することにより生成され得る。ここで、データベースから選択されたある患者の脊椎測定映像7010は、第3脊椎測定映像、選択された患者の背表面スキャンイメージ7020は、第3背表面スキャンイメージと称される。
具体的には、図5に示された患者毎の人体相関モデルの生成及び活用過程は、患者毎の人体相関モデルを生成し、データベース7030のデータを用いて患者毎の人体相関モデルを補正(修正)してデータベース基盤の人体相関モデル4010を生成し、データベース基盤の人体相関モデル4010を通じて仮想の脊椎測定映像4030を生成する過程を含むことができる。
まず、対象患者の手術前の脊椎測定映像6010と手術前の背表面スキャンイメージ6020に基づいて患者毎の人体相関モデルが生成され得る。患者毎の人体相関モデルの生成は上述の通りであり得る。
この後、データベース7030の複数の他の患者のグループから選択された少なくとも1つの患者に対する脊椎測定映像7010及び/又は背表面スキャンイメージ7020を用いて、上述の患者毎の人体相関モデルが補正され得る。データベース7030には、複数の他の患者人体から取得された脊椎撮影映像及び/又は当該脊椎撮影映像に対応する背表面スキャンイメージが格納されていることができる。ここで脊椎撮影映像に対応する背表面スキャンイメージとは、当該脊椎撮影映像が取得される時点の患者の背表面を3Dスキャナでスキャンしたイメージを意味する。
具体的には、データベース7030から取得された脊椎測定映像7010から脊椎の位置情報が取得され、また、対応する背表面スキャンイメージ7020から背表面形態情報が取得され得る。取得された脊椎位置情報及び背表面形態情報を用いて相互間の相関関係情報が導き出され、この相関関係情報が既に生成された患者毎の人体相関モデルに反映され得る。
データベース基盤の人体相関モデルの生成のためにデータベース7030から選択される患者は、手術対象の患者ではなく他の患者であり得る。また、データベース7030から選択される患者の数は複数であり得る。選択される患者が多いほど、生成される人体相関モデルがさらに正確に脊椎位置による背表面形態を推定できる。
このような過程を通じて生成されたデータベース基盤の人体相関モデル4010に対象患者の手術中の背表面スキャンイメージ4020を適用して仮想の脊椎測定映像4030が生成され得る。
一実施例によれば、上述のようにイメージ整合装置のプロセッサが、メモリに格納されている既に生成されたデータベース基盤の人体相関モデルを用いるのではなく、直接メモリに格納されている患者毎の人体相関モデルを補正して、データベース基盤の人体相関モデル4010を生成することができる。この場合、イメージ整合装置のメモリは、患者毎の人体相関モデルを格納していることができる。
一実施例によれば、イメージ整合装置のプロセッサが直接データベース基盤の人体相関モデルを生成する場合、メモリは、上述のデータベース7030の役割をすることができる。この場合、メモリは、複数の他の患者に対する脊椎測定映像7010及び/又は背表面スキャンイメージ7020を格納できる。
一実施例によれば、イメージ整合装置のプロセッサが直接データベース基盤の人体相関モデルを生成する場合、上述のネットワークインターフェースは、データベース基盤の人体相関モデルの生成に必要なデータをサーバから受信することができる。即ち、ネットワークインターフェースは、データベース7030の役割をするサーバと通信して、脊椎測定映像7010及び/又は背表面スキャンイメージ7020を受信し、プロセッサに伝達することができる。プロセッサは、伝達されたデータを用いてデータベース基盤の人体相関モデルを生成できる。
一実施例によれば、データベース基盤の人体相関モデルは、ビッグデータ(Big data)技術を用いて生成されることができる。ここでビッグデータとは、大量の定形または非定形のデータ集合から特徴やパターンを抽出してその結果を分析する技術を意味する。ビッグデータ技術を用いて他の患者等に対する脊椎及び背表面に関する情報を取得でき、ビッグデータ形態の脊椎及び背表面情報を用いて患者毎の人体相関モデルが補正されてデータベース基盤の人体相関モデルが生成され得る。
一実施例によれば、データベース基盤の人体相関モデルは、手術対象の患者の脊椎及び背表面に関する情報を排除して生成されることができる。上述のように、データベース基盤の人体相関モデルは、患者毎の人体相関モデルを補正することにより生成できるが、実施例によって患者毎の人体相関モデルなしに、データベースで取得した複数の患者に関する情報のみを用いて生成されることができる。この場合、データベース基盤の人体相関モデルは、上述の人体相関モデルの生成過程によって、複数の患者に対する脊椎位置及び背表面情報を用いて生成され得る。
一実施例によれば、データベースから選択される患者は手術の対象になる患者が属する患者グループの患者であり得る。ここで、患者グループとは、患者等の特性に基づいて複数の患者を区分したグループを意味する。例えば、手術対象の患者が45歳の男性である場合、データベース基盤の人体相関モデルを生成するためにデータベースから選択される患者は40代の男性の患者であり得る。
一実施例によれば、データベース基盤の人体相関モデルの生成時にも、データベースから選択される患者の既測定された脊椎軟組織物性値が活用され得る。選択された患者の脊椎及び背表面に関する情報以外に、その選択された患者の脊椎の軟組織物性値がデータベース7030にあれば、その軟組織物性値も患者毎の人体相関モデルを補正する時に用いられる。
図6は、本発明の一実施例による人体相関モデルを補正する過程を示す図である。
上述のように、人体相関モデルは、手術時の対象患者の姿勢に基づいて追加で補正され得る。即ち、イメージ整合装置のプロセッサは、手術テーブルに支持された患者の手術時の姿勢から取得される追加の情報に基づいて、上述の人体相関モデルをさらに補正することができる。ここで補正の対象になる人体相関モデルは、患者毎の人体相関モデル、データベース基盤の人体相関モデルなど、本発明の全ての実施例による人体相関モデルであり得る。
補正の過程は、手術テーブルに支持された患者2020の手術時の姿勢(第1姿勢)から脊椎測定映像8010と背表面スキャンイメージ8020を取得して、これに基づいて人体相関モデルを補正するものとして進めることができる。ここで、手術テーブルに支持された患者2020の手術時の姿勢(第1姿勢)から撮影された脊椎測定映像8010は、第4脊椎測定映像と称される。手術時の姿勢から取得された患者の背表面スキャンイメージ8020は、上述した手術時の姿勢の背表面スキャンイメージ4020と同一であり得、第1背表面スキャンイメージと称される。
このような人体相関モデルの補正は、人体相関モデルに患者の手術時の姿勢における脊椎位置と背表面に関する情報を反映させるために行われ得る。上述した対象患者の患者毎の人体相関モデルの生成に基盤となった脊椎測定映像6010及び背表面スキャンイメージ6020は、患者が手術前に手術時における環境とは異なる環境で取得したものであり得る。また、このような情報を撮影する時の患者の姿勢(例えば、第2姿勢)と、手術テーブルに支持された患者2020が手術時に取る姿勢(第1姿勢)は互いに異なることがある。手術開始前に手術時の姿勢における患者に対して脊椎撮影映像8010と背表面スキャンイメージ8020を取得し、両者間の相関関係を人体相関モデルにフィードバックすることにより、人体相関モデルの精度をさらに高めることができる。
具体的には、手術テーブルに支持された手術時の姿勢(第1姿勢)における患者2020から、脊椎測定映像8010を取得できる。脊椎測定映像を取得するために、イメージ整合装置は、脊椎映像撮影部をさらに含むことができる。脊椎映像撮影部は、手術テーブルに支持された患者に対して脊椎測定映像8010を撮影できるように設けられる。脊椎映像撮影部は、手術時の姿勢における患者に対する脊椎測定映像8010を取得できる。
また、上述のように、3Dスキャナは、手術テーブルに支持された手術時の姿勢(第1姿勢)における患者の背表面を3Dスキャニングすることができ、これにより手術時の姿勢を取っている患者の背表面スキャンイメージ8020を取得できる。この背表面スキャンイメージ8020は、上述した手術時の姿勢の背表面スキャンイメージ4020と同一であり得る。
プロセッサは、手術時の姿勢における脊椎撮影映像8010と背表面スキャンイメージ8020から、それぞれ手術時の姿勢における脊椎の位置に関する情報及び背表面形態に関する情報を取得できる。プロセッサは、脊椎位置及び背表面に関する情報を用いて両者間の相関関係情報を取得できる。この後、プロセッサは、取得された相関関係情報を用いて、補正の対象になる人体相関モデルを補正することができる。
相関関係情報による人体相関モデルの補正は、手術時の姿勢における脊椎位置情報を人体相関モデルに入力して出力された背表面形態情報と、実際の背表面スキャンイメージから取得された背表面形態情報を比較することにより行われ得る。出力された背表面形態情報と実際の背表面形態情報に既定義された閾値(threshold)以上の差異がある場合、補正を行うことができる。補正は、実際の脊椎位置情報と実際の背表面形態情報の間の相関関係を導き出し、当該相関関係に加重値をおいた後、既存の人体相関モデルに加重値が付与された相関関係を付加的に反映させることにより行われ得る。
この後、プロセッサは、手術時の姿勢に対して補正された人体相関モデル4010を用いて上述の仮想の脊椎測定映像を生成できる。
一実施例によれば、プロセッサは、手術時の姿勢から取得された情報を基盤に、所定回数繰り返して人体相関モデルの補正を実施することができる。この場合、複数回の補正のために、3Dスキャナは手術時の姿勢の患者背表面を複数回3Dスキャニングすることができ、脊椎映像撮影部は、複数回繰り返して手術時の姿勢の患者の脊椎を撮影することができる。
図7は、本発明の一実施例による仮想の脊椎測定映像を患者人体に整合する過程を示す図である。
上述のように、プロセッサは、生成された仮想の脊椎測定映像4030を患者2020の人体に整合できる。仮想の脊椎測定映像4030が患者2020に整合されることにより、プロセッサは、仮想の脊椎測定映像4030が推定する脊椎の位置が実際の患者2020の人体においてどこに当該するかが分かり、これによりロボットアームなどに制御信号を送ることができる。
ここでの整合とは、仮想の脊椎測定映像4030の座標系を患者2020の人体の座標系に一致させることを意味する。整合のために、トラッキングセンサ1020によって取得された基準マーカー3010の位置と姿勢情報、スキャナマーカー3020の位置と姿勢情報、背表面スキャンイメージ4020及び/又は仮想の脊椎測定映像4030などの情報が用いられ得る。
具体的には、トラッキングセンサ1020が上述の基準マーカー3010の位置と姿勢情報B及び/又はスキャナマーカー3020の位置と姿勢情報Cを取得できる。プロセッサは、トラッキングセンサ1020から基準マーカーの位置と姿勢情報B及び/又はスキャナマーカーの位置と姿勢情報Cの伝達を受けることができる。
上述のように、基準マーカー3010は、患者人体に固定的に表示されたマーカーであって、患者座標系の基準点になるマーカーであり得る。また、スキャナマーカー3020は、3Dスキャナ1010に付着されるマーカーであって、3Dスキャナがスキャニングしているポイントを示すために用いられる。実施例によって、スキャナマーカー3020は、3Dスキャナ1010の末端に付着され得る。
ここでプロセッサは、患者人体に固定される基準マーカー3010を基準に患者座標系を定義することができる。定義された患者座標系上で、ロボットアームなどの手術装置の位置が表示され得る。実施例によって、この過程を手術装置(例えば、ロボットアーム)の座標系が患者の座標系と整合されたと表現することができる。
トラッキングセンサ1020によって取得される特定マーカーの位置情報とは、基準マーカー3010を基準に定義された患者座標系上で、その特定マーカーが有する位置座標を意味する。ここで座標系とは、実施例によってx、y、z軸で示される直交位置座標系を意味する。位置座標とは、座標系上のx、y、z位置を示す空間座標を意味する。
トラッキングセンサ1020によって取得される特定マーカーの姿勢情報とは、患者座標系上に位置したその特定マーカーが有する、ロール(roll)、ピッチ(pitch)、ヨー(yaw)として定義される姿勢を意味することができる。ロール(roll)、ピッチ(pitch)、ヨー(yaw)については上述した。
実施例によって、3Dスキャナ1010に追加マーカー3030がさらに付着されることができる。トラッキングセンサ1020は、追加マーカーの位置と姿勢情報Aを取得して、プロセッサに伝達することができる。追加マーカーの位置と姿勢情報を用いて、3Dスキャナ1010の現在のスキャニングポイントに関する正確な情報がプロセッサに伝達され得る。
プロセッサは整合過程で、背表面スキャンイメージ4020と3Dスキャナ1010のスキャニングポイント間の座標変換関係D及び/又は背表面スキャンイメージ4020と仮想の脊椎測定映像4030間の座標変換関係Eに関する情報をさらに取得できる。
ここで用いられる背表面スキャンイメージ4020は、手術テーブルに支持された患者2020の手術時の姿勢(第1姿勢)に対して取得された背表面スキャンイメージであって、上述の第1背表面スキャンイメージに該当し得る。
座標変換関係Dは、背表面スキャンイメージ4020と当該背表面スキャンイメージをスキャニングする3Dスキャナ1010のスキャニングポイント間の座標変換関係を意味する。ここで3Dスキャナ1010のスキャニングポイントは、3Dスキャナに付着されたスキャナマーカー3020の位置と姿勢で示されることができる。当該座標変換関係Dを通じて、背表面スキャンイメージ4020上の一地点が、実際の空間上で患者の背表面のどの部分をスキャニングしたかに関する関係式が分かる。この座標変換関係Dは、第1座標変換関係と称される。プロセッサは、座標変換関係Dを3Dスキャナ1010から伝達されて取得できる。
座標変換関係Eは、背表面スキャンイメージ4020と当該背表面スキャンイメージを基盤に生成された仮想の脊椎測定映像4030の間の座標変換関係を意味する。当該座標変換関係Eを通じて、背表面スキャンイメージ4020上の一地点が、仮想の脊椎測定映像4030上でどの地点に該当するかに関する関係式が分かる。この座標変換関係Eは、第2座標変換関係と称される。プロセッサは、背表面スキャンイメージ4020から仮想の脊椎測定映像4030を生成する過程で、座標変換関係Eを取得できる。
プロセッサは、取得された基準マーカーの位置と姿勢情報B、スキャナマーカーの位置と姿勢情報C、座標変換関係D及び/又は座標変換関係Eを用いて、仮想の脊椎測定映像4030から基準マーカー3010の位置と姿勢情報への座標変換関係Rを取得できる。座標変換関係Rは、仮想の脊椎測定映像4030の一地点が、実際の空間上の患者座標系上のどの地点に変換されるかに関する関係式であり得る。患者座標系の基準になる、基準マーカーの位置と姿勢情報に関する座標変換関係Rが取得されれば、仮想の脊椎測定映像4030を実際の患者2020の人体上でどの部分に整合されなければならないかが分かる。
実施例によって、マーカーの位置と姿勢情報も座標変換関係で表されることができる。上述のように、トラッキングセンサ1020は、基準マーカー3010の位置と姿勢をセンシングして基準マーカーの位置と姿勢情報Bを取得できる。この時、基準マーカーの位置と姿勢情報Bはトラッキングセンサ1020から、基準マーカーの位置と姿勢情報への座標変換関係Bと見ることもできる。同様に、スキャナマーカーの位置と姿勢情報Cはトラッキングセンサ1020から、スキャナマーカーの位置と姿勢情報への座標変換関係Cと見ることもできる。
実施例によって、座標変換関係は座標変換行列として示され得る。また、座標変換関係は、その定義によって、その逆変換関係に該当する内容として定義され得る。例えば、座標変換関係Eは、背表面スキャンイメージ4020で仮想の脊椎測定映像4030への座標変換関係であるものの、その定義によって仮想の脊椎測定映像4030で背表面スキャンイメージ4020への座標変換関係として定義することができる。
上述のように、座標変換関係Rを取得するための数式は下記の通りである。ここで、T(Transformation)は数式を作るための中間変数であり得る。
Figure 0006875559
実施例によって、それぞれの座標変換関係を逆に定義すると、座標変換関係Rを取得するための数式は下記の通りであり得る。
Figure 0006875559
プロセッサは、取得された座標変換関係Rを用いて、仮想の脊椎測定映像4030の座標系を患者2020の座標系に整合できる。医者及び/又はロボットアームなどは患者人体と整合された仮想の脊椎測定映像を基盤に、背表面による推定された脊椎位置に沿って脊椎手術を行うことができる。
仮想の脊椎測定映像4030を患者人体に整合する過程で、仮想の脊椎測定映像に対する変更が加えられ得る。例えば、患者人体との正確な整合のために仮想の脊椎測定映像はスケールアップ/ダウンされたり、空間上でx、y、z方向へのオフセットが調整され得る。
一実施例によれば、トラッキングセンサ1020は、患者に固定された基準マーカー3010の位置と姿勢情報を手術中に継続してトラッキングして、既定義された値以上に基準マーカー3010の位置または姿勢の変動が検知されれば、これをプロセッサに知らせることができる。プロセッサは、手術中の患者2020の姿勢が変動したと判断し、仮想の脊椎測定映像4030を再整合することができる。プロセッサは、上述の整合過程を再度実施して、仮想の脊椎測定映像4030の座標系を患者2020の座標系と再整合することができる。
図8は、本発明の一実施例による整合された仮想の脊椎測定映像を用いてロボットアームを制御する過程を示す図である。
実施例によって、映像整合装置は、ロボットアーム1050をさらに含むことができる。ロボットアームは、手術テーブルの側面に位置し、移動可能なロボットベースに付着された形態であり得る。または、ロボットアームは、手術テーブルに直接付着された形態であり得る。ロボットアームの末端には、脱着可能な手術道具1060がさらに付着され得る。
ロボットアーム1050には、マーカー3040が付着され得る。このマーカー3040は、ロボットアームマーカーと称される。トラッキングセンサは、ロボットアームマーカー3040の位置と姿勢情報を取得できる。これにより仮想の脊椎測定映像が整合された患者の座標系上で、ロボットアーム1050乃至手術道具1060の位置座標または姿勢情報が取得され得る。
ロボットアーム1050の末端に付着された手術道具1060にも追加でマーカー3050が付着され得る。手術道具に付着されるマーカーは、軽量または小型のマーカーであり得る。トラッキングセンサは、手術道具に付着されるマーカー3050の位置と姿勢情報を取得できる。これにより仮想の脊椎測定映像が整合された患者の座標系上で、手術道具1060の位置座標または姿勢情報が取得され得る。
プロセッサ1040はロボットアームを制御できる。プロセッサ1040、ロボットアーム1050にロボットアームを制御するための信号を送り、ロボットアームの位置、姿勢、動作などを制御できる。
プロセッサ1040は、ロボットアームを制御するにおいて、トラッキングセンサから取得されるロボットアームマーカー3040の位置と姿勢情報及び/又は仮想の脊椎測定映像を用いることができる。ここでロボットアームマーカー3040の位置情報は、仮想の脊椎測定映像の座標系と整合された患者の座標系を基準とした空間位置座標であり得る。ここで、ロボットアームマーカー3040の姿勢情報は、患者の座標系上でロボットアームマーカー3040が有する姿勢に関する情報であり得る。プロセッサ1040は、患者の座標系上に示されるロボットアーム1050の位置と姿勢情報と、仮想の脊椎測定映像に示される推定された脊椎の位置を用いて、ロボットアームが特定位置または特定姿勢で動くように制御信号を送ることができる。
プロセッサ1040は、トラッキングセンサから伝達されるマーカーの位置と姿勢情報を用いて、手術道具の姿勢も制御できる。手術道具に付着されるマーカー3050とロボットアームマーカー3040の位置と姿勢情報を同時に用いれば、現在の手術道具1060の傾いた程度など、姿勢に関する情報が取得され得る。プロセッサ1040は、手術道具の姿勢に関する情報を取得して、これに基づいてロボットアーム1050に制御信号を送り、手術道具の姿勢を制御できる。
一実施例によれば、プロセッサ1040は、ロボットアームマーカー3040及び/又は手術道具に付着されたマーカー3050の急激な位置または姿勢変化をトラッキングセンサを通じて検知すると、ロボットアーム1050に直ちに動作を止める信号を送ることができる。プロセッサ1040は、トラッキングセンサが検知する各マーカーの位置または姿勢に急激な変化があれば、患者の安全のためにロボットアーム1050を停止させる制御信号をロボットアーム1050に送ることができる。
図9は、本発明の一実施例による映像整合装置により行われ得る、映像整合方法を示す図である。
図9に示されたフローチャートでプロセスの段階、方法の段階、アルゴリズムなどが順次的な順序で説明されるが、そのようなプロセス、方法及びアルゴリズムは任意の適した順序で作動するように構成され得る。言い換えれば、本発明の多様な実施例で説明されるプロセス、方法及びアルゴリズムの段階が本発明で記述された順序で行われる必要はない。また、一部の段階が非同時的に行われるものとして説明されても、他の実施例ではこのような一部の段階が同時に行われ得る。また、図面に示されるプロセスの例示は、例示されたプロセスがそれに対する他の変化及び修正を除くことを意味せず、例示されたプロセスまたはその段階のうちのいずれかが本発明の多様な実施例のうちの1つ以上に必須であることを意味せず、例示されたプロセスが望ましいということを意味しない。
映像整合方法の一実施例は、患者の第1姿勢における第1背表面スキャンイメージを取得する段階(S9010)、基準マーカーの位置と姿勢情報及び/又はスキャナマーカーの位置と姿勢情報を取得する段階(S9020)、人体相関モデル及び/又は第1背表面スキャンイメージに基づいて、仮想の第1脊椎測定映像を生成する段階(S9030)及び/又は仮想の第1脊椎測定映像を患者に整合する段階(S9040)を含むことができる。
まず、3Dスキャナ1010は、手術テーブルに支持された患者の第1姿勢における背表面を3Dスキャンして第1背表面スキャンイメージを取得できる(S9010)。
トラッキングセンサ1020は、手術対象の患者人体に表示された基準マーカーの位置と姿勢情報及び/又は3Dスキャナに表示されたスキャナマーカーの位置と姿勢情報を取得できる(S9020)。
メモリ1030は、人体の背表面と脊椎の相関関係に関する人体相関モデルを格納できる。3Dスキャナ1010、トラッキングセンサ1020及び/又はメモリ1030と電気的に連結されているプロセッサ1040は、人体相関モデル及び/又は第1背表面スキャンイメージに基づいて、手術対象の患者の脊椎の位置を推定する仮想の第1脊椎測定映像を生成できる(S9030)。
また、プロセッサ1040は、基準マーカーの位置と姿勢情報及び/又はスキャナマーカーの位置と姿勢情報などに基づいて、仮想の第1脊椎測定映像の座標系を手術対象の患者の座標系に整合できる(S9040)。
一実施例によれば、プロセッサ1040は、第1背表面スキャンイメージから手術対象の患者の第1姿勢における背表面情報を抽出できる。また、プロセッサ1040は、人体相関モデル及び/又は背表面情報に基づいて、手術対象の患者の第1姿勢における脊椎位置情報を取得できる。また、プロセッサ1040は、取得された脊椎位置情報に基づいて、仮想の第1脊椎測定映像を生成できる。
一実施例によれば、人体相関モデルは、手術対象の患者の第2姿勢における背表面を3Dスキャンして取得された第2背表面スキャンイメージと、手術対象の患者の第2姿勢における脊椎を撮影して取得された第2脊椎測定映像の間の相関関係を用いて生成された第1相関モデルであり得る。第1相関モデルは、上述の患者毎の人体相関モデルであり得る。
一実施例によれば、人体相関モデルは、複数の他の患者のグループから選択された少なくとも1つの患者の背表面を3Dスキャンして取得された第3背表面スキャンイメージと、その選択された少なくとも1つの患者の脊椎を撮影して取得された第3脊椎測定映像の間の相関関係を用いて、第1相関モデルを補正することにより生成された第2相関モデルであり得る。第2相関モデルは、上述のデータベース基盤の人体相関モデルであり得る。
一実施例によれば、映像整合装置の脊椎映像撮影部は、手術対象の患者の第1姿勢における脊椎を撮影して第4脊椎測定映像を取得できる。プロセッサ1040は、第4脊椎測定映像と第1背表面スキャンイメージの間の相関関係を用いて人体相関モデルを補正できる。この補正は、上述の人体相関モデルの手術時の姿勢に対する補正であり得る。プロセッサ1040は、補正された人体相関モデルを用いて仮想の第1脊椎測定映像を生成できる。
一実施例によれば、プロセッサ1040は、第4脊椎測定映像に基づいた人体相関モデルの補正を所定回数繰り返して実施できる。
一実施例によれば、トラッキングセンサ1020がロボットアームに表示されたロボットアームマーカーの位置と姿勢情報を取得できる。ここで映像整合装置は、末端に手術道具が付着されたロボットアームをさらに含むことができる。この時、プロセッサ1040は、仮想の第1脊椎測定映像の座標系と整合された患者の座標系上に示されるロボットアームマーカーの位置と姿勢に基づいて、ロボットアームを制御できる。
一実施例によれば、プロセッサ1040は、基準マーカーの位置と姿勢情報、スキャナマーカーの位置と姿勢情報、スキャナマーカーの位置と姿勢情報及び第1背表面スキャンイメージの間の第1座標変換関係、及び/又は第1背表面スキャンイメージと仮想の第1脊椎測定映像の間の第2座標変換関係に基づいて、仮想の第1脊椎測定映像及び基準マーカーの位置と姿勢情報の間の第3座標変換関係を取得できる。また、プロセッサ1040は、第3座標変換関係に基づいて、仮想の第1脊椎測定映像の座標系を患者の座標系に整合できる。
一実施例によれば、第2脊椎測定映像、第3脊椎測定映像及び/又は第4脊椎測定映像は、上述のCTA映像、MRI映像またはCT映像のうちの1つであり得る。
上記方法は特定実施例を通じて説明されたが、上記方法は、また、コンピュータ読み取り可能な記録媒体にコンピュータ読み取り可能なコードとして具現することが可能である。コンピュータ読み取り可能な記録媒体は、コンピュータシステムにより読み取られるデータが格納される全ての種類の記録装置を含む。コンピュータ読み取り可能な記録媒体の例としてはROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ格納装置などを含むことができる。また、コンピュータ読み取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散して、分散方式でコンピュータ読み取り可能なコードが格納されて実行され得る。また、上記実施例を具現するための機能的な(functional)プログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマにより容易に推論され得る。
本明細書では、本発明を一部実施例及び図面に示された例と関連して説明したが、本発明の属する技術分野の当業者が理解できる本発明の思想及び範囲を外れない範囲で多様な置換、変形及び変更がなされるという点を理解すべきである。また、そのような 置換、変形及び変更は、本明細書に添付の特許請求の範囲内に属すると考えられなければならない。

Claims (20)

  1. 手術テーブルに支持された患者の第1姿勢における背表面を3Dスキャンして第1背表面スキャンイメージを取得する3Dスキャナと、
    患者人体に表示された基準マーカーの位置と姿勢情報及び前記3Dスキャナに表示されたスキャナマーカーの位置と姿勢情報を取得するトラッキングセンサと、
    前記患者の背表面と脊椎の相関関係に対する人体相関モデルを格納するメモリと、
    前記3Dスキャナ、前記トラッキングセンサ及び前記メモリと電気的に連結されるプロセッサとを含み、
    前記プロセッサは、前記人体相関モデル及び前記第1背表面スキャンイメージに基づいて、前記手術テーブルに支持された前記患者の脊椎の位置を推定する仮想の第1脊椎測定映像を生成し、前記基準マーカーの位置と姿勢情報及び前記スキャナマーカーの位置と姿勢情報に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する、映像整合装置。
  2. 前記プロセッサは、前記第1背表面スキャンイメージから前記患者の前記第1姿勢における背表面情報を抽出し、前記人体相関モデル及び前記背表面情報に基づいて、前記患者の前記第1姿勢における脊椎位置情報を取得し、前記脊椎位置情報に基づいて、前記仮想の第1脊椎測定映像を生成する、請求項1に記載の映像整合装置。
  3. 前記人体相関モデルは、前記患者の第2姿勢における背表面を3Dスキャンして取得された第2背表面スキャンイメージと前記患者の前記第2姿勢における脊椎を撮影して取得された第2脊椎測定映像の間の相関関係を用いて生成された第1相関モデルである、請求項1に記載の映像整合装置。
  4. 前記人体相関モデルは、複数の他の患者のグループから選択された少なくとも1つの患者の背表面を3Dスキャンして取得された第3背表面スキャンイメージと前記少なくとも1つの患者の脊椎を撮影して取得された第3脊椎測定映像の間の相関関係を用いて、前記第1相関モデルを補正することにより生成された第2相関モデルである、請求項3に記載の映像整合装置。
  5. 前記患者の前記第1姿勢における脊椎を撮影して第4脊椎測定映像を取得する脊椎映像撮影部をさらに含み、前記プロセッサは、前記第4脊椎測定映像と前記第1背表面スキャンイメージの間の相関関係を用いて前記人体相関モデルを補正し、前記補正された人体相関モデルを用いて前記仮想の第1脊椎測定映像を生成する、請求項4に記載の映像整合装置。
  6. 前記プロセッサは、前記第4脊椎測定映像に基づいた前記人体相関モデルの補正を所定回数繰り返して実施する、請求項5に記載の映像整合装置。
  7. 末端に手術道具が付着されたロボットアームをさらに含み、前記トラッキングセンサは、前記ロボットアームに表示されたロボットアームマーカーの位置と姿勢情報を取得し、前記プロセッサは、前記仮想の第1脊椎測定映像の座標系と整合された前記患者の座標系上に示される前記ロボットアームマーカーの位置と姿勢情報に基づいて、前記ロボットアームを制御する、請求項1に記載の映像整合装置。
  8. 前記プロセッサは、前記基準マーカーの位置と姿勢情報、前記スキャナマーカーの位置と姿勢情報、前記スキャナマーカーの位置と姿勢情報及び前記第1背表面スキャンイメージの間の第1座標変換関係、及び前記第1背表面スキャンイメージ及び前記仮想の第1脊椎測定映像の間の第2座標変換関係に基づいて、前記仮想の第1脊椎測定映像及び前記基準マーカーの位置と姿勢情報の間の第3座標変換関係を取得し、前記第3座標変換関係に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する、請求項1に記載の映像整合装置。
  9. 前記第2脊椎測定映像、前記第3脊椎測定映像及び前記第4脊椎測定映像は、CTA(Computed Tomography Angiography)映像、MRI(Magnetic Resonance Imaging)映像またはCT(Computed Tomography)映像のうちの1つである、請求項5に記載の映像整合装置。
  10. 3Dスキャナが手術テーブルに支持された患者の第1姿勢における背表面を3Dスキャンして第1背表面スキャンイメージを取得する段階と、
    トラッキングセンサが、患者人体に表示された基準マーカーの位置と姿勢情報及び前記3Dスキャナに表示されたスキャナマーカーの位置と姿勢情報を取得する段階と、
    プロセッサが、前記患者の背表面と脊椎の相関関係に対する人体相関モデル及び前記第1背表面スキャンイメージに基づいて、前記手術テーブルに支持された前記患者の脊椎の位置を推定する仮想の第1脊椎測定映像を生成する段階と、
    前記プロセッサが、前記基準マーカーの位置と姿勢情報及び前記スキャナマーカーの位置と姿勢情報に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する段階とを含む、映像整合方法。
  11. 前記仮想の第1脊椎測定映像を生成する段階は、
    前記プロセッサが、前記第1背表面スキャンイメージから前記患者の前記第1姿勢における背表面情報を抽出する段階と、
    前記プロセッサが、前記人体相関モデル及び前記背表面情報に基づいて、前記患者の前記第1姿勢における脊椎位置情報を取得する段階と、
    前記プロセッサが、前記脊椎位置情報に基づいて、前記仮想の第1脊椎測定映像を生成する段階とを含む、請求項10に記載の映像整合方法。
  12. 前記人体相関モデルは、前記患者の第2姿勢における背表面を3Dスキャンして取得された第2背表面スキャンイメージと前記患者の前記第2姿勢における脊椎を撮影して取得された第2脊椎測定映像の間の相関関係を用いて生成された第1相関モデルである、請求項10に記載の映像整合方法。
  13. 前記人体相関モデルは、複数の他の患者のグループから選択された少なくとも1つの患者の背表面を3Dスキャンして取得された第3背表面スキャンイメージと前記少なくとも1つの患者の脊椎を撮影して取得された第3脊椎測定映像の間の相関関係を用いて前記第1相関モデルを補正することにより生成された第2相関モデルである、請求項12に記載の映像整合方法。
  14. 脊椎映像撮影部が、前記患者の前記第1姿勢における脊椎を撮影して第4脊椎測定映像を取得する段階と、
    前記プロセッサが、前記第4脊椎測定映像と前記第1背表面スキャンイメージの間の相関関係を用いて前記人体相関モデルを補正する段階とをさらに含み、
    前記仮想の第1脊椎測定映像を生成する段階は、前記プロセッサが、前記補正された人体相関モデルを用いて前記仮想の第1脊椎測定映像を生成する段階を含む、請求項13に記載の映像整合方法。
  15. 前記人体相関モデルを補正する段階は、所定回数繰り返して実施される、請求項14に記載の映像整合方法。
  16. 前記トラッキングセンサが、末端に手術道具が付着されたロボットアームに表示されたロボットアームマーカーの位置と姿勢情報を取得する段階と、
    前記プロセッサが、前記仮想の第1脊椎測定映像の座標系と整合された前記患者の座標系上に示される前記ロボットアームマーカーの位置と姿勢情報に基づいて、前記ロボットアームを制御する段階とをさらに含む、請求項10に記載の映像整合方法。
  17. 前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する段階は、
    前記プロセッサが、前記基準マーカーの位置と姿勢情報、前記スキャナマーカーの位置と姿勢情報、前記スキャナマーカーの位置と姿勢情報及び前記第1背表面スキャンイメージの間の第1座標変換関係、及び前記第1背表面スキャンイメージ及び前記仮想の第1脊椎測定映像の間の第2座標変換関係に基づいて、前記仮想の第1脊椎測定映像及び前記基準マーカーの位置と姿勢情報の間の第3座標変換関係を取得する段階と、
    前記プロセッサが、前記第3座標変換関係に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する段階とを含む、請求項10に記載の映像整合方法。
  18. 前記第2脊椎測定映像、前記第3脊椎測定映像及び前記第4脊椎測定映像は、CTA(Computed TomographyAngiography)映像、MRI(Magnetic Resonance Imaging)映像またはCT(Computed Tomography)映像のうちの1つである、請求項14に記載の映像整合方法。
  19. コンピュータ上で行われるためのプログラムを記録した非一時的なコンピュータ読み取り可能な記録媒体において、前記プログラムは、プロセッサによる実行時に、前記プロセッサが、3Dスキャナによって手術テーブルに支持された患者の第1姿勢における背表面を3Dスキャンして取得された第1背表面スキャンイメージを取得する段階と、患者人体に表示された基準マーカーの位置と姿勢情報及び前記3Dスキャナに表示されたスキャナマーカーの位置と姿勢情報を取得する段階と、前記患者の背表面と脊椎の相関関係に対する人体相関モデル及び前記第1背表面スキャンイメージに基づいて、前記手術テーブルに支持された前記患者の脊椎の位置を推定する仮想の第1脊椎測定映像を生成する段階と、前記基準マーカーの位置と姿勢情報及び前記スキャナマーカーの位置と姿勢情報に基づいて、前記仮想の第1脊椎測定映像の座標系を前記患者の座標系に整合する段階とを行うようにする実行可能な命令を含む、コンピュータ読み取り可能な記録媒体。
  20. 前記人体相関モデルは、前記患者の第2姿勢における背表面を3Dスキャンして取得された第2背表面スキャンイメージと前記患者の前記第2姿勢における脊椎を撮影して取得された第2脊椎測定映像間の相関関係を用いて生成された第1相関モデルである、請求項19に記載のコンピュータ読み取り可能な記録媒体。
JP2019566557A 2017-02-21 2018-02-21 映像整合装置及び映像整合方法 Active JP6875559B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762461507P 2017-02-21 2017-02-21
US62/461,507 2017-02-21
PCT/KR2018/002111 WO2018155894A1 (ko) 2017-02-21 2018-02-21 영상 정합 장치 및 영상 정합 방법

Publications (2)

Publication Number Publication Date
JP2020508200A JP2020508200A (ja) 2020-03-19
JP6875559B2 true JP6875559B2 (ja) 2021-05-26

Family

ID=63252797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019566557A Active JP6875559B2 (ja) 2017-02-21 2018-02-21 映像整合装置及び映像整合方法

Country Status (6)

Country Link
US (1) US11141225B2 (ja)
EP (1) EP3586787B1 (ja)
JP (1) JP6875559B2 (ja)
KR (1) KR102309823B1 (ja)
CN (1) CN110325141B (ja)
WO (1) WO2018155894A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11576645B2 (en) 2015-03-02 2023-02-14 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for scanning a patient in an imaging system
CN104644205A (zh) * 2015-03-02 2015-05-27 上海联影医疗科技有限公司 用于影像诊断的患者定位方法及系统
US11576578B2 (en) 2015-03-02 2023-02-14 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for scanning a patient in an imaging system
CN109692050B (zh) 2018-12-26 2020-05-22 雅客智慧(北京)科技有限公司 一种牙科种植导航手术的标定、追踪方法和装置
KR102509659B1 (ko) * 2019-01-10 2023-03-15 한국전자통신연구원 딥러닝을 이용한 3차원 전신 골격 모델 생성 장치 및 방법
JP7383027B2 (ja) * 2019-01-14 2023-11-17 ニューヴェイジヴ,インコーポレイテッド 全身筋骨格モデル及び姿勢最適化に基づく術後の全体的な矢状面アライメントの予測
US12279781B2 (en) 2019-10-30 2025-04-22 Tsinghua University 2D-image guided robotic distal locking system
CN110974372A (zh) * 2020-01-03 2020-04-10 上海睿触科技有限公司 一种手术过程中病人运动位置实时跟踪装置
KR102301863B1 (ko) * 2020-02-12 2021-09-16 큐렉소 주식회사 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
JP7439603B2 (ja) * 2020-03-23 2024-02-28 Toppanホールディングス株式会社 可視化装置、可視化方法、およびプログラム
EP4167892A4 (en) 2020-06-19 2024-10-30 Remedy Robotics, Inc. SYSTEMS AND METHODS FOR GUIDING INTRALUMINAL DEVICES IN THE VASCULAR SYSTEM
CN112006777B (zh) * 2020-07-31 2022-03-29 清华大学 基于表面跟踪的打钉手术机器人系统及控制方法
CN113017852B (zh) * 2021-03-03 2022-11-15 上海联影医疗科技股份有限公司 医学成像扫描过程的交互体验方法、设备和电子装置
US11707332B2 (en) 2021-07-01 2023-07-25 Remedy Robotics, Inc. Image space control for endovascular tools
US12121307B2 (en) 2021-07-01 2024-10-22 Remedy Robotics, Inc. Vision-based position and orientation determination for endovascular tools
EP4364163A1 (en) 2021-07-01 2024-05-08 Remedy Robotics, Inc. Vision-based position and orientation determination for endovascular tools
KR102566240B1 (ko) * 2021-07-21 2023-08-14 주식회사 화승알앤에이 3차원 이미지 측정 시스템 및 방법
US12133690B2 (en) 2021-10-08 2024-11-05 Medtronic Navigation, Inc. Systems and methods for matching images of the spine in a variety of postures
CN114041961A (zh) * 2021-11-05 2022-02-15 上海指景堂中医诊所有限公司 一种全自动整骨装置
WO2023122042A1 (en) * 2021-12-20 2023-06-29 Proprio, Inc. Methods and systems for registering initial image data to intraoperative image data of a scene
DE102022100923A1 (de) * 2022-01-17 2023-07-20 B. Braun New Ventures GmbH Navigationssystem mit 3D-Oberflächenscanner und Navigationsverfahren
CN115439453B (zh) * 2022-09-13 2023-05-26 北京医准智能科技有限公司 一种脊椎椎体定位方法、装置、电子设备及存储介质
CN115868999A (zh) * 2023-02-01 2023-03-31 苏州一目万相科技有限公司 射线成像系统的定位方法、定位装置和可读存储介质
CN116896608B (zh) * 2023-09-11 2023-12-12 山东省地震局 一种虚拟地震场景演播系统
WO2025126201A1 (en) * 2023-12-12 2025-06-19 Ben Muvhar Kahana Shmuel Systems and methods for surgical instruments navigation using markers

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1214688B1 (en) * 2000-01-14 2005-08-31 Koninklijke Philips Electronics N.V. Processing method and system for 3-d geometric modeling of the spine
US6856826B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US7209776B2 (en) 2002-12-03 2007-04-24 Aesculap Ag & Co. Kg Method of determining the position of the articular point of a joint
US20070167741A1 (en) * 2005-12-30 2007-07-19 Sherman Jason T Apparatus and method for registering a bone of a patient with a computer assisted orthopaedic surgery system
US7894649B2 (en) 2006-11-02 2011-02-22 Accuray Incorporated Target tracking using direct target registration
CN101862220A (zh) * 2009-04-15 2010-10-20 中国医学科学院北京协和医院 基于结构光图像的椎弓根内固定导航手术系统和方法
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US9524552B2 (en) 2011-08-03 2016-12-20 The Regents Of The University Of California 2D/3D registration of a digital mouse atlas with X-ray projection images and optical camera photos
CN102429726A (zh) * 2011-08-03 2012-05-02 哈尔滨工业大学 基于图像导航的并联机器人辅助人工颈椎间盘置换手术定位方法
KR101403968B1 (ko) * 2012-03-13 2014-06-10 박효영 의료수술 시뮬레이션 장치 및 그 방법
CN202751447U (zh) * 2012-07-20 2013-02-27 北京先临华宁医疗科技有限公司 一种基于结构光扫描的椎弓根内固定手术导航系统
CN103040525B (zh) * 2012-12-27 2016-08-03 深圳先进技术研究院 一种多模医学影像手术导航方法及系统
JP6633353B2 (ja) * 2014-11-06 2020-01-22 国立大学法人北海道大学 脊柱変形矯正固定術支援装置、脊柱変形矯正固定術支援方法、プログラム、及び脊柱変形矯正固定術に使用するロッド製造方法
JP6063599B1 (ja) 2016-08-01 2017-01-18 俊輔 林 インプラント手術補助システムおよびインプラント手術補助方法

Also Published As

Publication number Publication date
CN110325141B (zh) 2022-05-06
US20200015911A1 (en) 2020-01-16
EP3586787A4 (en) 2020-03-11
US11141225B2 (en) 2021-10-12
EP3586787B1 (en) 2021-09-15
KR20190105092A (ko) 2019-09-11
WO2018155894A1 (ko) 2018-08-30
JP2020508200A (ja) 2020-03-19
EP3586787A1 (en) 2020-01-01
CN110325141A (zh) 2019-10-11
KR102309823B1 (ko) 2021-10-08

Similar Documents

Publication Publication Date Title
JP6875559B2 (ja) 映像整合装置及び映像整合方法
US20080300478A1 (en) System and method for displaying real-time state of imaged anatomy during a surgical procedure
EP2017785A1 (en) Imaging method for motion analysis
CN103829949A (zh) 体内探头跟踪系统中的患者运动补偿
US11246569B2 (en) Apparatus and method for automatic ultrasound segmentation for visualization and measurement
US12178652B2 (en) Apparatus and method for automatic ultrasound segmentation for visualization and measurement
JP2006102353A (ja) 関節動作解析装置、関節動作解析方法及び関節動作解析プログラム
US20230263498A1 (en) System and methods for calibration of x-ray images
KR20160057024A (ko) 마커리스 3차원 객체추적 장치 및 그 방법
AU2023413101A1 (en) Systems and methods for a spinal anatomy registration framework
US12347100B2 (en) Systems and methods for generating virtual images
EP4026511B1 (en) Systems and methods for single image registration update
CN118613223A (zh) 用于跟踪解剖元素的移动的系统和方法
US8744150B2 (en) Method for determining a layer orientation for a 2D layer image
WO2022013861A1 (en) System and method for image generation and registration based on calculated robotic arm positions
Niu Ultrasound based skeletal motion capture: the development and validation of a non-invasive knee joint motion tracking method
US20240382271A1 (en) Systems and methods for correlating one or more motions of an anatomical element
US20250191203A1 (en) Method for modelling a joint
CN118613830A (zh) 用于重建三维表示的系统、方法和装置
JP2025508764A (ja) 患者の特定の身体部位に対する器具の位置決めを支援するための方法、コンピューティングデバイス、システム、およびコンピュータプログラム製品
JP2023518089A (ja) 患者固有の骨用ジグを用いた患者の骨のレジストレーションおよび/またはトラッキング
WO2024236414A1 (en) Systems and methods for correlating one or more motions of an anatomical element
CN118633104A (zh) 用于跟踪一个或多个对象的系统、方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210422

R150 Certificate of patent or registration of utility model

Ref document number: 6875559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE

Ref document number: 6875559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载