CN112168357B - C臂机空间定位模型构建系统及方法 - Google Patents
C臂机空间定位模型构建系统及方法 Download PDFInfo
- Publication number
- CN112168357B CN112168357B CN202011369420.9A CN202011369420A CN112168357B CN 112168357 B CN112168357 B CN 112168357B CN 202011369420 A CN202011369420 A CN 202011369420A CN 112168357 B CN112168357 B CN 112168357B
- Authority
- CN
- China
- Prior art keywords
- arm machine
- registration surface
- points
- image
- register
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种C臂机空间定位模型构建系统及方法,包括:C臂机,用于采集正侧位透视图像;注册器,安装在C臂机成像路径上,其上设有示踪器,包括至少两个注册面,每个注册面设有若干标记点;光学跟踪器,用于识别所述示踪器得到其位置信息;上位机,与C臂机及光学跟踪器通信连接,并据此计算得到C臂机发射管中心坐标,并以其为光心、注册器的任一注册面作为虚拟成像平面构建C臂机空间定位模型。本发明解决了基于透视图像信息的空间导航定位核心问题,具有操作简单,辐射量少,精度高等优点,在图像导航定位领域具有重要的应用价值。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种C臂机空间定位模型构建系统及方法。
背景技术
手术机器人是当前医疗行业信息化、程控化、智能化的一个重要发展方向,其中外科手术机器人在辅助外科手术领域具有重要的应用前景,而图像导航定位问题是外科机器人进行辅助外科手术的关键,定位精度很大程度上决定了手术的成功率。C型臂X光机被广泛用于介入放射科及骨科手术中的影像成像中,因此,基于C型臂X光机图像的定位导航系统及算法模型已成为各大医疗机器人公司及相关医疗器械设备公司的重要研究技术领域。目前,市场上已经有很多公司推出了带三维影像重建的C型臂X光机,在医疗机器人的空间导航系统模型构建过程中具有重要的意义,但具有高精度三维影像重建的C型臂X光机价格昂贵,很难广泛推广,且在手术过程中需要对病人进行一定时间连续X射线透视成像,增加了病人及医生射线辐射风险。
发明内容
发明目的:本发明针对上述不足,提出了一种基于单应变换的C臂机高精度定位模型构建系统及方法,不需要进行大量的X射线透视拍照,操作简易,辐射量小,空间定位精度高,该方法具有极高的应用价值。
技术方案:
一种C臂机空间定位模型构建系统,包括:
C臂机,用于采集正侧位透视图像;
注册器,安装在C臂机成像路径上,其上设有示踪器,包括至少两个注册面,每个注册面设有若干标记点;
光学跟踪器,用于识别所述示踪器得到其位置信息;
上位机,与C臂机及光学跟踪器通信连接,并据此计算得到C臂机发射管中心坐标,并以其为光心、注册器的任一注册面作为虚拟成像平面构建C臂机空间定位模型。
所述注册器的任一注册面均采用透X光的有机玻璃材料制作而成。
所述注册器的任一注册面上均匀分布有8个标记点。
所述标记点采用直径4mm的钢珠。
一种C臂机空间定位模型构建方法,包括步骤:
(1)通过C臂机采集模体正侧位透视图像并识别提取得到标记点坐标;
(2)根据步骤(1)和各注册面内标记点的坐标分别计算得到各注册面与正侧位透视图像之间的映射关系;
(3)根据步骤(2)计算得到C臂机发射管中心坐标,并以其作为光心,以注册器的任一注册面作为虚拟成像平面,构建正侧位投影模型,得到C臂机空间定位模型。
所述步骤(3)具体包括:
(31)在正侧位透视图像上设置若干矩阵点,并分别将其映射至各注册面,根据所有矩阵点在各注册面的映射点连线计算得到光心;
(32)通过光学跟踪器获取得到注册器位姿,结合注册器参数模型计算得到虚拟成像平面位姿;
(33)将正侧位透视图像映射到虚拟生成平面上,对感兴趣区域重新采样生成所需图像,计算得到其分辨率及像元尺寸信息。
所述步骤(31)中采用最小二乘解法得到光心坐标,公式如下:
所述步骤(1)中,根据注册器上标记点分布的几何特征,结合图像分割轮廓提取算法分别识别定位出所述正侧位透视图像上各个注册面的标记点。
有益效果:本发明建立了成像平面上的正/侧位图像坐标系统与光学跟踪器坐标系之间的映射关系,从而解决了基于透视图像信息的空间导航定位核心问题,且此方法只需要在C臂机上装上至少有两个注册面的注册器,并进行两个姿态的透视拍照即可完成空间定位模型的建立,具有操作简单,辐射量少,精度高等优点,在基于C臂机透视图像导航定位领域具有重要的应用价值。
此外,在C臂机进行移动或旋转时,其真实成像平面会由于C臂机自身弹性变换而造成偏移,本发明以注册器的某一平面作为虚拟成像平面,该成像平面是固定不变的,不会因为物理原因而产生偏移,精度更高。
附图说明
图1为本发明的双平面注册器的结构示意图。
图2为本发明的双平面注册器的仰视图。
图3为本发明的系统架构图。
图4为本发明的C臂机空间定位模型构建方法流程图。
图5为C臂机透视图。
图6为C臂机透视成像示意图。
图7为透视图像示意图。
图8为构建的正位投影模型示意图。
图9为构建的空间定位模型示意图。
其中,1为PC机,2为光学跟踪器,3为C臂机,31为C臂机发射管中心,34为映射到注册面1的透视图像,35为原始透视图像,4为双平面注册器,41为标记点,42为反光球,5为模体。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明。
本发明提供了一种C臂机空间定位模型构建系统及方法,C臂机空间定位模型构建系统如图3所示,包括PC机1、光学跟踪器2、C臂机3、双平面注册器4及模体5,光学跟踪器2、C臂机3与PC机通信连接。光学跟踪器2为NDI Polaris Series光学定位跟踪器,它可精确跟踪空间中与其配套使用的标记反光球的位置信息。双平面注册器4为两层注册面固定连接的结构,固定在C臂机3的影增增强器端,如图1所示,双平面注册器4的每个注册面均由X光透视性较好的有机玻璃材料制作而成,并设置有标记点41,如图2所示,标记点41为在两个注册面均均匀分布的8个直径4mm的钢珠。在每个注册面的侧面上均设置有至少三个与光学跟踪器2配套使用的标记反光球42。
利用C臂机3对模体5进行正侧位透视,并将其得到的正侧位透视图像传输至PC机1;光学跟踪器2放置在能够识别到双平面注册器4上所有标记反光球42的位置,并将空间中的标记反光球42的位置信息反馈至PC机1;
PC机1接收到信息后进行C臂机空间定位模型构建,PC机1的处理过程包括:
步骤1:PC机1分别对正侧位透视图像进行高精度识别提取,得到双平面注册器内的标记点在正位透视图像坐标系下的坐标,并通过注册面上钢珠设计时分布的几何特征识别得到各注册面的标记点在正位透视图像坐标系下的坐标;由各注册面其自身二维平面坐标系内钢珠的坐标计算得到两个平面坐标系分别与其对应的正位透视图像坐标系的映射关系;
步骤2:PC机1分别在正侧位透视图上标记若干均匀分布规则的矩阵点,并分别通过前述的两个平面坐标系分别与其对应的正位透视图像坐标系的映射关系将矩阵点映射到两个注册面上,由此可以得到某一矩阵点在两注册面上的映射点之间的连线,通过所有矩阵点对应的连线计算得到光心,即为投影模型光心;然后根据每一注册面上标记反光球在光学跟踪器下的坐标,计算得到每一注册面在光学跟踪器坐标系下的位姿,确定其中一注册面作为构建的投影模型成像平面,从而最终得到空间定位模型。
本发明还提供了一种C臂机空间定位模型构建方法,主要流程图见图4所示,本发明将光学跟踪器坐标系直接作为C臂机空间定位模型坐标系,包括步骤:
(1)正位透视图像采集:将模体5放置于C臂机3采集区域内,调整C臂机3姿态至垂直位置,进行模体5的正位透视成像,如图5所示,并将C臂机透视图像传输至PC机1;
(2)PC机1对步骤(1)得到的正位透视图像上的标记点进行高精度识别提取,分别获取识别出的标记点在正位透视图像坐标系下的坐标;这里的图像高精度识别提取应用一些通用的阈值分割等常用图像分割算法即可完成;
(3)在每个注册面上建立二维平面坐标系,则每个注册面上的钢珠在其相应的平面坐标系下的坐标为已知,单位为mm;设双平面注册器4上靠近影增增强器的平面为注册面1,远离影增增强器的平面为注册面2,则可以分别得到注册面1和注册面2其内所有钢珠在其各自的平面坐标系下的坐标和,其中,表示注册面1内所有钢珠在平面1坐标系下的坐标,;表示注册面2内所有钢珠在平面2坐标系下的坐标,;
根据注册面上钢珠设计时分布的几何特征,结合通用的图像分割轮廓提取算法(如二值化、canny边缘检测算法等),分别识别定位出图像上的注册面1标记点和注册面2上的标记点,并据此分别计算得到两个平面坐标系分别与其对应的正位透视图像坐标系的映射关系和,此映射关系可由一个的单应矩阵表示;
(4)构建正位投影模型,将C臂机透视成像的过程表达为图6所示,图6中31为C臂机发射管中心,5为模体,4为双平面注册器,34为C臂机透视图像由单应映射关系映射到双平面注册器4的注册面1上的透视图像,35为C臂机原始透视图像(即模体5在C臂机3的成像平面上的成像);因为C臂机实际成像平面(这里即为图6中35所在平面)的精确求解比较困难且较繁琐,故这里将C臂机发射管中心31作为光心,将注册面1(这里即为图6中34所在平面)作为虚拟成像平面,构建以光心和虚拟成像平面构成的投影模型,通过光学跟踪器2获取注册面1在光学跟踪器坐标系下的位姿,故虚拟成像平面与光心在光学跟踪器坐标系下的位姿均可被求解;由此确定正位投影模型待求解参数,包括正位投影模型光心(X射线管中心)、成像平面位姿信息及像元尺寸信息;
根据步骤(3)求得的正位透视图像与注册面1、注册面2的单应变换分别为、,在正位透视图像中设置均匀分布规则的矩阵点,如图7所示,这里取25个点,;则每个点可由单应映射到注册面1和注册面2上,即、;以、两点构建直线,则可得25条直线,根据透视投影定律,此25条直线应汇聚于一点,此点即为光心;
本发明中,由于影像误差等原因,25条直线在空间中有可能不会汇聚,那么需要求取近似点作为光心的位置,在此采用最小二乘解法求解光心,光心到空间中直线的距离为,,其中为点到直线的垂点,则有,求得的最小二乘解即为光心坐标;
(42)计算成像平面位姿,成像平面规定为一空间中一矩形平面,其位姿信息有矩形角点坐标及矩形边方向,方向用空间向量表示;通过光学跟踪器2获取虚拟成像平面(即注册面1)在光学跟踪器坐标系下的位姿,即可根据三坐标量测时的机构参数(表达标记反光球坐标系与虚拟成像平面上钢珠的位姿关系),得到虚拟成像平面上的图像坐标系x、y轴在光学跟踪器坐标系下的位姿,即可得到虚拟成像平面的方向向量、;并据此计算得到X射线管中心点在虚拟成像平面上的垂点即为此投影模型的图像光心点,如图8所示;
(43)根据计算出的虚拟成像平面与实际成像平面的单应矩阵(即注册面1与正位透视图像的单应矩阵),将C臂机的正位透视图像映射到构建的投影模型成像平面(即虚拟成像平面)上,生成构建的虚拟成像平面上的透视图像,即正位投影模型的成像平面上透视图像;
(44)确定正位投影模型的成像平面上透视图像的分辨率及像元尺寸信息;
图像映射到虚拟成像平面上后,即,即表示映射到虚拟成像平面上的图像,表示C臂机的正位透视图像,图像的长宽单位为mm,此时我们可以将感兴趣的区域图像(即椎骨图像)再重新采样生成所需要的图像,根据所需要生成图像的分辨率大小,我们即可得到与此分辨率图像相对应的像元尺寸大小,x方向上的像元尺寸,y方向上的像元尺寸,其中,表示此分辨率图像的宽度,表示此分辨率图像在x方向上的像素,表示此分辨率图像的高度,表示此分辨率图像在y方向上的像素;
(5)同理,对于侧位同样构建侧位投影模型,按同样的方法分析出侧位投影模型的所有内外参数;
(6)至此,通过C臂机正、侧位的两次透视拍照,我们构建了正、侧位的投影模型,并计算出正、侧位投影模型的内外参数,即完成了基于正、侧位投影模型的双目空间定位模型的构建(如图9),解决了基于C臂机透视图像信息的空间导航定位核心问题。
基于以上步骤构建的基于正/侧位投影模型的双目空间定位模型可建立成像平面上的正/侧位图像坐标系统与光学跟踪器坐标系之间的映射关系,从而解决了基于透视图像信息的空间导航定位核心问题,且此方法只需要在C臂机上装上双平面注册器,并进行两个姿态的透视拍照即可完成空间定位模型的建立,具有操作简单,辐射量少,精度高等优点,在基于C臂机透视图像导航定位领域具有重要的应用价值。
以上详细描述了本发明的优选实施方式,但是本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换(如数量、形状、位置等),这些等同变换均属于本发明的保护范围。
Claims (8)
1.一种C臂机空间定位模型构建系统,其特征在于:包括:
C臂机,用于采集正侧位透视图像;
注册器,安装在C臂机成像路径上,其上设有示踪器,包括至少两个平面,每个平面设有若干标记点;
光学跟踪器,用于识别所述示踪器得到其位置信息;
上位机,与C臂机及光学跟踪器通信连接,并据此计算得到C臂机发射管中心坐标,并以其为光心、注册器的任一平面作为虚拟成像平面构建C臂机空间定位模型。
2.根据权利要求1所述的C臂机空间定位模型构建系统,其特征在于:所述注册器的任一注册面均采用透X光的有机玻璃材料制作而成。
3.根据权利要求1所述的C臂机空间定位模型构建系统,其特征在于:所述注册器的任一注册面上均匀分布有8个标记点。
4.根据权利要求1所述的C臂机空间定位模型构建系统,其特征在于:所述标记点采用直径4mm的钢珠。
5.一种采用权利要求1~4任一所述C臂机空间定位模型构建系统的C臂机空间定位模型构建方法,其特征在于:包括步骤:
(1)C臂机采集模体正侧位透视图像并识别提取得到标记点的图像坐标;
(2)根据步骤(1)和各注册面内标记点的空间坐标分别计算得到各注册面与正侧位透视图像之间的映射关系;
(3)根据步骤(2)计算得到C臂机发射管中心坐标,并以其作为光心,以注册器的任一注册面作为虚拟成像平面,构建正侧位投影模型,得到C臂机空间定位模型。
6.根据权利要求5所述的C臂机空间定位模型构建方法,其特征在于:所述步骤(3)具体包括:
(31)在正侧位透视图像上设置若干矩阵点,并分别将其映射至各注册面,根据所有矩阵点在各注册面的映射点连线计算得到光心;
(32)通过光学跟踪器获取得到注册器位姿,结合注册器参数模型计算得到虚拟成像平面位姿;
(33)将正侧位透视图像映射到虚拟生成平面上,对感兴趣区域重新采样生成所需图像,计算得到其分辨率及像元尺寸信息。
8.根据权利要求5所述的C臂机空间定位模型构建方法,其特征在于:所述步骤(1)中,根据注册器上标记点分布的几何特征,结合图像分割轮廓提取算法分别识别定位出所述正侧位透视图像上各个注册面的标记点。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202011369420.9A CN112168357B (zh) | 2020-11-30 | 2020-11-30 | C臂机空间定位模型构建系统及方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202011369420.9A CN112168357B (zh) | 2020-11-30 | 2020-11-30 | C臂机空间定位模型构建系统及方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN112168357A CN112168357A (zh) | 2021-01-05 |
| CN112168357B true CN112168357B (zh) | 2021-02-19 |
Family
ID=73918196
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202011369420.9A Active CN112168357B (zh) | 2020-11-30 | 2020-11-30 | C臂机空间定位模型构建系统及方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN112168357B (zh) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11918406B2 (en) | 2019-02-15 | 2024-03-05 | Koninklijke Philips N.V. | Marker registration correction by virtual model manipulation |
| US11931198B2 (en) | 2019-02-15 | 2024-03-19 | Koninklijke Philips N.V. | X-ray calibration for display overlays onto X-ray images |
| WO2020165422A1 (en) | 2019-02-15 | 2020-08-20 | Koninklijke Philips N.V. | X-ray ripple markers for x-ray calibration |
| CN113855238B (zh) * | 2021-09-15 | 2023-03-28 | 北京天智航医疗科技股份有限公司 | 二维影像图的配准方法、装置、介质及电子设备 |
| CN115944390A (zh) * | 2022-09-01 | 2023-04-11 | 杭州三坛医疗科技有限公司 | 一种手术机器人导航定位方法、装置及系统 |
| CN115564813B (zh) * | 2022-09-30 | 2025-06-17 | 杭州邦杰星医疗科技有限公司 | 一种点对点的配准方法 |
| CN115737121A (zh) * | 2022-10-13 | 2023-03-07 | 杭州三坛医疗科技有限公司 | 一种手术机器人导航方法、装置及系统 |
| CN115530978B (zh) * | 2022-11-01 | 2025-07-22 | 苏州微创畅行机器人有限公司 | 一种导航定位方法及系统 |
| CN116309877A (zh) * | 2023-03-23 | 2023-06-23 | 佗道医疗科技有限公司 | 一种空间模型精度验证装置、验证方法及配准系统精度验证方法 |
| CN119326434B (zh) * | 2024-09-27 | 2025-08-05 | 上海涛影医疗科技有限公司 | 一种全长多高多sid双平面射线系统的预标定方法 |
| CN120392301A (zh) * | 2025-07-02 | 2025-08-01 | 杭州柳叶刀机器人有限公司 | 手术器械的导航方法、设备、介质以及程序产品 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1883388A (zh) * | 2006-06-22 | 2006-12-27 | 上海交通大学 | 可拆换式c形臂校准靶 |
| EP1820449A1 (de) * | 2006-02-21 | 2007-08-22 | BrainLAB AG | Medizintechnisches Röntgendetektionssystem mit aktivem optischen Signalgeber |
| CN101467887A (zh) * | 2007-12-29 | 2009-07-01 | 复旦大学 | 一种手术导航系统中x射线透视图像标定方法 |
| CN101582161A (zh) * | 2009-06-15 | 2009-11-18 | 北京航空航天大学 | 一种基于透视成像模型标定的c型臂图像校正方法 |
| EP3295887B1 (en) * | 2016-09-16 | 2019-12-25 | Globus Medical, Inc. | Robotic fluoroscopic navigation |
-
2020
- 2020-11-30 CN CN202011369420.9A patent/CN112168357B/zh active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1820449A1 (de) * | 2006-02-21 | 2007-08-22 | BrainLAB AG | Medizintechnisches Röntgendetektionssystem mit aktivem optischen Signalgeber |
| CN1883388A (zh) * | 2006-06-22 | 2006-12-27 | 上海交通大学 | 可拆换式c形臂校准靶 |
| CN101467887A (zh) * | 2007-12-29 | 2009-07-01 | 复旦大学 | 一种手术导航系统中x射线透视图像标定方法 |
| CN101582161A (zh) * | 2009-06-15 | 2009-11-18 | 北京航空航天大学 | 一种基于透视成像模型标定的c型臂图像校正方法 |
| EP3295887B1 (en) * | 2016-09-16 | 2019-12-25 | Globus Medical, Inc. | Robotic fluoroscopic navigation |
Non-Patent Citations (1)
| Title |
|---|
| 机器人辅助骨科手术导航关键技术研究;张建法;《中国优秀硕士学位论文全文数据库医药卫生科技辑》;20170131;E066-111 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN112168357A (zh) | 2021-01-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112168357B (zh) | C臂机空间定位模型构建系统及方法 | |
| US10507002B2 (en) | X-ray system and method for standing subject | |
| EP3254621B1 (en) | 3d image special calibrator, surgical localizing system and method | |
| CN111627521B (zh) | 增强现实在放疗中的应用 | |
| CN110264504B (zh) | 一种用于增强现实的三维配准方法和系统 | |
| CN102622775B (zh) | 一种基于模型插值补偿的心脏实时动态重建技术 | |
| CN107714082A (zh) | 一种基于光学定位的超声探头标定装置及方法 | |
| CN101467887A (zh) | 一种手术导航系统中x射线透视图像标定方法 | |
| CN115153835B (zh) | 基于特征点配准与增强现实的髋臼假体放置引导系统及方法 | |
| CN104771189B (zh) | 三维头颅图像对正方法及装置 | |
| CN116883471B (zh) | 面向胸腹部经皮穿刺的线结构光无接触点云配准方法 | |
| CN113786228B (zh) | 一种基于ar增强现实的辅助穿刺导航系统 | |
| CN116485850A (zh) | 基于深度学习的手术导航影像的实时非刚性配准方法及系统 | |
| Meng et al. | An automatic markerless registration method for neurosurgical robotics based on an optical camera | |
| CN111973204A (zh) | 一种纳入重力的新型双平板x光机的校准方法 | |
| CN111833392B (zh) | 标记点多角度扫描方法、系统及装置 | |
| Li et al. | A vision-based navigation system with markerless image registration and position-sensing localization for oral and maxillofacial surgery | |
| CN114283188A (zh) | 一种针对骨科手术机器人的定位配准方法 | |
| CN108670302B (zh) | 一种基于2.5维超声宽景成像的脊柱三维结构再现方法 | |
| CN117058197A (zh) | 用于神经调控的空间注册方法及装置 | |
| CN110645928A (zh) | 一种三维扫描仪空间坐标定位方法 | |
| CN113963057B (zh) | 成像几何关系标定方法、装置、电子设备以及存储介质 | |
| CN113487726B (zh) | 动作捕捉系统和方法 | |
| CN113786229A (zh) | 一种基于ar增强现实的辅助穿刺导航方法 | |
| JP4608152B2 (ja) | 三次元データ処理装置および三次元データ処理方法、並びにプログラム提供媒体 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant | ||
| CP03 | Change of name, title or address |
Address after: 210000 building 3, No. 34, Dazhou Road, Yuhuatai District, Nanjing, Jiangsu Province Patentee after: Tuodao Medical Technology Co.,Ltd. Address before: Room 102-86, building 6, 57 Andemen street, Yuhuatai District, Nanjing, Jiangsu 210000 Patentee before: Nanjing Tuodao Medical Technology Co.,Ltd. |
|
| CP03 | Change of name, title or address |