4ZC-01
内視鏡手術映像内に現れる画像特徴点のニューラルネットワークによる判別
近年,ロボット支援下腎部分切除術が従来の腹腔鏡手術に打って変る存在になりつつある.しかし,視野の狭い中で安全に手術を行うためには十分な経験と高度な技術が要求される.これをサポートするため現在,ロボット支援下腎部分切除術の映像にAR を用いるシステムの開発が進められている[1].本システムは,特徴点ベースのSLAM (Simultaneous Localizationand Mapping) の一つであるORB-SLAM により内視鏡カメラの位置・姿勢を推定し,手術の対象となる臓器の3DCG を内視鏡の映像にリアルタイムで重ねることで,目視できない腫瘍や血管の位置の把握を助けるというものである.しかし,内視鏡のカメラ映像内に手術器具が存在する場合,不必要な特徴点が増大することでカメラ位置・姿勢推定に大きな誤差が生じる場合があった.
そこで本研究では,生体部分と手術器具部分の特徴点を判別し,本システムのカメラ位置・姿勢推定の安定化を目的とする.特徴点の判別には,ニューラルネットワーク(以降,NN)を利用し,その精度等を検証する.
そこで本研究では,生体部分と手術器具部分の特徴点を判別し,本システムのカメラ位置・姿勢推定の安定化を目的とする.特徴点の判別には,ニューラルネットワーク(以降,NN)を利用し,その精度等を検証する.