久热精品在线视频,思思96精品国产,午夜国产人人精品一区,亚洲成在线a

<s id="x4lik"><u id="x4lik"></u></s>

      <strong id="x4lik"><u id="x4lik"></u></strong>

      基于無監(jiān)督深度學(xué)習(xí)的多模態(tài)手術(shù)軌跡快速分割方法

      謝劼欣; 趙紅發(fā); 邵振洲; 施智平; 關(guān)永 首都師范大學(xué)信息工程學(xué)院; 北京100048; 成像技術(shù)北京市高精尖創(chuàng)新中心; 北京100048; 首都師范大學(xué)輕型工業(yè)機器人與安全驗證北京市重點實驗室; 北京100048

      關(guān)鍵詞:機器人輔助微創(chuàng)手術(shù) 多模態(tài)軌跡分割 無監(jiān)督深度學(xué)習(xí) 合并后處理 

      摘要:傳統(tǒng)的手術(shù)機器人軌跡分割方法存在耗時長、分割準確度差且容易產(chǎn)生過度分割等問題.為解決上述問題,本文提出了一種基于特征提取網(wǎng)絡(luò)DCED-Net(密集連接的卷積編碼-解碼網(wǎng)絡(luò))的多模態(tài)手術(shù)軌跡分割方法.DCED-Net采用無監(jiān)督方法,不必進行十分耗時的人工標注,使用密集連接結(jié)構(gòu),使圖像信息能更有效地在卷積層間傳遞,從而提高了特征提取質(zhì)量.將特征提取后的視頻數(shù)據(jù)和運動學(xué)數(shù)據(jù)投入轉(zhuǎn)移狀態(tài)聚類(TSC)模型得到預(yù)分割結(jié)果.為進一步提高分割精度,提出了一種基于軌跡段間相似性的合并后處理算法,通過衡量軌跡段間的4個相似性指標,包括主成分分析、互信息、數(shù)據(jù)中心距離和動態(tài)時間規(guī)整,將相似度高的分割段進行迭代合并,從而降低過度分割造成的影響.公開數(shù)據(jù)集JIGSAWS上的大量實驗證明,與經(jīng)典的軌跡分割聚類方法相比,本文方法的分割準確率最高提升了48.4%,分割速度加快了6倍以上.

      機器人雜志要求:

      {1}參考文獻必須在文中用[數(shù)字]標出對應(yīng)標號,參考文獻統(tǒng)一列在文后。

      {2}著作類:作者(譯者)姓名、書名、出版地、出版社名稱、出版年份、頁碼(直接引文時標明)。論文類:作者姓名、文章名、所載報刊名稱、年份、期號、頁碼。

      {3}如一旦發(fā)現(xiàn)一稿兩用,本刊將刊登該文系重復(fù)發(fā)表的聲明,并在3年內(nèi)拒絕以該文第一作者和通訊作者的任何來稿。

      {4}論文題目應(yīng)當簡潔明了,反映論文的主旨。論文題目應(yīng)便于讀者檢索、轉(zhuǎn)抄和引用,中文題名不宜超過20個字;外文題名不超過10個實詞。不宜采用抒情意味、反問意味的主標題和副標題。

      {5}任何來稿視為作者、譯者已經(jīng)閱讀或知悉并同意本須知約定。

      注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社

      機器人

      北大期刊
      1-3個月下單

      關(guān)注 12人評論|1人關(guān)注
      相關(guān)期刊
      服務(wù)與支付