久热精品在线视频,思思96精品国产,午夜国产人人精品一区,亚洲成在线a

<s id="x4lik"><u id="x4lik"></u></s>

      <strong id="x4lik"><u id="x4lik"></u></strong>

      面向人臉特征點(diǎn)定位和姿態(tài)估計(jì)任務(wù)協(xié)同的DCNN方法

      田卓; 佘青山; 甘海濤; 孟明 杭州電子科技大學(xué)智能控制與機(jī)器人研究所; 浙江杭州310018

      關(guān)鍵詞:計(jì)量學(xué) 人臉識(shí)別 深度卷積神經(jīng)網(wǎng)絡(luò) 人臉特征點(diǎn) 姿態(tài)估計(jì) 

      摘要:為了提高復(fù)雜背景下面部信息的識(shí)別性能,提出了一種面向人臉特征點(diǎn)定位和姿態(tài)估計(jì)任務(wù)協(xié)同的深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)方法。首先從視頻圖像中檢測(cè)出人臉信息;其次設(shè)計(jì)一個(gè)深度卷積網(wǎng)絡(luò)模型,將人臉特征點(diǎn)定位和姿態(tài)估計(jì)兩個(gè)任務(wù)協(xié)同優(yōu)化,同時(shí)回歸得到人臉特征點(diǎn)坐標(biāo)和姿態(tài)角度值,然后融合生成相應(yīng)的人機(jī)交互信息;最后采用公開數(shù)據(jù)集和實(shí)際場(chǎng)景數(shù)據(jù)進(jìn)行測(cè)試,并與其他現(xiàn)有方法進(jìn)行比對(duì)分析。實(shí)驗(yàn)結(jié)果表明:該方法在人臉特征點(diǎn)定位和姿態(tài)估計(jì)上表現(xiàn)出較好的性能,在光照變化、表情變化、部分遮擋等復(fù)雜條件下人機(jī)交互應(yīng)用也取得了良好的準(zhǔn)確性和魯棒性,平均處理速度約16幀/s,具備一定的實(shí)用性。

      計(jì)量學(xué)報(bào)雜志要求:

      {1}參考文獻(xiàn)的著錄格式采用順序編碼制,著錄表置于文末,其排列順序以正文出現(xiàn)的先后為準(zhǔn),文內(nèi)用方括號(hào)按先后順序標(biāo)注,且置于行文的右上角。

      {2}本刊采用匿名審稿制。

      {3}本刊編輯部將在收到來稿后3個(gè)月內(nèi)答復(fù)您是否采用。如在3個(gè)月后仍未接到本刊采用通知,請(qǐng)盡快與本刊編輯部聯(lián)系查詢。

      {4}來稿子標(biāo)題的層級(jí)序號(hào)。標(biāo)題層次不宜太多,建議文內(nèi)標(biāo)題層次為四級(jí):一、(一)、1.、(1)。

      {5}請(qǐng)?jiān)诟寮詈蟾缴夏男彰?、工作單位、?lián)系電話、郵箱、通訊地址、郵政編碼,以便及時(shí)聯(lián)系。

      注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社

      計(jì)量學(xué)報(bào)

      北大期刊
      1-3個(gè)月下單

      關(guān)注 7人評(píng)論|0人關(guān)注
      相關(guān)期刊
      服務(wù)與支付