關(guān)鍵詞:計(jì)量學(xué) 人臉識(shí)別 深度卷積神經(jīng)網(wǎng)絡(luò) 人臉特征點(diǎn) 姿態(tài)估計(jì)
摘要:為了提高復(fù)雜背景下面部信息的識(shí)別性能,提出了一種面向人臉特征點(diǎn)定位和姿態(tài)估計(jì)任務(wù)協(xié)同的深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)方法。首先從視頻圖像中檢測(cè)出人臉信息;其次設(shè)計(jì)一個(gè)深度卷積網(wǎng)絡(luò)模型,將人臉特征點(diǎn)定位和姿態(tài)估計(jì)兩個(gè)任務(wù)協(xié)同優(yōu)化,同時(shí)回歸得到人臉特征點(diǎn)坐標(biāo)和姿態(tài)角度值,然后融合生成相應(yīng)的人機(jī)交互信息;最后采用公開數(shù)據(jù)集和實(shí)際場(chǎng)景數(shù)據(jù)進(jìn)行測(cè)試,并與其他現(xiàn)有方法進(jìn)行比對(duì)分析。實(shí)驗(yàn)結(jié)果表明:該方法在人臉特征點(diǎn)定位和姿態(tài)估計(jì)上表現(xiàn)出較好的性能,在光照變化、表情變化、部分遮擋等復(fù)雜條件下人機(jī)交互應(yīng)用也取得了良好的準(zhǔn)確性和魯棒性,平均處理速度約16幀/s,具備一定的實(shí)用性。
計(jì)量學(xué)報(bào)雜志要求:
{1}參考文獻(xiàn)的著錄格式采用順序編碼制,著錄表置于文末,其排列順序以正文出現(xiàn)的先后為準(zhǔn),文內(nèi)用方括號(hào)按先后順序標(biāo)注,且置于行文的右上角。
{2}本刊采用匿名審稿制。
{3}本刊編輯部將在收到來稿后3個(gè)月內(nèi)答復(fù)您是否采用。如在3個(gè)月后仍未接到本刊采用通知,請(qǐng)盡快與本刊編輯部聯(lián)系查詢。
{4}來稿子標(biāo)題的層級(jí)序號(hào)。標(biāo)題層次不宜太多,建議文內(nèi)標(biāo)題層次為四級(jí):一、(一)、1.、(1)。
{5}請(qǐng)?jiān)诟寮詈蟾缴夏男彰?、工作單位、?lián)系電話、郵箱、通訊地址、郵政編碼,以便及時(shí)聯(lián)系。
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社