員以及谷歌、亞馬遜、IBM和微軟等公司都呼吁在人臉識別系統(tǒng)方面出臺更嚴(yán)格的監(jiān)管措施。
馬薩諸塞州波士頓東北大學(xué)研究面部監(jiān)控的計算機科學(xué)家、法學(xué)教授伍德羅·哈特佐格說視人臉識別技術(shù)為“史上最危險的發(fā)明”,說如果美國立法者允許公司使用人臉識別,他們應(yīng)該編寫規(guī)則,從健身房到餐廳都應(yīng)當(dāng)禁止“面部指紋”的收集和儲存,并禁止將人臉識別技術(shù)與自動化決策(如預(yù)測性警務(wù)、廣告定位和就業(yè))結(jié)合使用。
尚須謹(jǐn)慎研究和思考
密歇根州立大學(xué)東蘭辛分校的計算機科學(xué)家阿尼爾·賈恩說:“在我們的社會中,我們需要大量正當(dāng)而合法的人臉和生物識別應(yīng)用?!钡恍┛茖W(xué)家表示,研究人員也必須認(rèn)識到,在人們不知情的情況下對人臉進(jìn)行遠(yuǎn)程識別或分類的技術(shù)從根本上是危險的,應(yīng)該努力抵制其被用來控制人們的做法。
作為人工智能領(lǐng)域的首要會議之一,神經(jīng)信息處理系統(tǒng)會議是今年首次要求進(jìn)行這種道德考量,即提交有關(guān)人臉識別論文的科學(xué)家必須添加一份聲明,說明他們的工作中存在的倫理問題和潛在的負(fù)面后果。
此外,《自然機器智能》雜志也在試圖要求一些機器學(xué)習(xí)論文的作者在文章中加入一項聲明,考慮到更廣泛的社會影響和倫理問題。
紐約伊薩卡市康奈爾大學(xué)從事技術(shù)倫理研究的社會學(xué)家凱倫·利維認(rèn)為,研究人臉識別的學(xué)者意識到道德倫理問題,“感覺像是科學(xué)界真正的覺醒”。