
「AI已經(jīng)能看出你藏起來(lái)的小秘密了!」
斯坦福大學(xué)的兩位研究員發(fā)布了一個(gè)研究報告,他們用數十萬(wàn)張約會(huì )網(wǎng)站的照片來(lái)訓練一個(gè)面部識別系統,嘗試讓AI學(xué)會(huì )通過(guò)照片來(lái)判斷一個(gè)人是否是同性戀。
權威外媒《經(jīng)濟學(xué)人》第一個(gè)報道了這個(gè)研究,之后其他媒體也做了跟進(jìn)的報道,諸如《可怕!AI只要一張照片就能看出來(lái)你是不是同性戀》的標題很快散播在各家媒體網(wǎng)站上。
從多家外媒的報道來(lái)看,研究指出通過(guò)一張面部圖片,該系統就可以判斷出圖片上的人性向如何,判斷準確率男性81%,女性71%,如果同一人物的圖片素材達到5張,則準確率可以上升到男性91%,女性83%。
但著(zhù)名科技媒體TheVerge指出,其實(shí)這類(lèi)報道出現了偏差,斯坦福大學(xué)研究員們的這個(gè)研究并不是像諸多文章中寫(xiě)的那樣,只要一張照片就能看出來(lái)性取向,事實(shí)上,該研究是通過(guò)兩張圖片二選一的機制讓機器選出「更可能是同性戀」的圖片。這種對比判斷其實(shí)是從50%的隨機幾率開(kāi)始計算的,因此與單純對一張圖的分析有著(zhù)很大的區別。
除了報道的理解偏差以外,這項研究本身也遭到了不少批評聲。馬里蘭大學(xué)的社會(huì )學(xué)家PhilipCohen就表示,人們本來(lái)?yè)碛幸粋€(gè)私密的生活,性取向也沒(méi)有打算公之于眾,結果去了一趟機場(chǎng)或者運動(dòng)場(chǎng)就被攝像頭掃描出來(lái)了,這樣的可能性會(huì )讓人們感到恐懼。
研究人員之一的Michal Kosinski也表示,他們的意圖就是警醒人們AI的危險性。他認為人工智能和面部識別在不遠的將來(lái)不僅僅可以識別人的性取向,甚至還能檢測出人的政治立場(chǎng)、犯罪傾向,甚至智商。
The Verge文章還認為,這種從人臉圖片判斷出性取向的科研成果其實(shí)是19世紀到20世紀的種族主義披上了神經(jīng)網(wǎng)絡(luò )、機器學(xué)習等計算機技術(shù)的外衣,對真正科學(xué)的反攻倒算。它像過(guò)去的偽科學(xué)、相面術(shù)一樣,給了某些人譴責、滅絕其他人類(lèi)同胞的理由。
從道德的角度看,這項研究確實(shí)有著(zhù)很大的缺陷,但人們也無(wú)法否認,機器確實(shí)有著(zhù)人類(lèi)所沒(méi)有的分析能力,也許能夠發(fā)現人類(lèi)所發(fā)現不了的規律和事實(shí)。
比如AlphaGo就可以從圍棋的規則和以往的經(jīng)典棋局中「研究」出一套獨特的棋路,而不是簡(jiǎn)單的模仿學(xué)習。
所以該研究指出的同性人群可能存在不同于異性戀人群的某些特征,從人類(lèi)的角度我們也不能一昧地從道義上反駁,相反,類(lèi)似的研究成果可能會(huì )被性學(xué)專(zhuān)家重視,并加以深入研究。
但另一方面,從訓練算法的數據來(lái)看,這項研究本身也存在著(zhù)一定的問(wèn)題。
數據源的問(wèn)題。從婚戀交友網(wǎng)站獲取的數十萬(wàn)張照片不能代表人類(lèi)全體,這些人本身可能就存在著(zhù)某些特征,而這些特征極有可能會(huì )影響到機器對性取向的判斷與學(xué)習。
數據類(lèi)型的問(wèn)題。圖片就夠了嗎?判斷一個(gè)人的性取向這樣重要的特征,簡(jiǎn)單的靜態(tài)圖片就夠了嗎?機器也許可以發(fā)現人類(lèi)無(wú)法發(fā)現的東西,但前提是數據的厚度、密度和廣度都必須達到一定的量。
在這一點(diǎn)上,研究者只給機器提供靜態(tài)的圖片作為學(xué)習的素材,不禁讓人懷疑他們的初衷究竟是出于科學(xué)地研究不同人群的潛在特征,還是一些易于媒體傳播的商業(yè)意圖。
畢竟,從網(wǎng)站上扒圖并不是什么技術(shù)活,讓機器做選擇題的概念,也像極了十多年前哈佛某個(gè)宅男做的校園選美網(wǎng)站。