
上面是人類的選美比賽
【AI世代編者按】全球各種選美大賽選出的“佳麗”,你是不是一直看不慣?是不是質(zhì)疑人類太主觀的眼光?曾經(jīng)幻想著能有一種客觀標準,能使選美的結果讓所有人驚艷。全球首次由人工智能擔任評委的國際選美大賽,就出自這樣的初衷。但機器人的選擇,也引發(fā)了一系列爭議。
這個選美大賽名字為Beauty.AI 2.0,是第一屆由“機器”擔任裁判的國際選美比賽,由一群俄羅斯和香港的青年搞的青年實驗室(Youth Laboratories)發(fā)起,該實驗室獲得了微軟和英偉達支持。

Beauty.AI 2.0對來自100多個國家的6000張自拍照進行了評估,借助算法綜合考慮了年齡、皮膚、對稱性等因素,還將參賽者的外貌與演員和模特進行了對比,最終按照年齡和性別對優(yōu)勝者進行了分組評定。
以下是18至29歲年齡組排名前5的女性:

機器人的“審美”
看到這樣的結果,你的內(nèi)心是崩潰的,對不對?這不是你一個人的感覺,相信絕大多數(shù)人看到這個結果內(nèi)心都會蹦出一個字。
Beauty.ai表示,很多選手都寫信表示抗議,其中一人寫道:“你們的‘機器人’價值何在?隨便逛逛商場,我就能找到比你們的選美大賽‘優(yōu)勝者’更漂亮的人。”
Beauty.ai首席科學家亞歷克斯•扎沃倫科夫(Alex Zhavoronkov)則辯稱:“我也無法認同機器人選出的部分優(yōu)勝者,但整體還算不錯。”
作為該算法的一個指標,AntiAgeist會評估一個人相對其真身年齡的年輕程度,將參賽者的真實年齡與系統(tǒng)預測的真實年齡以及此人看上去的年齡進行對比。在上圖中,Lu Sophia得分最高,因為真實年齡達到18歲的她,在機器人眼中只有13歲。
該算法中的PIMPL指標評估了膚色,RYNKL則著眼于皺紋。
MADIS則將參選者與數(shù)據(jù)庫中的演員和模特的面部進行了對比。其中一個組件將其與數(shù)據(jù)庫中的平均美貌進行對比,另外一個則將其與這些“美人”的特點進行對比。
最后,Symmetry Master則考察了面部的對稱性。
以下為此次選美比賽其他年齡組和性別的獲勝者:



算法的“偏見”
另外一個令這套系統(tǒng)的創(chuàng)造者感到心灰意冷的是,他們發(fā)現(xiàn)勝出者都有一個明顯的特點:機器人不喜歡深色皮膚的人。
44位勝出者幾乎都是白人,只有少數(shù)幾位亞洲人,黑人則只有1位。盡管多數(shù)參賽者都是白人,但很多有色人種也都提交了照片,包括大量的印度人和非洲人。
隨之而來的爭議引發(fā)了激烈的討論:算法為什么會存在偏見,并在無意間產(chǎn)生冒犯性的結果?
當微軟今年3月推出了“千禧一代”聊天機器人Tay時,它很快學會了種族主義言論,并在Twitter上傳播新納粹觀點。在Facebook上月去掉了負責篩選“趨勢”新聞的人類編輯后,計算機算法很快就把假新聞和粗俗消息推送到News Feed中,包括一篇有關男子用雞肉三明治自慰的文章。
雖然這次看似帶有種族主義意味的選美比賽引發(fā)了各界嘲笑,但計算機科學家和社會公正倡議者卻表示,在其他行業(yè)和領域,如果帶有偏見的人工智能系統(tǒng)得到大范圍應用,那絕對不是一件好笑的事情。在某些情況下,甚至會給有色人種帶來災難性的后果。
Beauty.AI由微軟支持的深度學習組織Youth Laboratories開發(fā),它依靠龐大的照片數(shù)據(jù)庫來建立一種算法,借此評估人們的美貌。雖然有很多原因可以解釋算法為何偏向白人,但Beauty.AI首席科學官亞歷克斯•扎沃倫科夫(Alex Zhavoronkov)的主要問題在于,該項目在建立美貌評價標準時使用的數(shù)據(jù),并沒有涵蓋足夠的少數(shù)族裔人群。
雖然該組織開發(fā)算法時并沒有將淺色皮膚作為美貌的標準,但系統(tǒng)獲得的數(shù)據(jù)實際上卻導致機器人裁判得出了這樣的結論。
“如果數(shù)據(jù)庫中的有色人種不夠多,就會得出偏見。”扎沃倫科夫說,他也對結果頗感驚訝。“當你訓練計算機算法識別某種形態(tài)時……你手上的數(shù)據(jù)可能不夠充分,這些數(shù)據(jù)也有可能存在偏見。”
對于帶有偏見的算法,最簡單的解釋就是:負責創(chuàng)造這些算法的人本身就帶有根深蒂固的偏見。換句話說,盡管人們認為算法是公正、客觀的,但這些算法卻往往會延續(xù)和放大現(xiàn)有的偏見。
此事給我們提了一個醒:“真正負責思考的是人類。盡管這種思考以算法形式體現(xiàn)出來,而我們也認為這種算法是中立而科學的,但本質(zhì)并沒有改變。”他說。
公民自由組織最近對基于計算機的執(zhí)法預測工具表達了擔憂——這類系統(tǒng)會使用數(shù)據(jù)預測犯罪可能發(fā)生在哪些地方——因為這些數(shù)據(jù)可能采用了有瑕疵的統(tǒng)計數(shù)據(jù),因而可能加劇種族偏見,并引發(fā)有害的警務措施。
“數(shù)據(jù)受到污染,結果也會受到污染。”媒體爭議中心(Center for Media Justice)執(zhí)行總監(jiān)馬爾基亞•賽麗爾(Malkia Cyril)說。
ProPublica今年早些時候進行的一項調(diào)查發(fā)現(xiàn),用于預測未來犯罪活動的軟件對黑人存在偏見,這有可能引發(fā)更嚴厲的量刑。
“這真的是人命關天的大事。”哈弗福德學院計算機科學教授索瑞勒•弗雷德勒(Sorelle Friedler)說。
弗雷德勒表示,關鍵問題在于,少數(shù)族裔在數(shù)據(jù)庫中的占比本身就比較低,因此算法很容易針對這些人得出不準確的結論,而算法的創(chuàng)作者卻無法發(fā)現(xiàn)這一問題。例如,她表示,一套對印第安人存有偏見的算法可能被視作一大成功,因為這些人在人口總數(shù)中僅占2%。
“你可能得到98%的準確率,并由此認為自己設計了一套優(yōu)秀的算法。”
弗雷德勒表示,可以通過一些具有前瞻性的方法對算法進行調(diào)整,以便糾正偏見,包括改進輸入系統(tǒng)的數(shù)據(jù),或者增加一些過濾器,以便確保不同種族的人都能得到平等對待。
具有前瞻性的人工智能算法并不限于刑事司法系統(tǒng)。一項研究發(fā)現(xiàn),在網(wǎng)上看到高薪招聘廣告的女性遠少于男性。谷歌(微博)的照片應用去年甚至將黑人識別為大猩猩。
賽麗爾指出,計算機算法在糾正社會不平等的過程中發(fā)揮的作用非常有限。“在本應著眼于制度變化的時候,我們卻過于依賴技術、算法和機器學習。”
扎沃倫科夫表示,當Beauty.AI今年秋天舉行新一輪選美比賽時,他希望通過對算法的一系列調(diào)整來規(guī)避歧視性結果。“我們將努力糾正這個問題。”
他補充道,機器人或許根本就不是最好的選美裁判:“更令我驚訝的是算法在選美過程中使用的標準。它從大量候選人中選出的優(yōu)勝者可能并不符合我自己的審美。”