藏宝阁生肖谜语解一肖中特|一肖中特公开免费资料大全

這就是機器人選出的全世界“最好看的人”

2016年09月19日 10:26:37 未知

打印 放大 縮小

這就是機器人選出的全世界“最好看的人”

上面是人類的選美比賽

【AI世代編者按】全球各種選美大賽選出的“佳麗”,你是不是一直看不慣?是不是質疑人類太主觀的眼光?曾經幻想著能有一種客觀標準,能使選美的結果讓所有人驚艷。全球首次由人工智能擔任評委的國際選美大賽,就出自這樣的初衷。但機器人的選擇,也引發了一系列爭議。

這個選美大賽名字為Beauty.AI 2.0,是第一屆由“機器”擔任裁判的國際選美比賽,由一群俄羅斯和香港的青年搞的青年實驗室(Youth Laboratories)發起,該實驗室獲得了微軟和英偉達支持。

這就是機器人選出的全世界“最好看的人”

Beauty.AI 2.0對來自100多個國家的6000張自拍照進行了評估,借助算法綜合考慮了年齡、皮膚、對稱性等因素,還將參賽者的外貌與演員和模特進行了對比,最終按照年齡和性別對優勝者進行了分組評定。

以下是18至29歲年齡組排名前5的女性:

這就是機器人選出的全世界“最好看的人”

機器人的“審美”

看到這樣的結果,你的內心是崩潰的,對不對?這不是你一個人的感覺,相信絕大多數人看到這個結果內心都會蹦出一個字。

Beauty.ai表示,很多選手都寫信表示抗議,其中一人寫道:“你們的‘機器人’價值何在?隨便逛逛商場,我就能找到比你們的選美大賽‘優勝者’更漂亮的人。”

Beauty.ai首席科學家亞歷克斯•扎沃倫科夫(Alex Zhavoronkov)則辯稱:“我也無法認同機器人選出的部分優勝者,但整體還算不錯。”

作為該算法的一個指標,AntiAgeist會評估一個人相對其真身年齡的年輕程度,將參賽者的真實年齡與系統預測的真實年齡以及此人看上去的年齡進行對比。在上圖中,Lu Sophia得分最高,因為真實年齡達到18歲的她,在機器人眼中只有13歲。

該算法中的PIMPL指標評估了膚色,RYNKL則著眼于皺紋。

MADIS則將參選者與數據庫中的演員和模特的面部進行了對比。其中一個組件將其與數據庫中的平均美貌進行對比,另外一個則將其與這些“美人”的特點進行對比。

最后,Symmetry Master則考察了面部的對稱性。

Beauty.ai由Youth Laboratories負責運營,這家只有6個人的公司專門通過技術來評估一個人的美貌和年輕程度。該公司目前的主要產品是RYNKL,可以作為單獨的手機應用下載,并且已經授權給一些整容醫院使用。該團隊還在開發和外包一些新的算法,以期應用在Beauty.ai 3.0中——這場新的選美比賽將于今年晚些時候舉行。

以下為此次選美比賽其他年齡組和性別的獲勝者:

這就是機器人選出的全世界“最好看的人”

這就是機器人選出的全世界“最好看的人”

這就是機器人選出的全世界“最好看的人”

這就是機器人選出的全世界“最好看的人”

這就是機器人選出的全世界“最好看的人”

算法的“偏見”

另外一個令這套系統的創造者感到心灰意冷的是,他們發現勝出者都有一個明顯的特點:機器人不喜歡深色皮膚的人。

44位勝出者幾乎都是白人,只有少數幾位亞洲人,黑人則只有1位。盡管多數參賽者都是白人,但很多有色人種也都提交了照片,包括大量的印度人和非洲人。

隨之而來的爭議引發了激烈的討論:算法為什么會存在偏見,并在無意間產生冒犯性的結果?

當微軟今年3月推出了“千禧一代”聊天機器人Tay時,它很快學會了種族主義言論,并在Twitter上傳播新納粹觀點。在Facebook上月去掉了負責篩選“趨勢”新聞的人類編輯后,計算機算法很快就把假新聞和粗俗消息推送到News Feed中,包括一篇有關男子用雞肉三明治自慰的文章。

雖然這次看似帶有種族主義意味的選美比賽引發了各界嘲笑,但計算機科學家和社會公正倡議者卻表示,在其他行業和領域,如果帶有偏見的人工智能系統得到大范圍應用,那絕對不是一件好笑的事情。在某些情況下,甚至會給有色人種帶來災難性的后果。

Beauty.AI由微軟支持的深度學習組織Youth Laboratories開發,它依靠龐大的照片數據庫來建立一種算法,借此評估人們的美貌。雖然有很多原因可以解釋算法為何偏向白人,但Beauty.AI首席科學官亞歷克斯•扎沃倫科夫(Alex Zhavoronkov)的主要問題在于,該項目在建立美貌評價標準時使用的數據,并沒有涵蓋足夠的少數族裔人群。

雖然該組織開發算法時并沒有將淺色皮膚作為美貌的標準,但系統獲得的數據實際上卻導致機器人裁判得出了這樣的結論。

“如果數據庫中的有色人種不夠多,就會得出偏見。”扎沃倫科夫說,他也對結果頗感驚訝。“當你訓練計算機算法識別某種形態時……你手上的數據可能不夠充分,這些數據也有可能存在偏見。”

對于帶有偏見的算法,最簡單的解釋就是:負責創造這些算法的人本身就帶有根深蒂固的偏見。換句話說,盡管人們認為算法是公正、客觀的,但這些算法卻往往會延續和放大現有的偏見。

哥倫比亞大學法學和政治學教授伯納德•哈考特(Bernard Harcourt)認為,Beauty.AI的結果“完美地詮釋了這個問題”。他曾經研究過“預測性警務”,并發現這項業務對機器的依賴越來越大。“根本不可能在選美過程中不顧文化和種族因素,得出完全中立的結果。”

此事給我們提了一個醒:“真正負責思考的是人類。盡管這種思考以算法形式體現出來,而我們也認為這種算法是中立而科學的,但本質并沒有改變。”他說。

公民自由組織最近對基于計算機的執法預測工具表達了擔憂——這類系統會使用數據預測犯罪可能發生在哪些地方——因為這些數據可能采用了有瑕疵的統計數據,因而可能加劇種族偏見,并引發有害的警務措施。

“數據受到污染,結果也會受到污染。”媒體爭議中心(Center for Media Justice)執行總監馬爾基亞•賽麗爾(Malkia Cyril)說。

ProPublica今年早些時候進行的一項調查發現,用于預測未來犯罪活動的軟件對黑人存在偏見,這有可能引發更嚴厲的量刑。

“這真的是人命關天的大事。”哈弗福德學院計算機科學教授索瑞勒•弗雷德勒(Sorelle Friedler)說。

弗雷德勒表示,關鍵問題在于,少數族裔在數據庫中的占比本身就比較低,因此算法很容易針對這些人得出不準確的結論,而算法的創作者卻無法發現這一問題。例如,她表示,一套對印第安人存有偏見的算法可能被視作一大成功,因為這些人在人口總數中僅占2%。

“你可能得到98%的準確率,并由此認為自己設計了一套優秀的算法。”

弗雷德勒表示,可以通過一些具有前瞻性的方法對算法進行調整,以便糾正偏見,包括改進輸入系統的數據,或者增加一些過濾器,以便確保不同種族的人都能得到平等對待。

具有前瞻性的人工智能算法并不限于刑事司法系統。一項研究發現,在網上看到高薪招聘廣告的女性遠少于男性。谷歌(微博)的照片應用去年甚至將黑人識別為大猩猩。

賽麗爾指出,計算機算法在糾正社會不平等的過程中發揮的作用非常有限。“在本應著眼于制度變化的時候,我們卻過于依賴技術、算法和機器學習。”

扎沃倫科夫表示,當Beauty.AI今年秋天舉行新一輪選美比賽時,他希望通過對算法的一系列調整來規避歧視性結果。“我們將努力糾正這個問題。”

他補充道,機器人或許根本就不是最好的選美裁判:“更令我驚訝的是算法在選美過程中使用的標準。它從大量候選人中選出的優勝者可能并不符合我自己的審美。”(編譯/長歌)

責任編輯:admin

相關閱讀

其它網友:目光瞄準 Follow
評論:生活之所以有回憶,不是因為突然想起,而是因為不能忘記!

鳳凰網友:時間不會等待
評論:吃得苦中苦,才能開路虎;少年不努力,只能開夏利

淘寶網友:Flowers情調
評論:中國高中作業一年布置3億多字,卷子連起來可繞地球5圈,連續8年銷售數量第一!

百度網友:心不亡wenod∕
評論:別忘了孔雀開屏光鮮亮麗的背后卻是P眼兒

騰訊網友:若凌° Provence -
評論:再過五十年我就是古董了,所以你趁現在趕緊好好收藏我吧

天貓網友:只傷身不傷心
評論:女人最恨的男人是陳世美;男人最喜歡的女人是潘金蓮。

貓撲網友:圈套  Easuysug▍
評論:有些人,認真的讓你心疼,有些人,欠扁的讓你牙疼

搜狐網友:余命72 G3nTL3m
評論:有沒有一個女生會對我這樣說:“別裝了,我知道你喜歡我”

本網網友:誰曾朝不保夕
評論:人之所以活得累是因為:放不下架子,撕不開面子,解不開情節。

網易網友:錯過的情人
評論:從小就有一個敵人叫“別人家的小孩”。他不愛玩游戲,從來只知道學習。

藏宝阁生肖谜语解一肖中特 双色球开奖结果今天 网上投注站哪些是正规 江苏快三大小怎么玩稳赚 双面盘彩票怎么玩 极速时时官方开奖网站 一全网最早原创36码特开 全天北京pk计划数据 飞艇一期计划软件 app 时时彩每天买组六稳赚不赔 北京pk10app