應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊個(gè)人注冊登錄

AI畫畫也有種族歧視?藝術(shù)加工軟件把黑人變白人

2020-12-30 09:14 智東西

導(dǎo)讀:據(jù)分析,這種偏見現(xiàn)象的背后有兩層原因,一方面是標(biāo)記數(shù)據(jù)集中各類樣本數(shù)量不均衡,一方面是標(biāo)記過程受標(biāo)記員主觀影響較大。

日本富士通的一支研究團(tuán)隊(duì)利用有向無環(huán)圖模型(DAG)研究AI生成藝術(shù)中的偏見現(xiàn)象。該研究發(fā)現(xiàn),目前的AI模型在藝術(shù)創(chuàng)作時(shí)展現(xiàn)出對特定流派、創(chuàng)作風(fēng)格、種族、思想運(yùn)動等因素的明顯傾向性。

據(jù)分析,這種偏見現(xiàn)象的背后有兩層原因,一方面是標(biāo)記數(shù)據(jù)集中各類樣本數(shù)量不均衡,一方面是標(biāo)記過程受標(biāo)記員主觀影響較大。

該研究發(fā)表在康奈爾大學(xué)的論文庫arXiv上,名為《藝術(shù)史視角下分析AI生成藝術(shù)中偏見產(chǎn)生的原因(Biases in Generative Art—A Causal Look from the Lens of Art History)》。

image.png

▲日本富士通研究團(tuán)隊(duì)發(fā)表《藝術(shù)史視角下分析AI生成藝術(shù)中偏見產(chǎn)生的原因(Biases in Generative Art—A Causal Look from the Lens of Art History)》一文

原文鏈接:https://arxiv.org/pdf/2010.13266.pdf

一、研究方法:采用DAG進(jìn)行因果關(guān)系分析

隨著人工智能技術(shù)研究的不斷深入,人工智能的應(yīng)用領(lǐng)域也越來越廣泛,其中就有AI生成藝術(shù)。從創(chuàng)作繪畫到開辟新的藝術(shù)風(fēng)格,AI被應(yīng)用到藝術(shù)創(chuàng)作的方方面面。

然而,隨著AI藝術(shù)創(chuàng)作工具不斷涌現(xiàn),日本富士通的研究團(tuán)隊(duì)卻指出:社會偏見可能會滲透到AI的藝術(shù)創(chuàng)作過程中。

為了驗(yàn)證猜想是否屬實(shí),富士通研究人員從相關(guān)學(xué)術(shù)論文、在線平臺、應(yīng)用程序入手,從中挑選出描摹現(xiàn)有流派和風(fēng)格的樣本并展開研究。

研究團(tuán)隊(duì)首先對影響AI創(chuàng)作的主要因素進(jìn)行了分類,從而確定研究樣本。他們最終選定的樣本均由業(yè)內(nèi)領(lǐng)先的AI系統(tǒng)創(chuàng)作,這些AI系統(tǒng)接受了文藝思潮、流派、創(chuàng)作材料、藝術(shù)家等各類標(biāo)記數(shù)據(jù)集的訓(xùn)練。

文藝思潮方面,有文藝復(fù)興、立體主義、未來主義、印象派、表現(xiàn)主義、后印象派、浪漫主義等。流派方面,有風(fēng)景畫、肖像、戰(zhàn)斗繪畫、素描等。材料方面,有木版畫、版畫、油漆等。藝術(shù)家方面,則有克萊門汀·亨特(Clementine Hunter)、瑪麗·卡薩特(Mary Cassatt)、文森特·梵高(Vincent van Gogh)、古斯塔夫·多雷(Gustave Doré)、吉諾·塞維里尼(Gino Severini)等。

該文共同作者稱,該研究利用了一個(gè)名為“有向無環(huán)圖”(Directed Acyclic Graphs,“DAG”)的因果模型,他們能夠通過這個(gè)模型識別出和AI藝術(shù)生成有關(guān)的因素,以及這些因素相互影響的方式。

比如,藝術(shù)思潮會影響創(chuàng)作材料的選擇,肖像主體會影響藝術(shù)家風(fēng)格的選擇,而DAG能夠?qū)⑦@些復(fù)雜的關(guān)系可視化,從而更好地分析不同因素之間的因果關(guān)系。

二、研究結(jié)果:AI藝術(shù)創(chuàng)作工具存在種族、性別歧視

經(jīng)分析,AI系統(tǒng)在進(jìn)行藝術(shù)創(chuàng)作時(shí),存在對特定流派、風(fēng)格、種族的明顯偏好。

以藝術(shù)渲染工具DeepArt為例,用戶可以在DeepArt上導(dǎo)入圖片并添加藝術(shù)化渲染效果,最終生成具有特定藝術(shù)家風(fēng)格的圖片。

在處理立體派畫家費(fèi)爾南·萊熱(Fernand Léger)的作品《推進(jìn)器(Propellers)》時(shí),DeepArt未能成功將其轉(zhuǎn)換至未來派風(fēng)格。在將瑪麗·卡薩特(Mary Cassatt)的現(xiàn)實(shí)主義畫作《瑪麗·埃里森小姐(Miss Mary Ellison)》轉(zhuǎn)換成表現(xiàn)主義風(fēng)格時(shí),DeepArt又未能展現(xiàn)出表現(xiàn)主義的典型特征。

image.png

▲中為瑪麗·卡薩特(Mary Cassatt)的現(xiàn)實(shí)主義畫作《瑪麗·埃里森小姐(Miss Mary Ellison)》;右為凱爾希納(Ernst Ludwig Kirchner)的表現(xiàn)主義畫作;左為AI藝術(shù)創(chuàng)作工具Deepart根據(jù)右圖風(fēng)格對中圖加工生成的表現(xiàn)主義作品。然而表現(xiàn)主義的典型特征之一——變形物體,并未出現(xiàn)在左圖中。

更有甚者,DeepArt同類平臺GoArt在為克萊門汀·亨特(Clementine Hunter)的畫作《黑族長(Black Matriarch)》添加表現(xiàn)主義濾鏡時(shí),直接將主體人物的黑膚色變成了紅色,在加工狄賽德里奧的雕塑作品《小男孩(Giovinetto)》時(shí),卻保留了藝術(shù)品中人物原本的白色膚色。

image.png

▲GoArt將克萊門汀·亨特(Clementine Hunter)的畫作《黑族長(Black Matriarch)》中的主體人物的黑膚色變成了紅色,保留了狄賽德里奧的雕塑作品《小男孩(Giovinetto)》中人物的白膚色。

藝術(shù)換臉軟件AIportraits將黑膚色女星泰莎·湯普森(Tessa Thompson)的照片加工成藝術(shù)畫時(shí),直接將她的膚色調(diào)亮了幾個(gè)度。

image.png

▲AIportraits將黑膚色女星泰莎·湯普森(Tessa Thompson)膚色調(diào)亮

另一款藝術(shù)加工工具Abacus直接把拉斐爾(Raphael)和皮耶羅·迪科西莫(Piero di Cosimo)作品中的長發(fā)年輕男子識別為女性。

三、原因分析:標(biāo)記數(shù)據(jù)集的樣本失衡

富士康的研究團(tuán)隊(duì)認(rèn)為,這種偏見主要來自前期訓(xùn)練AI時(shí)使用的標(biāo)記數(shù)據(jù)集。一方面,受到研發(fā)人員偏好影響,這些標(biāo)記數(shù)據(jù)集涉及的樣本數(shù)量可能不夠均衡。以AI Portraits為例,該應(yīng)用程序的訓(xùn)練樣本便是以文藝復(fù)興時(shí)期的白人肖像為主。

另一方面,給數(shù)據(jù)集做標(biāo)注或是打標(biāo)簽的過程中可能存在標(biāo)準(zhǔn)不一致的情況。注釋者擁有不同的偏好、文化和信念,這些差異可能會在他們創(chuàng)建的標(biāo)簽中得到反映。

論文指出,各類訓(xùn)練樣本的數(shù)量并不均衡,比如照片很多、雕塑很少;歐洲藝術(shù)家很多、本土藝術(shù)家很少;文藝復(fù)興、現(xiàn)代藝術(shù)運(yùn)動作品居多,其他思潮作品很少。數(shù)據(jù)集也未能體現(xiàn)出不同種族、風(fēng)格的面孔差異,因此出現(xiàn)了代表性偏差。

研究團(tuán)隊(duì)警告說,為藝術(shù)生成AI建模時(shí),如果忽略某些細(xì)微因素,將造成社會、文化、政治方面的錯(cuò)誤歷史認(rèn)知,從而影響人們正確地認(rèn)識某些重要史實(shí)。

他們敦促AI研究人員和從業(yè)人員在考慮相關(guān)社會政治因素的前提下,應(yīng)謹(jǐn)慎檢查AI系統(tǒng)的設(shè)計(jì)原理。

結(jié)語:機(jī)器理性仍靠人智實(shí)現(xiàn)

還記得《終結(jié)者》系列中,施瓦辛格扮演的機(jī)器人T-800眼冒紅光、冷面無情的模樣,然而事實(shí)和科幻相去甚遠(yuǎn),機(jī)器人目前既沒有自主思考能力,更沒有人類獨(dú)有的情感和欲望。

人工智能仍依賴算法編程實(shí)現(xiàn)。因此,人工智能的好與壞、公平與偏頗全掌握在人類手中,這就對人類軟件開發(fā)專家提出了更高的要求。

俗話說“上梁不正下梁歪”,如果人類開發(fā)者在訓(xùn)練AI的過程中,沒有很好地考慮到社會公平的因素,那么個(gè)人認(rèn)識的局限性和偏差便會傳遞到AI上。

比如說,谷歌BERT等大語言模型的訓(xùn)練樣本就忽略了貧困地區(qū)尚不能聯(lián)網(wǎng)的弱勢群體,藝術(shù)生成AI的訓(xùn)練樣本又主要以西方白人肖像為主。

不管是在藝術(shù)創(chuàng)作領(lǐng)域,還是在語言模型領(lǐng)域,AI訓(xùn)練樣本不均衡導(dǎo)致的代表性偏差都是一個(gè)值得關(guān)注和深思的問題。若想充分發(fā)揮機(jī)器的理性優(yōu)勢,人類開發(fā)者在設(shè)計(jì)系統(tǒng)架構(gòu)和訓(xùn)練AI的過程中必須更加謹(jǐn)慎細(xì)致。