應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊個(gè)人注冊登錄

曾毅:人工智能真正的風(fēng)險(xiǎn)就在當(dāng)下

2019-12-03 09:06 中國數(shù)字科技館

導(dǎo)讀:人工智能亦可稱機(jī)器智能,通常是指由普通計(jì)算機(jī)程序來呈現(xiàn)人類智能的技術(shù),其核心問題包括建構(gòu)能夠跟人類比肩甚至超越人類的推理、知識、規(guī)劃、學(xué)習(xí)、交流、使用工具和操控機(jī)械等能力。

人工智能亦可稱機(jī)器智能,通常是指由普通計(jì)算機(jī)程序來呈現(xiàn)人類智能的技術(shù),其核心問題包括建構(gòu)能夠跟人類比肩甚至超越人類的推理、知識、規(guī)劃、學(xué)習(xí)、交流、使用工具和操控機(jī)械等能力。隨著人工智能技術(shù)的不斷發(fā)展,在大眾對這項(xiàng)技術(shù)刷新認(rèn)識的同時(shí),也產(chǎn)生了諸多的疑問及質(zhì)疑。

曾毅:人工智能真正的風(fēng)險(xiǎn)就在當(dāng)下

中科院自動(dòng)化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅

作為中國人工智能的從業(yè)者,希望中國的人工智能發(fā)展成什么樣?就此相關(guān)問題,記者對中科院自動(dòng)化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅進(jìn)行了專訪。

大眾對人工智能的認(rèn)識存在偏差

有人曾說,一個(gè)不再像人類一樣思維的機(jī)器,會引起大家的恐慌。在人工智能發(fā)展的過程當(dāng)中,有很多人在疑問:人工智能實(shí)現(xiàn)通用智能、超級智能,是不是最大的風(fēng)險(xiǎn)?對此,曾毅回答道,在實(shí)現(xiàn)通用人工智能的途徑中一定會存在風(fēng)險(xiǎn),但真正的風(fēng)險(xiǎn),現(xiàn)在看來并不是通用智能或者超級智能,而是在于人工智能發(fā)展的道路過程當(dāng)中已經(jīng)涌現(xiàn)出來的風(fēng)險(xiǎn)以及安全、倫理問題。

曾毅:人工智能真正的風(fēng)險(xiǎn)就在當(dāng)下

難以保障隱私的用戶數(shù)據(jù)(圖片來自網(wǎng)絡(luò))

對于人工智能這樣由算法專家構(gòu)建的服務(wù),極可能存在算法歧視、偏見等潛在問題,這些就足以使人工智能對我們的社會產(chǎn)生巨大的負(fù)面的影響。比如在人工智能的應(yīng)用中,數(shù)據(jù)隱私泄露的問題非常廣泛,用戶可以把數(shù)據(jù)庫當(dāng)中的用戶數(shù)據(jù)刪除,這樣看似用戶數(shù)據(jù)就被消除掉了,但其實(shí)數(shù)據(jù)庫已經(jīng)使用了它的數(shù)據(jù),數(shù)據(jù)特征已經(jīng)被模型學(xué)到了,這個(gè)時(shí)候用戶數(shù)據(jù)是不可能完全拿回的。曾毅談道,雖然類似歐盟在極力推動(dòng)的“GDPR歐洲通用數(shù)據(jù)保護(hù)條例”有相關(guān)規(guī)定,但目前幾乎沒有一家企業(yè)真正完全符合GDPR,而大眾極度卻缺乏個(gè)人數(shù)據(jù)隱私保護(hù)意識。

曾毅表示,公眾很關(guān)注人工智能的社會影響,但是礙于大眾對于人工智能的風(fēng)險(xiǎn)不是太了解,所以人工智能技術(shù)的科普比任何時(shí)候都重要。

面對當(dāng)前人工智能實(shí)際應(yīng)用的安全問題需建立監(jiān)管平臺

面對人工智能的風(fēng)險(xiǎn),當(dāng)下存在嚴(yán)重兩極化:比如美國加州就決定禁用人臉識別技術(shù),但也有更多企業(yè)對風(fēng)險(xiǎn)持視而不見的態(tài)度??傮w而言,人工智能發(fā)展是主旋律,但是人工智能的健康發(fā)展,一定是治理和發(fā)展雙輪驅(qū)動(dòng)?!爸窃慈斯ぶ悄苎芯吭喊踩珎惱硌芯恐行牟季值闹匾?xiàng)目就是從技術(shù)的角度來解決人工智能模型當(dāng)中存在的風(fēng)險(xiǎn)問題,而不僅僅是停留在倫理原則上的討論。”曾毅說。

曾毅:人工智能真正的風(fēng)險(xiǎn)就在當(dāng)下

人臉識別技術(shù)(圖片來自網(wǎng)絡(luò))

此外,曾毅還提出兩點(diǎn)建議:一方面,不管是企業(yè)、科研機(jī)構(gòu)、還是政府,在指導(dǎo)人工智能發(fā)展的時(shí)候,應(yīng)該建立不同層級的人工智能倫理和治理委員會。另外一方面,應(yīng)該號召國家建立人工智能服務(wù)和產(chǎn)品的監(jiān)管平臺?!叭缃竦陌l(fā)展模式是企業(yè)做完產(chǎn)品上線,一旦出了問題,有關(guān)部門再去約談,像前一段時(shí)間的換臉軟件就是這樣的。如果有監(jiān)管平臺,企業(yè)將用戶知情同意書傳上來,立刻就能發(fā)現(xiàn)其中的哪些原則違反了國家的法律或者是人工智能發(fā)展的原則,就可以在產(chǎn)生社會負(fù)面影響之前,規(guī)避掉存在的風(fēng)險(xiǎn)?!?/p>

保持對人工智能發(fā)展的敬畏和理性,是非常關(guān)鍵的。曾毅呼吁提升人工智能的技術(shù)人員對于風(fēng)險(xiǎn)和倫理問題的重視,使得他們真正在開發(fā)人工智能的時(shí)候,心中有紅線;在發(fā)展的方向上保證他們創(chuàng)造的人工智能產(chǎn)品向著對人類有益的方向發(fā)展。(記者 張蕃)

受訪專家:中科院自動(dòng)化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅

本文來自:中國數(shù)字科技館