技術(shù)
導(dǎo)讀:本周 OpenAI 發(fā)布了 GPT-4。雖然這款人工智能聊天機(jī)器人不斷增加新功能,但人們?cè)絹碓綋?dān)心,這種人工智能工具也可能被用于不良目的。
3 月 17 日消息,本周 OpenAI 發(fā)布了 GPT-4。雖然這款人工智能聊天機(jī)器人不斷增加新功能,但人們?cè)絹碓綋?dān)心,這種人工智能工具也可能被用于不良目的。OpenAI 聯(lián)合創(chuàng)始人、首席科學(xué)家伊利亞?薩茨科弗(Ilya Sutskever)在接受采訪時(shí)承認(rèn),別有用心的人容易利用人工智能給他人造成傷害。
“這些模型非常強(qiáng),而且會(huì)變得越來越強(qiáng),”他說?!霸谀撤N程度上,如果有人想的話,很容易用這些模型造成很大傷害。”
薩茨科弗是在解釋為什么 OpenAI 不再提供關(guān)于如何訓(xùn)練這些模型的詳細(xì)信息時(shí)這樣說的。
他在接受采訪時(shí)表示:“隨著人工智能的性能不斷提升,不想透露它們是有原因的?!薄拔掖_信,在幾年內(nèi),每個(gè)人都將十分清楚,人工智能開源是不明智的做法?!?/p>
OpenAI 首席執(zhí)行官薩姆?奧爾特曼 (Sam Altman) 過去也表達(dá)過類似的看法。
在今年早些時(shí)候的一次采訪中,奧爾特曼表示,就人工智能而言,雖然最好的情況是“令人難以置信的好,以至于我都很難想象”,但最壞的情況是“讓我們所有人都熄火”。
上個(gè)月,奧爾特曼還在推特上表示,他認(rèn)為人工智能工具可以幫助人們變得更高效、更健康、更聰明,但也補(bǔ)充說,世界可能離可怕的人工智能工具可能并沒有那么遠(yuǎn),所以對(duì)它們進(jìn)行監(jiān)管“至關(guān)重要”。