技術(shù)
導(dǎo)讀:程序在沒有任何指導(dǎo)的情況下尋找和發(fā)現(xiàn)模式,然后利用這些模式來完成文本提示。
援引外媒 MIT Technology Review 報(bào)道,大學(xué)生 Liam Porr 使用語言生成 AI 工具 GPT-3 生成了一篇假博文,并登上了 Hacker News 的榜首。Porr 試圖證明,GPT-3 制作的內(nèi)容可以騙取人們的信任,讓人們相信它是由人類編寫的。而且他還表示:“這實(shí)際上超級(jí)容易,這才是最可怕的地方?!?/span>
GPT-3 是由總部位于舊金山的 OpenAI 設(shè)計(jì)的一系列人工智能自動(dòng)完成工具,已經(jīng)推出有數(shù)年之久。其中“GPT-3”代表的是“generative pre-trained transformer”(生成式預(yù)訓(xùn)練轉(zhuǎn)化器),根據(jù)人類作家的提示自動(dòng)完成文本。
它的工作原理如下
就像所有深度學(xué)習(xí)系統(tǒng)一樣,GPT-3 會(huì)在數(shù)據(jù)中尋找模式。為了簡(jiǎn)化操作,該程序已經(jīng)在一個(gè)巨大的文本語料庫(kù)上進(jìn)行了訓(xùn)練,并對(duì)其進(jìn)行了統(tǒng)計(jì)規(guī)律性的挖掘。這些規(guī)律性對(duì)人類來說是未知的,但它們被存儲(chǔ)為GPT-3的神經(jīng)網(wǎng)絡(luò)中不同節(jié)點(diǎn)之間的數(shù)十億個(gè)加權(quán)連接。
重要的是,在這個(gè)過程中不涉及人類的輸入:程序在沒有任何指導(dǎo)的情況下尋找和發(fā)現(xiàn)模式,然后利用這些模式來完成文本提示。例如,你在 GPT-3 中輸入單詞“fire”,程序就會(huì)根據(jù)網(wǎng)絡(luò)中的權(quán)重,就會(huì)接“truck”和“alarm”等單詞,比“l(fā)ucid”或“elvish”更有可能出現(xiàn)。
在 Porr 的博客文章中展示了一個(gè)樣本,標(biāo)題為《Feeling unproductive? Maybe you should stop overthinking》(感覺沒有效率?也許你應(yīng)該停止過度思考)。
Definition #2: 過度思考(OT)是指試圖提出已經(jīng)被別人想好的想法的行為。OT 的結(jié)果通常是不切實(shí)際的、不可能的、甚至是愚蠢的想法。
Porr提交了申請(qǐng)。他用簡(jiǎn)單的問卷填寫了有關(guān)其預(yù)期用途的表格。但是他也沒有等待。在接觸了伯克利AI社區(qū)的幾位成員后,他迅速找到了已經(jīng)可以使用的博士生。
研究生同意合作后,Porr編寫了一個(gè)小腳本供他運(yùn)行。它為GPT-3提供了博客文章的標(biāo)題和簡(jiǎn)介,并吐出了幾個(gè)完整的版本。
Porr的第一篇文章(在Hacker News上登載的文章)以及其后的每篇文章都是其中一項(xiàng)輸出的直接復(fù)制和粘貼。
他說:“從我想到這個(gè)主意并與博士生接觸以來,我實(shí)際上創(chuàng)建了博客,并且第一個(gè)病毒式傳播的博客-花費(fèi)了幾個(gè)小時(shí)。”
無需編輯即可生成內(nèi)容的訣竅是了解GPT-3的優(yōu)點(diǎn)和缺點(diǎn)。Porr說:“它擅長(zhǎng)于編寫漂亮的語言,而并不擅長(zhǎng)于邏輯和理性。” 因此,他選擇了一個(gè)受歡迎的博客類別,該類別不需要嚴(yán)格的邏輯:生產(chǎn)力和自助。
Porr 表示,他想證明 GPT-3可以作為人類作家被假冒。確實(shí),盡管該算法的編寫模式有些怪異,并且偶爾會(huì)出現(xiàn)錯(cuò)誤,但是在他對(duì)Hacker News的最高帖子發(fā)表評(píng)論的數(shù)十個(gè)人中,只有三到四個(gè)人懷疑它可能是由算法生成的。所有這些評(píng)論都立即遭到其他社區(qū)成員的反對(duì)。
Porr 說,他的實(shí)驗(yàn)還顯示了一個(gè)更為平凡但仍令人不安的替代方案:人們可以使用該工具生成大量的點(diǎn)擊誘餌內(nèi)容。他說:“可能會(huì)有大量平庸的博客內(nèi)容,因?yàn)楝F(xiàn)在進(jìn)入的障礙是如此的容易,” “我認(rèn)為在線內(nèi)容的價(jià)值將大大降低?!?/p>