應該有不少讀者知道 OpenAI 釋出的自然語言處理模型 GPT-3 了吧!這組強大的語言模型可用來分析英文文章、字串等語料,並依這些基礎上自動產生文字。再講白話一點,只要餵一段文字進去,這組 AI 就自動幫你生成接下來的文章。由於 GPT-3 的參數量夠大(1750 億組),而且夠通用,無論政治文宣、新聞報導、一般發文或是技術文章,什麼領域都適用,甚至還被 Zeppelin Solutions 技術長 Manuel Araoz 稱為「繼比特幣以來的最大突破」。
它的基礎原理是這樣:當你輸入一個或一段文字後,GPT-3 會這種字跟哪些字有高度相關,例如你輸入「fire」後,它會依照權重判斷「truck」和「alarm」會比「lucid」或「elvish」更常跟 fire 一起出現,然後一串一串接著下去自動產生文章。
看到這裡就不禁令人擔心:既然這麼強大,那會不會跟 deepfake 一樣被人誤用?果不其然有例子出現了。根據 MIT Technology Review 報導,一名美國大學生 Liam Porr 使用 GPT-3 產出一篇假部落格文,登上了全球知名技術論壇「Hacker News」的榜首。
Liam Porr 是加州大學柏克萊分校主修電腦科學的大學生,他目前在 Facebook 實習,並且也在 NVIDIA 的 AI Team、Symantec 實習過,看得出來是箇中高手;但他自己卻說要用 GPT-3 寫假文章其實「非常容易、一點都不複雜,這才是最讓人害怕的地方」。
他的第一篇文章名為《Feeling unproductive?Maybe you should stop overthinking》(感覺效率不佳?也許你應該停止過度思考)。感覺就像是上班族會有興趣讀的職場文;事實上他也真的是刻意選擇這種生產力、自學類,不需要嚴格邏輯的文章進行實驗。
由於 GPT-3 目前沒有開放給一般大眾使用,只有開放 API 給學術研究人員,所以 Liam Porr 先跟一位已經申請過 API 的校內博士生,共同合作進行這項實驗。然後他餵了一段有標題、簡介的腳本給 GPT-3,從 GPT-3 產出的文章中挑出一篇再編輯一下格式後,就貼到 Hacker News 去開始實驗。
很快的,《Feeling unproductive?Maybe you should stop overthinking》在短短幾個小時內就迅速傳播開來,PV 一瞬間就有 26,000 次;的確在 Hacker News 後來的幾十則回文中有三、四個質疑文章是用 AI 生成的,但大多數人都沒有察覺到這件事。
之後他部落格裡除了第一篇引導註冊文之外,他以每兩天一篇的頻率發文,而且所有的文章都是用 GPT-3 生成。直到最後,他才真的寫了一篇自曝文,表示「這一切都是 GPT-3 的實驗」。
倒是他個人申請 GPT-3 API 使用權到現在都還沒通過,不過經歷了這場社會實驗,他倒是憂心重重:「這種技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」
這是他的部落格,有興趣的人不妨看看他是怎麼進行這場社會實驗的。
核稿編輯:李柏鋒
延伸閱讀: