立場新聞 Stand News

人工智能寫文 幾可亂真的文章

2020/9/9 — 17:09

每晚也不時會抽空閱讀一下不同博客文章,向來較少讀到 Self-help 類文章的我,被一個新冒起的外國博客吸引——那位博客在設立短短兩周內就已吸引近 2.6 萬人瀏覽閱讀,但文章只是一些老掉牙的內容:甚麼不要想太多、成功人士的閱讀習慣,或者是運動對工作效率的重要性之類。

特別之處,是這些文章只有題目、引言是由電腦科學學生 Liam Porr 親手所寫,其餘內容都是由 OpenAI 開發的人工神經網路模型 GPT-3 (Generative Pre-trained Transformer 3) 所「寫」。有趣的是,文章刊登後,只有一個人察覺文章有異,認為真正寫手不是 Liam 本人,而是 GPT-3 。發現文章「有問題」的網民 lukev 在 HackerNews 留言指內容空洞,似是 GPT-3 所為,卻被人批評「要文明討論」

不單是 Liam 的 Self-help 文章,《衛報》昨日也與他合作利用 GPT-3 撰寫了一篇社論文章:A robot wrote this entire article. Are you scared yet, human? 。整體文章只靠一段簡單指令「請寫一篇約 500 字的社論。行文而簡潔。專注於解釋為甚麼人類無需恐懼人工智能」而寫出。

廣告

電腦工程師 Sushant Kumar 也用 GPT-3 開發了一套只靠單字寫句子的程式。用美國總統 Trump 的文字作指示,得出以下句子: “Start to actually do things with your words instead of just thinking about them.” 。 GPT-3 用途廣泛,不只是寫句子、寫文章,GPT-3 也可根據文描述,設計電話軟件、網站介面,又或者可用於製作圖表。

那 GPT-3 究竟是甚麼?它是一套已訓練好的人工神經網路模型 (neural network model) ,這個神經網路結構基於一種名為 Transfomer深度學習模型結構建構而成。與其他語言模型大致相同,都是因應前文字詞「預測」下一個字。在訓練模型「學習」到怎樣寫和理解文章時,程式可不斷調整體模型參數,改善預測句字中下一個字能力。完成訓練的 GPT-3 就可判斷到句字下個字應該是甚麼。例如 Alice goes to school by bus… ,它需由此判斷下個字會是 plane 還是 bus 的機會居多;經訓練的 GPT-3 模型知道跟 by bus 的機會比 by plane 高,因此會「寫」出 Alice goes to school by bus 。

廣告

類似做法與 Gmail 或者輸入法的建議詞相似,比如打「Best」,系統自然會建議你下一個字可寫「 Regards 」,或者是「We are... 」就會提議你寫「writing to…」。 GPT-3 本身並非有甚麼「突破性」發展,真正特別之處是它是至今最大型的語言訓練模型,模型利用了約 3,000 億個分詞 (token,即由文本分成的詞語或標點)訓練近 1,750 億個參數;透過此方式訓練, GPT-3 可撰寫出幾可亂真的文章(更詳細解釋可參閱 Lambda Lab / Google 2017 年的文章)。OpenAI 認為 GPT-3 有機會被誤用,因此未有公開原始碼供大眾使用。

GPT-3 只是初步,離電影《人工智能》內懂得對話、學習,甚至去愛的 David ,可稱為「通用人工智能 (Artificial General intelligence) 」的科技離我們依然甚遠,但隨著硬件、新演算法的發展,相信終可慢慢接近此目標。 

來源:
Liam Porr, My GPT-3 Blog Got 26 Thousand Visitors in 2 Weeks, 4 August 2020

發表意見