AI提起筆來,要“刺殺小說家”

智東西(公眾號:zhidxcom
作者 |? 子佩
編輯 |? Panken

“有一些事煩擾著你,像是阻止人類歷史翻過新的篇章,你知道那一頁后面空空蕩蕩,正如這一夜,地球上最后的夜晚。你決定完成那一件事,給整個文明畫上一個完美的句號。”

看到這段話的時候,你會想到什么?

是曲折又飄渺的意境,還是不知所云的指代?

這段文字出自科幻作家陳楸帆的短篇小說《出神狀態》,在2019年被專門為書籍打分的“AI評論家”谷臻小簡評為年度小說,此前,谷臻小簡最喜歡的書是莫言的《等待摩西》。

AI提起筆來,要“刺殺小說家”

▲《出神狀態》原載于《小說界》2018年第4期,該期主題為“地球上最后的夜晚”

令人驚嘆的是《出神狀態》文章本身也是一部由AI參與創作的作品。

隔著評選與被評選的界限,“AI評論家”和“AI小說家”遙遙相望,在771篇短篇小說中認出了彼此。

這樣的“相認”是否代表著AI已經發展出自己的“文學審美”,窺得一絲人類創作的“天機”?

要回答這個問題,我們要從寫作型AI的發展歷史及其核心技術說起。

一、回顧三十年寫作之路:模仿容易創作不易

簡單的AI寫作從三十年前就開始了,最早的一個AI寫作系統誕生于1990年的加拿大,通過從數據庫中產生文字摘要的“資料轉文本”系統,生成英法雙語的氣象報告,其后也應用在經濟、商業報告和醫療報告上。

三十年過去了,科技世界早已“換了人間”,AI寫作也從機械化的“提取”和“填空”,升級到智能化的創作,并開始涉及更加復雜的文本創作。

2016年,日本兩支科研團隊就曾將AI引入小說創作中,并將其作品參加日本“星新一獎”比賽,騙過了評委的眼睛。

AI提起筆來,要“刺殺小說家”▲日本公立函館未來大學松原仁教授在報告會上演講

其中一支團隊的負責人松原仁教授表示,自己的團隊花費了四年時間來分析日本知名科幻小說家星新一的上千本小說,讓AI學習文章中使用的單詞種類、句子長短、斷句等寫作特征。當需要寫小說時,AI會基于人類設定好的出場人物、內容大綱等自動補充其余的文章內容。

但他也提到,AI只在小說創作中做出了20%的貢獻,并沒有學會怎么寫小說。

開篇中提到的《出神狀態》同樣是基于相似的思路。

研究人員直接調用Github上現成的代碼,通過調整參數來讓模型生成的文字盡可能接近人類寫出的文章。且基于對原作者上百萬字文章的學習,AI程序“陳楸帆2.0”可以通過輸入的關鍵詞和主語,自動生成幾十到一百字之間的段落。

盡管模型學會了原作者的寫作偏好,如更愛用什么句式、更偏好于怎樣的詞語描寫,但這也僅僅是學會了語句統計的規律,而寫作過程更像是從常用語料庫中隨機找到一些詞,按照寫作偏好拼接在一起形成段落,沒有明確的寫作意圖或者情感,也難以稱得上“文學”之名。

2018年末,世界上第一篇完全由AI創作,無人類參與的小說誕生了。

模仿美國文豪Jack Keroua《在路上》的創作過程,美國小說家Ross Goodwin帶著一個麥克風、一個GPS、一個攝像頭和一臺筆記本電腦上了路,并推出了AI小說《The Road》。

AI提起筆來,要“刺殺小說家”▲Jack Kerouac在1948-1950年橫穿美國,并創作了《在路上》

在旅途開始之前,Goodwin向模型輸入了6000萬字的文學作品訓練長短期記憶網絡(LSTM),其中三分之一是詩歌,三分之一是科幻小說,余下的三分之一是頹廢主義文學作品。

在旅程中,攝像機畫面以及GPS位移等變化會作為種子單詞(seed word)貫連起小說情節。Goodwin希望通過這種方式規避AI小說敘事混亂的問題,增加故事的連貫性。

可惜的是,雖然神經網絡可以基于種子單詞關聯到相關的詞語,組成句子,但他們并不知道自己在寫什么,也不明白這些話實際代表了什么含義,最終又都會駛向“超現實”寫作的范疇,成為一堆單詞的拼湊組合。

如何讓AI知其然,知其所以然?這就是自然語言處理(NLP,Natural Language Processing)的工作了。

二、AI寫作的“引擎”:詳解NLG全流程

作為AI皇冠上的明珠,NLP涵蓋的范圍也很廣,包括文本分類、機器翻譯、機器理解等,其中最與創作息息相關的就是自然語言生成(NLG,Natural Language Generation)。

自然語言生成的概念也非常易懂,其實就是機器理解的逆過程。

機器理解通過將人類語言轉化為機器語言(二進制或其他編碼方式),讓機器明白人類的意圖,而自然語言生成則是通過將機器語言轉化為人類語言,讓人類明白機器的意圖。

大部分NLG模型都遵循一個“從整體到細節”的過程,具體可以被拆分為以下六個步驟:

1、內容確定(Content determination):確定文本包含哪些信息,比如今天我們需要寫一篇AI寫作有關的文章,所以需要收集相關的資料。

2、文本結構(Text structuring):確定文本的邏輯結構,例如先說AI寫作的成就,再展開描述通過哪些技術實現AI寫作。

3、句子聚合(Sentence aggregation):合并意義相似的句子,讓閱讀過程更輕松。如將“AI寫作在1990年就出現了”和“最早,AI寫作應用于氣象、商業、醫療報告等領域”合并為“1990年,最早的AI寫作應用于氣象、商業、醫療報告等領域。”,讓閱讀過程更輕松易懂。

4、詞匯化(Lexicalisation):找到表述準確的詞語。

5、引用表達式生成(Referring expression generation):一些詞語能指代更大的范圍或引申義,例如當提到NLG,默認其是NLP下的一個分支,下文可以基于這一信息展開其他內容。

6、語言實現(Linguistic realisation):將所有單詞和短語組合成表意清晰的句子。

如下圖就展示了NLG模型如何從一張新生兒心率圖像生成文本。

AI提起筆來,要“刺殺小說家”

首先在內容確定階段確定了文本需要描述新生兒的心率變化,在文本結構部分,找出了新生兒三次心率過緩的時間,按時間順序排列。第三階段包括了句子聚合、詞匯化和引用表達生成,通過詞向量的排列組合找到適合的詞語,最后在實現階段組成通順的句子。

最早的NLG模型可以追溯到1993年的機器翻譯模型,Peter F. Brown和Della Pietra將統計方法應用于模型中,實現英法語互譯。

其后更多的新方法、新突破也投入了NLG模型中:啟發式模型、雙語并行語料庫、對抗性訓練等,讓NLG模型在近三十年的歷史中,乘風破浪,不斷“進擊”。

三、AI寫作“進階”:多創新突破理解障礙

NLG是怎么運行的,我們已經很清楚了,但至于為什么目前AI還是無法成為“小說家”,說到底,還是理解不夠透。

我們以早期NLG算法模型馬爾可夫鏈舉例。

AI提起筆來,要“刺殺小說家”▲馬爾可夫鏈示意圖

它會使用當前單詞來預測句子中的下一個單詞。?

比如,當模型僅使用以下句子進行訓練:“AI能寫出詩歌”和“AI寫出小說”,那在文本生成階段,“AI”后面一定會接著“寫”,而“寫”則有一半的可能接上“詩歌”或者“小說”。

馬爾可夫鏈基于訓練集中詞頻的統計來判斷詞語之間相連的可能性,這也反映了大部分算法模型暗含的問題,由于訓練集的不同,預測結果很可能不同。模型大多數時候并不是“主動”地創作文本,而只是“被動”地根據統計結果猜測下一個可能出現的詞是什么。

這樣一來,NLG模型確實可以創作出看起來非常像小說的小說,但是仔細一讀,卻發現它“虛有其表”。

研究人員也采用了許多方法去突破這一瓶頸,其中RNN(遞歸神經網絡)、LSTM神經網絡和Transformer(自注意力機制)是較為常用的方法。

RNN通過構建輸入輸出的非線性關系,實現更靈活的雙向預測;LSTM則通過四層神經網絡(RNN僅有一層)允許網絡選擇性地僅跟蹤相關信息,且觀測到離預測距離更遠的上下文。

AI提起筆來,要“刺殺小說家”

▲分別為RNN和LSTM神經網絡的架構圖

而Transformer則是目前許多大型語言模型的基石。

簡單來說,Transformer可以通過編碼器處理任意長度的輸入文本,在執行較少步驟的同時,忽略詞語位置,直接模擬句子中所有詞語之間的關系。

2020年,美國查普曼大學的學生利用基于Transformer的GPT-3模型, 創作了影片劇本《律師》,走紅社交網絡。

影片開始是一個女人坐在沙發上看書,一陣敲門聲響起。

她起身開門,發現一個汗流浹背、狂躁不安的年輕人站在她家門口,他說:“我是耶和華見證人(Jehovah’s Witnesses)。”

但這個女人看起來不為所動,說:“對不起,我不和律師講話。”

該男子焦躁了起來,試圖用一個故事引起她的注意。

AI提起筆來,要“刺殺小說家”▲影片《律師》截圖

影片制作Eli Weiss表示:“我們認為AI寫作非常有趣,它將劇情帶向了意想不到的方向,而且從故事寫作的角度來看,AI寫的每一個轉折都正中觀眾心坎。”

結語:創作天機,不可泄露

盡管AI寫作的應用日趨廣泛,但無論是劇本還是小說,呈現在觀眾面前的作品都是經過人工修改和調整。

人們所驚嘆的創造力,也不來源AI本身的思考,而是根據自身訓練數據預測出“下一個最有可能出現的詞”。

所以如果我們看一看AI生成的原文就會發現,它們句法完整、辭藻華麗,卻往往不知所云,缺乏文學創作中最重要的思想性和情感共鳴。

至于AI是否已經窺得創作“天機”,或許目前它最好的用法,還是作為人類創作者的參考工具。