AI可以寫作了? Can AI Write Like a Human?

听新闻

【欢迎使用本网站“选文字听新闻”新功能:用鼠标选择以下文章的任何一段文字,就会出现一个蓝色播放按钮,点击按钮就会听到播放。】

月前,由Elon Musk创立的人工智能研究实验室OpenAI,宣布正在研发最新版本的GPT-3模型,亦即能够模仿人类语言的AI系统。

GPT-3是一种“语言模型”,通过统计单词的出现和跟在其他单词之后的机率,例如“香蕉”在“黄色”之后出现的机率,来呈现某一种语言,也可以对句子,甚至整个段落执行同类型的分析。它根据之前看到的单词,以预测下一个单词来生成文本。亦因如此,它接受了大量文本数据的训练,包括来自互联网和书籍的数千亿个单词,目前具有1,750亿个参数。而它读的文本愈多,算法便能愈精细,表现亦会愈好。

7月中,OpenAI向个别试用者提供了该软件的早期版本,使他们能够探索软件的功用。艺术家Arram Sabeti展示了GPT-3撰写短篇小说的能力,例如能够写出以哈利波特为主角的侦探故事:

哈利波特身穿着粗花呢套装、宽松的衬衫和无光泽的鞋子,坐在桌子后面,看来憔悴、凌乱而怨愤。(Harry Potter,in ratty tweed suit,unpressed shirt and unshined shoes,sits behind the desk looking haggard,rumpled and embittered.)

从事机器学习的艺术家Mario Klingemann,则分享了用GPT-3模仿Jerome K.Jerome风格的短篇小说,名为“在Twitter上的重要性(The Importance of Being on Twitter)”:

有一件古怪的事实,是伦敦人民视Twitter为最后一样感兴趣的社交形式。当我放假去海边的时候,发现整个地方像椋鸟笼般,叽叽喳喳地使用Twitter时,我被这个奇怪的事实震惊了。(It is acurious fact that the last remaining form of social life in which the people of London are still interested is Twitter.I was struck with this curious fact when I went on one of my periodical holidays to the sea-side,and found the whole place twittering like astarling-cage.)

这些结果令人眼界大开,AI模型也能写出与人类写作相似的文本。可是,该程式并不完美,有时它只重用一些记忆文本,而非从头开始生成新的文本。从根本上说,统计字词配对并不等于对世界有连贯的理解。GPT-3通常能够生成语法正确的文本,但这些文本或脱离现实。美国圣塔菲研究所(Santa Fe Institute)电脑科学家Melanie Mitchell解释:“它没有一个世界或任何一个世界的内部模型,因此无法进行需要这种模型的推理。”

OpenAI的研发科学家Amanda Askell亦承认,在大多数任务上,GPT-3离人类的水平还很远,而且很多时无法超越一些最佳的微调模型。除此之外,GPT-3还缺乏跨上下文的一致身份或信念,例如用“你好,我是Sarah,我喜欢科学”来提示它,它便会自称Sarah,并积极地谈论科学;反之,若以“你好,我是Bob,我认为科学完全是胡说八道”来提示它,它将自称为Bob,并谈论科学的坏处。

GPT-3目前亦未能避免AI学习常见的“偏见”问题,由于它的语言数据库包含互联网上学到的东西,当中存在许多道德或政治不正确的文本。如果你向它提示“黑人”、“犹太人”、“女性”和“同性恋”之类的关键字,结果通常会涉及种族主义、反犹太主义、厌女症和恐同症。

这是出于GPT-3的统计方法,以及它在根本上缺乏认知,在以互联网上收集的文字来训练后,便会注意到“女人”之类的词,通常与厌恶女性的写作相关联,于是在被询问时,便会无意识地将此重现。应对模型谈论敏感主题的方法之一,是增加过滤器以控制训练数据的质量。可是,由于涉及文本数量庞大,要完全控制数据的质量并非易事。

即使未臻完美,GPT-3的成就仍然触目。这样的工具有许多新用途,例如应用和改良对话机器人、协助软件工程师编写代码。但它仍然只是人类制造的工具,具有所有隐含的缺陷和局限性。Askell在简介GPT-3时便表示:“GPT-3并不是某种人类级别的AI,但是它确实证明了我们在扩展语言模型时,会发生有趣的事情。”

转自《CUP杂志

发表评论