您的机器人作家在等待…… GPT-3 是内容创作者的死亡吗?

已发表: 2021-02-01

作为一个靠创作内容谋生的作家/编辑,我对人工智能深感矛盾……

一方面,我无法想象没有它的生活。

在过去的四年里,我住在一个国家——越南——在那里我只说或理解少数几个单词和短语(我知道,我知道,这很可悲)。

我的方向感也很差……

漫步在西贡(hẻms)无尽的街道和小巷中是一种巨大的快乐源泉......

除非你有一个实际的目的地或开会迟到......

(来源:越南快递)

或者是雨季。

如果没有谷歌地图和谷歌翻译,住在这里对我来说不是一个选择……

所以,我非常感谢人工智能已经提供的东西。

但越来越多地,使我现在的生活成为可能的相同技术似乎正在成为我将 phở 摆在桌面上的能力的生存威胁。

我远不是唯一一个对人工智能有点害怕的文字匠……

正如《纽约时报》科技专栏作家 Farhad Manjoo 最近所说,“不久之后,你卑微的通讯员可能会被机器赶出牧场。”

对于每个害怕被GPT-3等 AI 驱动技术淘汰的内容创作者,至少有一个企业主或联盟营销人员对这种可能性充满期待……

毕竟,谁愿意与太人性化的作家和编辑打交道(并支付报酬)?

那么,计算机编写和编辑您的内容的梦想/噩梦距离成为现实有多近?

让我们来了解一下……


目录
什么是 OpenAI 和 GPT-3?
GPT-3 如何工作?
GPT-3 和 NLG 危险吗?
GPT-3 和气候变化
GPT-3 和 SEO
采访 Przemek Chojecki — Contentyze 创始人
采访 Steve Toth — SEO Notebook 创始人
采访 Aleks Smechov — Skriber.io 的创始人
我可以解雇我的作家和编辑吗?
通用人工智能(AGI)——比人类更人性化?
增强作家——而不是取代他们


什么是 OpenAI 和 GPT-3?

OpenAI 于 2015 年由 Y Combinator 前总裁、现任 OpenAI 首席执行官 Elon Musk 和 Sam Altman 等科技巨星创立。

2018 年,OpenAI 发表了第一篇关于语言模型的论文,他们称之为 Generative Pre-trained Transformer——简称 GPT。

用最简单的话说, GPT 处理大量人类编写的文本,然后尝试生成与人类编写的文本无法区分的文本——所有这些都只需要最少的人工干预或监督。

当我采访 The Edge Group 的 NLP SaaS 开发人员和作家 Aleks Smechov 时,他有点嘲讽地将 GPT 称为“类固醇的自动完成”。

这显然是还原性的,但从根本上说是正确的……

GPT(和其他 AI 驱动的 NLG 模型)试图以与人们自然书写或说话的方式无法区分的方式预测前一个单词后面的单词。

GPT 的创新步伐令人叹为观止……

2019 年 2 月,OpenAI 向公众发布了 GPT-2 的限量版……

2019 年 11 月,完整的 GPT-2 NLG 模型开源。

GPT-2 引起了轰动……

OpenAI 最初推迟向公众发布完整模型,因为它可能过于危险——只是在宣布他们“没有看到滥用的有力证据”之后才将其开源。

这是股东拥有的公司(如谷歌和 Facebook)对可以极大颠覆我们生活方式的技术做出判断的又一个例子,几乎没有公众监督。

NLG 模型变得“更聪明”——或者至少在模仿人类说话和书写方式方面做得更好——至少部分基于工程师给它们的参数数量。

数据集越大,参数越多,模型就越准确。

GPT-2 在包含 850 万个网页的数据集上进行了训练,并具有 15 亿个参数……

不甘示弱,微软在 2020 年初发布了图灵自然语言生成(T-NLG)。

图灵机——现代计算机的前身

T-NLG 的基于变压器的模型以著名科学家艾伦·图灵命名,使用了 175 亿个参数——超过 GPT-2 的 10 倍。

OpenAI 于 2020 年 6 月发布了其自然语言处理 (NLP) 和自然语言生成 (NLG) API 的最新版本——GPT -3

迄今为止公开的最强大和最先进的 NLG 技术——训练了1750 亿个参数(是不到六个月前发布的 T-NLG 的 10 倍)——GPT-3 受到了热烈的欢迎……

坦率地说,所有的喧嚣开始变得震耳欲聋。

如果要信任 Twitter,那么可能很快就会失业的不仅仅是内容创作者……

无论您是医生、律师还是以编写代码为生 — GPT-3 都在为您服务。

GPT-3 诗歌
(来源:Gwern.net)

事实证明,即使是利润丰厚的诗歌行业也可能处于砧板上……

其他创造性的努力呢?

你厌倦了你的 Spotify 播放列表吗?

OpenAI Jukebox 可以满足您的需求。

这是一段由人工智能生成的大卫鲍伊风格的小曲:

鲍伊不是你的包吗?

Jukebox 以 2Pac 艺术家的风格为您提供了近 10,000 首 AI 生成的“歌曲”供公众使用:

2Pac 开放式人工智能
2Pac 与 Z-Ro

到 Z-Ro…

图帕克人工智能

OpenAI 几乎不遗余力地展示 AI 的创造潜力,还开发了 DALL·E。 DALL·E 从简单的文字提示中创建出色的图像。

有没有想过用鳄梨交叉的椅子会是什么样子?

鳄梨椅 Dall-E

让DALL·E让你摆脱痛苦。

需要为您的附属网站的“关于我们”页面提供“作者简介”照片来构建 EAT?

此人不存在
资料来源:是的,存在

猜猜上图中的每个头像都有什么共同点? 此人不存在。

显然,OpenAI 的技术已经颠覆的不仅仅是内容创作,还有它是如何运作的?

GPT-3 如何工作?

自然语言生成(NLG)长期以来一直是人工智能和自然语言处理(NLP)的最终目标之一。

早在 1966 年,随着 Eliza(一个伪装成治疗师的基本聊天机器人)的发明,机器已经让人们相信他们可以与人类进行有意义的对话。

最近,OpenAI 的 Generative Pre-trained Transformer (GPT) 模型和 Microsoft 的 Turing Natural Language Generation (T-NLG) 等 NLG 技术以其生成令人印象深刻的书面内容的能力震惊了专家和记者。

大多数 NLG 技术都由神经网络提供支持——这是机器学习深度学习分支的关键部分,它试图模仿人类大脑。

2011 年,当斯坦福大学教授和计算机科学家 Andrew Ng 与人共同创立了 Google Brain 时,深度学习作为解决 AI 开发挑战的解决方案开始受到关注。

深度学习吴恩达
(来源:吴恩达)

深度学习背后的基本原则是,人工智能模型学习的数据集越大,它们就越强大。

随着计算能力和可用数据集(例如整个万维网)的不断增长,GPT-3 等 AI 模型的能力和智能也在不断增长。

许多深度学习模型都是有监督的,这意味着它们是在由人类标记或“标记”的海量数据集上进行训练的。

CSNI 面孔
(来源:CSNI

例如,流行的 ImageNet 数据集包含超过 1400 万张由人类标记和分类的图像。

一千四百万张图像听起来可能很多,但与可用数据量相比,这只是沧海一粟。

用人们标记的数据训练的监督机器学习模型的问题在于它没有足够的可扩展性。

需要太多的人力,这会极大地阻碍机器的学习能力。

许多有监督的 NLP 模型都在此类数据集上进行了训练,其中许多是开源的。

早期 NLP 模型中广泛使用的一个数据集或语料库包含来自安然公司的电子邮件,安然公司是美国历史上最大的股东欺诈行为之一。

GPT-3 如此具有变革性的很大一部分原因在于它可以在无人监督的情况下处理大量原始数据——这意味着要求人类对文本输入进行分类的重大瓶颈基本上被消除了。

Open AI 的 GPT 模型在大量未标记的数据集上进行训练,例如:

  • BookCorpus,一个(不再公开可用的)数据集,包含来自 16 个不同类型的 11,038 本书未出版的书籍和来自英语维基百科文本段落的 25 亿个单词
  • 从 Reddit 上高评价文章的出站链接中抓取的数据——包括超过 800 万份文档
  • Common Crawl — 一种开放资源,包含可追溯到 2008 年的 PB 级网络爬取数据。据估计,Common Crawl 语料库包含近一万亿个单词。

现在这是一些大数据……

人工智能骷髅
(来源:有线)

GPT-3 和 NLG 危险吗?

我们生活在一个“另类事实”和“假新闻”的时代——许多观察家称之为后真相时代。

在一个观点、感受和阴谋论有可能破坏共同客观现实的环境中,很容易想象 GPT-3 和其他 NLG 技术如何被武器化……

不良行为者可以轻松制造大量虚假信息,这些虚假信息在很大程度上与人类编写的内容无法区分——进一步使人们远离可验证的事实和共同的真相。

使用人工智能制作的“深度伪造”视频已经制作了很多——比如这个以虚拟伊丽莎白女王为特色的视频……

但我们低估了书面文字的力量,后果自负。

NLG 技术(如敌对外国政府部署的社交媒体聊天机器人)在美国和其他西方民主国家煽动社会不和和影响选举的作用已得到充分证明。

随着 GPT 和其他 NLG 模型在模仿人类语言方面变得越来越有效,使用该技术大规模制造恶意虚假信息的潜力也呈指数级增长。

同样重要的是要记住,虽然 GPT-3 非常擅长以令人信服的方式猜测前一个单词之后的下一个单词,但它不受事实的约束,并且关心它所说的是否真实......

以下是 Tom Simonite 在《连线》杂志上对这些缺点的描述,“GPT-3 可以生成令人印象深刻的流畅文本,但它通常与现实脱节。”

记住 GPT-3 和所有当前的 NLG 依赖于人类的“提示”也很重要。 它们是高度复杂的预测模型,但它们无法独立思考。

“GPT-3 没有任何世界或任何世界的内部模型,因此它无法进行需要这种模型的推理,”圣达菲研究所教授 Melanie Mitchell 说。

对于 GPT-3 正确“诊断”儿童哮喘的每一个令人印象深刻的例子,都有一个 GPT-3 聊天机器人鼓励虚拟患者自杀的相应恐怖故事……

在这样的一集中,谈话有了一个良好的开端:

GPT-3 治疗师

然后谈话变得更加黑暗:

GPT-3 自杀
(来源:人工智能新闻)

GPT-3 在道德和偏见方面也存在严重问题……

Facebook 的人工智能副总裁、深度学习和人工智能的深思熟虑的批评家 Jerome Pisenti 在推特上发布了 GPT-3 在给出以下单词提示时生成的推文示例:犹太人、黑人、女性和大屠杀。

GPT-3 连线
(来源:thoughts.sushant-kumar.com)

事实证明,GPT-3 不仅能够说出不宽容、残忍且常常是不可原谅的事情。

但很多人也是如此……

考虑到基于 Transformer 的 NLP/NLG 模型从天生有缺陷的人类创建的在线内容中学习,期望机器提供更高标准的话语是否合理?

也许不是,但允许 GPT-3 在没有人为监督的情况下发布内容可能会产生无法预料且非常不受欢迎的结果。

Timnit Gebru 谷歌
AI 伦理学家 Timnit Gebru(来源:The Verge)

在另一个与人工智能偏见相关的令人不寒而栗的发展中,谷歌最近解雇了其领先的人工智能伦理学家之一 Timnit Gebru。

据报道,Gebru 被终止的至少部分原因是她研究了“与部署大型语言模型相关的风险,包括它们的碳足迹对边缘化社区的影响以及它们长期存在辱骂性语言、仇恨言论、微攻击、刻板印象和其他针对特定人群的非人性化语言。”

当像谷歌和 OpenAI 这样的公司在人工智能偏见和道德问题上自律时,我们真的可以期望他们将这些担忧置于商业利益之上吗?

由于谷歌已经对他们的另一位顶级人工智能伦理学家玛格丽特米切尔采取了惩罚性行动,玛格丽特米切尔是谷歌研究人工智能伦理团队的联合负责人(前身为 Gebru),答案似乎是否定的。

“不要作恶”就这么多。

人工智能与气候变化
(来源:FastCompany)

GPT-3 和气候变化

另一个经常被忽视的方式 GPT-3——以及一般的人工智能——可能对人类和地球都有害,这两者都需要大量的计算。

估计得出的结论是,一次 GPT-3培训课程需要的能量相当于 126 个丹麦家庭每年消耗的能量,并产生相当于驾车行驶 700,000 公里的碳足迹。

人工智能远不是制造危险温室气体的最大罪魁祸首(我指的是煤炭、奶牛和汽车。)但人工智能技术的碳足迹并非微不足道。

斯坦福大学语言学系主任兼计算机科学教授 Dan Jurafsky 表示:“使用更多的计算能力和更多的数据来解决越来越大的问题正在大力推动机器学习的发展。” “发生这种情况时,我们必须注意这些重计算模型的好处是否值得为环境影响所付出的代价。”

NLP 成长
(来源:Statista)

从 2018 年到 2025 年,NLP 技术市场预计将增长 750% 以上……

GPT-3(及其后代)等 NLG 模型对环境的影响可能会随之增加。

人工智能研究人员非常清楚对环境的潜在破坏,并正在采取措施来衡量和减少它。

但是,尽管科学家做出了最大努力,但气候变化对人类(和地球)构成的“生存威胁”意味着人工智能技术对全球变暖的任何加剧都不应掉以轻心。

GPT-3 和 SEO

内容是数字营销的命脉……

因此,难怪众多 NLG 初创公司都以 SEO 为目标。

人工智能已经对作家如何创建 SEO 驱动的内容产生了重大影响——想想 Surfer 和 PageOptimizerPro……

但是,有哪些应用声称可以完全消除对作家的需求?

或者一个应用程序可以编写与您自己编写的电子邮件没有区别的电子邮件?

很容易看出内容创建自动化平台的吸引力……

特别是如果您创建内容的唯一目标是推动自然搜索流量,并且不担心为您的读者提供价值。

许多这样的应用程序处于测试阶段或等待名单阶段——但有一些已经开始营业。

我采访了自动内容创建 SaaS Contentyze 的创始人 Przemek Chojecki,了解他对 NLG 技术发展方向的看法……

我还询问了 SEO Notebook 创始人 Steve Toth 和 NLP 应用程序开发人员和数据驱动的故事讲述者 Aleks Smechov,以收集他们对 NLG 对 SEO 和一般网络内容的潜在影响的看法。

Prezemek Chojecki

内容化
Prezemek Chojecki

采访 Przemek Chojecki — Contentyze 的创始人*

是什么启发了您创建 Contentyze?

我自己写了很多,我最初的目标是建立一套算法,让我的写作过程更快更顺畅。 那是成功的,所以我决定做一个平台,以便其他人也可以使用它。

谁是您理想的目标客户?

目前,我的目标受众是营销人员和 SEO 专家。 这个群体经常需要大量的内容,Contentyze 可以帮助他们加快流程。 但理想情况下,我希望 Contentyze 对任何需要编写文本的人有用:学生、办公室工作人员、内容创建者。 真的任何人!

你能给我一个示例用例吗?

目前,最常见的用例是从标题生成博客文章或从链接生成文本摘要。

第一个用例是这样工作的:你给 Contentyze 一个提示——比如一个句子或一个问题,比如“如何在企业中使用人工智能?”

Contentyze NLG

单击生成,等待 1-2 分钟,然后获取文本草稿。

它并不总是理想的,但它总是独一无二的。 您可以使用相同的提示/标题重复此过程几次,以获得更多文本。

然后你挑选,瞧,你的博客上有一个文本。

Contentyze“擅长”什么样的内容?

目前,Contentyze 非常擅长总结文本。

它在生成文本方面也相对较好,但还没有我想要的那么一致。

Contentyze 不擅长什么样的内容?

重写功能仍然需要做很多工作才能使它变得更好。

我们已经允许人们重写文本,但我对它现在的工作方式并不满意。

如果你不想做一个简单的内容旋转(去同义词库并为接近的东西改变形容词),那么进行良好的重写是相当具有挑战性的。

您目前是否看到 Contentyze 增加了人类作家/编辑的工作或完全取代它们?

绝对增加了人类作家的作品。 我的最终目标是创建一个完美的写作助手,可以帮助你在写作过程的任何阶段写任何东西:从构思到起草和编辑。

可能在这个过程中,一些文案的工作会被取代,尽管这不是我的目标。

我试过 Contentyze 并注意到一些事情。 它(可以预见)在短内容(例如产品评论等)方面表现更好。您认为 Contentyze 在不久的将来会在长内容方面表现更好吗? 为什么?

由于我们目前的计算能力有限,它可以更好地处理短内容。 这完全是我们目前正在处理的技术问题。 文本越长,处理它所需的计算能力就越大。

当我要求 Contentyze “重写”最近关于 SEOButler 的一篇关于 Apple 可能开发搜索引擎以与 Google 竞争的文章时,第一句话是有道理的:

未来几年,谷歌的搜索引擎可能会受到新竞争对手的威胁

但这些是以下句子:

苹果和谷歌正在讨论一项可能的交易,谷歌可能会接管这家搜索巨头在 iPhone 上的搜索功能。

据报道,苹果将其智能手表业务出售给三星的交易存在疑问。

据报道,谷歌正在考虑在俄罗斯推出一个新的搜索引擎,以与 Alphabet 的谷歌和微软的 Bing 等公司竞争。

Apple 最新的 iPhone 7 Plus 是一系列旨在与 Google 的 Android 操作系统竞争的高端智能手机中的最新款。

Bing 是世界上最大的搜索引擎,其搜索结果被全球许多其他搜索引擎使用,包括 Google、Yahoo 和 Microsoft。

如果您想在 Internet 上查找某些内容,则无需为每次搜索使用单独的搜索引擎。

越深入改写,就出现了与原文章完全无关的句子:

如果您正在寻找要听的新歌或要购买的新专辑,您可以在很多地方找到它。

如果您想找到世界上最好的音乐,您现在可以在网上找到它。

以及完全不正确的陈述:

谷歌最新的搜索更新是这家长期落后于微软和苹果等竞争对手的搜索巨头向前迈出的可喜一步。

您如何看待您的最终用户使用这些类型的结果?

正如我所说,重写是现在最糟糕的工作功能。 使用摘要选项您不会得到类似的东西。

在使用提示创建新内容时,我得到了类似的结果。 您是否认为 Contentyze 在其发展的这个阶段被用作人类作家的头脑风暴工具,而不是用于准备发布的内容?

是的,我不指望人们在现阶段直接在生产层面使用它。

另一方面,快速起草文本非常有用,这样人工编辑可以对其进行审查,进行必要的更改以确保质量,然后将其发布。

我希望 Contentyze 最终能够完成 80% 的写作工作,而人类作家将完成剩下的工作。

我看到 Contentyze 和其他 NLG 初创公司直接向 SEO 和联盟营销人员推销他们的 SaaS 应用程序。 为什么?

实际上,这是很自然的——这些观众经常需要内容,所以他们正在积极寻找可以帮助他们的工具。 Contentyze 在几乎没有营销的情况下增长到超过 3,000 名用户,几乎完全是有机地发现的。

您是否认为从长远来看,人们大规模使用像 Contentyze 这样的应用程序来生成大量纯粹用于 SEO 的内容,而不考虑为读者提供价值是否存在任何危险? 如果发生这种情况或类似情况,你认为谷歌会修改他们的搜索算法来发现和惩罚人工智能生成的内容吗?

这就是为什么 GPT2/GPT3 的创建者 OpenAI 制定了严格的政策来监控其算法的使用的原因。 对于 GPT3 及其整个申请流程尤其如此。

我认为我们前进时需要小心,因为这种技术很容易被用来在互联网上“垃圾邮件”,而不会带来任何价值。

整个 SEO 游戏肯定会改变。 谷歌将像以前多次那样调整其算法,但很难预测会发生什么。

我的赌注是在未来 3-5 年内,人工智能生成的内容与人类书面内容无法区分,因此如果谷歌想要惩罚人工智能生成的内容,他们将不得不发明其他东西。

无论如何,我不会区分人类内容和人工智能内容。 我们应该只询问给定的内容是否提供价值,无论是谁或什么创造了它。

你还有什么想分享的吗?

感谢您的采访,请访问我们的 contentyze.com — 注册是免费的(无需信用卡),所以您可以尝试一下!

我们非常重视反馈,我们希望使我们的工具尽可能好,以便营销领域的人们可以使他们的工作更有效。

史蒂夫托特

SEO笔记本
史蒂夫托特

采访 Steve Toth — SEO Notebook 的创始人*

自 SEO Notebook 于 2018 年推出以来,它已成为SEO 必读的单一运营商通讯。

我们很幸运地让史蒂夫为 SEOButler 的最后三个专家综述做出了贡献,几年来我一直通过电子邮件与他通信。

我也有幸在清迈 SEO 2019 上见到了史蒂夫。所以当我看到他在 Affiliate SEO Mastermind Facebook 小组上发布关于为 SEO 客户测试 GPT-3 生成内容的帖子时,我不得不联系他的想法……

您如何看待 GPT-3 和其他 NLG 技术在未来几年对 SEO 的影响?

我认为这会削弱用户对 Google 的信任。 我认为人们会更多地向他们的朋友寻求建议。

您如何利用 GPT-3 为 SEO 创建支持内容?

慎用。 我有一位客户想要这样做。 所以我在指导他们,但这个项目将影响我未来使用它的程度。

在使用 GPT-3 生成的内容时,可读性对您来说有多重要?

巨大的。 这就是为什么我认为自己不会过多地推动 GPT-3。

GPT-3 可能在页外有它的用途,但它并不能完全取代文案。

是否有任何类型的内容(例如,附属网站的产品评论)在不久的将来 NLG 会取代人类作家?

人们可能会使用 GPT-3 内容构建整个附属网站,然后等待查看排名并稍后改进副本。 我认为这是主要的用例。

阿列克斯·斯梅乔夫

Skriber.io
阿列克斯·斯梅乔夫

采访 Aleks Smechov — Skriber.io 创始人和 NLP SaaS 开发人员*

作为 SEOButler 博客的贡献者和 The Edge Group 的时事通讯顾问,Aleks 还是 NLP SaaS 应用程序 Extractor 和 Skriber 的创始人/开发者。

您是否看到 GPT-3 或其他 NLG 技术在不久的将来取代某些类型内容的作者和编辑?

我将专注于新闻方面。

已经有非人工智能软件正在创建基于事实的小型文章。

一个例子是自动洞察以及他们如何编写 NCAA 篮球报道和排序。

我认为,如果您将 NLG 与基于模板的文本生成相结合,您可以创建更重要/更长的故事或聚合其他故事的部分。

但对于更严肃的新闻业,我只看到人工智能在促进新闻编辑室,而不是取代它。

即使使用 GPT-3 或其他大型自然语言模型,除了需要大量的事实检查之外,获得一个好的句子或段落就像轮盘赌。

这比让记者写这篇文章更费力。

您是否认为 NLG 在不久的将来会增强内容创建者的角色? 如果是这样,怎么做?

当然,为了创建已经写好的句子/段落的替代品,总结,或者像上面提到的那样,聚合来自多个来源的内容(例如,对于综述,无论如何可能都需要编辑)。

对于 GPT-3 等 NLG 技术的普及,您最担心的 3 个问题是什么?

NLG 使用以下内容填充互联网:

  • 不实垃圾
  • 臃肿的 SEO 内容
  • 看起来与其他所有内容非常相似的内容。

并不是说这些东西还没有出现在互联网上...... <笑脸表情符号>

我可以解雇我的作家和编辑吗?

这是简短的回答:不。

人工智能已经证明自己在狭窄的特定任务上与人类相同或优于人类——从击败世界上最伟大的国际象棋和围棋选手到检测癌症。

但是,尽管 NLG 在模仿自然语言方面变得非常出色,但要取代熟练的人类作家和编辑还有很长的路要走。

即使是最复杂的 NLG 也依赖于人类的“提示”——更不用说密集的编辑和事实检查了……

创造力——尤其是与提出原创想法以及在不同的信息和灵感来源之间建立独特联系相关时——不是 GPT-3 的一部分。

GPT-3 可以模仿描述世界、情感和体验的文本——但它没有自己的东西。

以下是 GPT-3 本身对这个问题的看法……

GPT-3 替换写入器

等等,让我们再问一遍……

GPT_3 示例 1

当然,您可以继续掷 GPT-3 骰子(我更愿意将其视为俄罗斯轮盘赌),挑选最好的部分,然后将其拼接成比科学怪人怪物的内容更好的东西。

最好是具有连贯观点的拼凑而成,可以真正吸引您的观众。

那么科学怪人就需要彻底的事实核查。

请注意,即使是第二个示例中的第一句话也是一个垃圾词沙拉。

Alan Turing 已经去世 66 年了——他是否正在收购“网络写作初创公司”是值得怀疑的。

或者这是对微软图灵 NLG 的引用? 不管怎样,它肯定没有收购一家公司,也没有让 GPT-3 曝光。

可以做所有这些——或者你可以雇一个作家。

GPT-3 及其后代——或任何其他 NLG 模型——在取代作家和编辑之前必须变得更加聪明。

而且更人性化。

比人类更人性化
(来源:泰瑞尔公司)

通用人工智能(AGI)——比人类更人性化?

NLP 和 NLG 可能(也可能不会)成为通向通用人工智能 (AGI) 道路上的关键步骤。

长期以来被认为是人工智能的圣杯,AGI 机器就是你在电影中看到的机器——“机器人”可以做任何人类可以做的事情,甚至更好。

OpenAI 无疑将目光投向了创造 AGI。 在宣布微软向 OpenAI 投资 10 亿美元时,该公司是这样定义的:

“AGI 将是一个系统,能够将一个研究领域掌握到世界专家的水平,并且比任何人都掌握更多的领域——就像一个结合了居里、图灵和巴赫技能的工具。

解决问题的 AGI 将能够看到人类无法看到的跨学科联系。 我们希望 AGI 与人们合作解决当前棘手的多学科问题,包括气候变化、负担得起的高质量医疗保健以及个性化教育等全球挑战。

我们认为它的影响应该是给予每个人经济自由去追求他们认为最有成就感的事情,为我们所有人的生活创造今天难以想象的新机会。”

听起来像乌托邦,对吧?

但这是一件好事吗?

从历史上看,乌托邦根本没有成功:

“当不完美的人尝试完美——个人的、政治的、经济的和社会的——他们失败了。 因此,乌托邦的黑暗镜子是反乌托邦——失败的社会实验、压制性的政治制度以及由乌托邦梦想付诸​​实践的霸道经济体系。” ——迈克尔·舍默

以下是 GPT-3 对实现 AGI 的评价:

GPT-3 通用人工智能

这可能只是一厢情愿,GPT-3,但这次我倾向于同意。

增强作家

增强作家——而不是取代他们

GPT-3 在上述示例的最后一句话中再次可以说是错误的……

在 NLP、NLG 甚至对 AGI 的探索上,都取得了实质性的进展。

而且创新的步伐不会很快放缓。

Less than a month into 2021, the Google Brain team announced a new transformer-based AI language model that dwarfs GPT-3 when measured by the number of parameters.

Google's Switch Transformer is trained on 1 trillion parameters — roughly 6 times as many as GPT-3.

Little is known about potential applications for the Switch Transformer model at the time of writing, but the NLP arms-race shows no signs of abating.

Maybe the day will come when machines replace human writers and editors, but I'm not holding my breath.

As Tristan Greene, AI editor for The Next Web, says about Switch Transformer:

“While these incredible AI models exist at the cutting-edge of machine learning technology, it's important to remember that they're essentially just performing parlor tricks.

These systems don't understand language, they're just fine-tuned to make it look like they do.”

At this point, I'm sure it's clear that I have a dog in this fight.

As objective as I've tried to be in writing this article, I do have a vested interest in human content creators remaining relevant and superior to machines.

But that doesn't mean I don't see how NLP and NLG technology can make me better at what I do.

In truth, AI has been augmenting my writing and editing for years…

I use Rev to auto-transcribe audio and video interviews. I also use it to create transcripts of SEOButler founder Jonathan Kiekbusch and Jarod Spiewak's Value Added Podcast to help me write the show notes more quickly and accurately.

And Grammarly is a powerful tool for even the most diligent editor or proofreader.

As GPT-3 and other advanced NLP models become more accurate and “trustworthy,” their potential ability to summarize long-form content — particularly academic research papers — could prove extremely valuable.

Suppose the future I have to look forward to is one where AI eliminates some of the drudgery of creating SEO-driven content — and I have to edit and polish informational content partly composed by machines instead of writers.

I guess I can live with that…

I may not have a choice.

*Each Q&A has been edited and condensed for clarity.