人工智能生成的内容正在飞速增长
AI,即人工智能,是指执行通常需要人类智能的任务的系统,例如感知、学习、推理、问题解决和决策制定。现在,各种形式和大小的 AI 工具呈爆炸式增长。AI 驱动的内容生成器的广泛采用使得大规模快速生成内容比以往任何时候都更加容易。只需点击几下,任何人都可以生成一篇半心半意的通用文章,一个人必须对其进行编辑以适应他们的业务基调并使其符合事实。
使用这些闪亮的新工具很容易被所有的兴奋所吸引并生成大量内容。然而,在使用这些 AI 时,我们不能也不应该忽视一些事情。使用 AI 工具创建您的内容会产生与其他人类似的内容,您可能不会感到惊讶。首先,这对您的 SEO 不利。它还会导致一个更大的问题,影响到我们所有人。这些内容通常根本不多样化和包容性。它是由接受过偏见内容训练的 AI 创建的。而且这些内容往往是同一类型的人写的。让我们深入研究一下,看看可以做什么!
使用人工智能工具将创建一个回音室
人工智能生成内容的主要问题之一是缺乏原创性和真实性。虽然算法可以模仿现有内容的风格和基调,但它们无法取代真人的创造力和独创性。人工智能生成的内容往往缺乏细微差别、深度和原创性,这可能会损害品牌的信誉和声誉。此外,使用人工智能生成的内容可能会延续刻板印象、偏见和排他性做法,因为算法往往会复制现有的模式和偏好。
由于 AI 内容工具让创建内容变得如此简单,现在比以往任何时候都更容易制作与其他人相同的内容。如果每个人都使用相同的 AI 来创建内容,那么就没有人在创建新内容。实际上,我们将创建一个回音室,没有新的想法或主意进来。这导致了一个狭隘和非包容性的世界观。François Chollet 发布了一条令人愉快的推文,表达了他对 AI 内容的看法:
与此相关,Futurism 的 Maggie Harrison 写了一篇有趣的文章,内容是关于 ChatGPT 本质上是一台自动人工解释机器。只有这种远非包容性的世界观在很多方面对社会有害。它没有考虑到我们这个世界上人和观点的巨大差异。 它也不支持过去经常被忽视和边缘化的人群。
人工智能训练集有偏差
为 Google Bard、微软的 Bing 助手和 OpenAI 的 ChatGPT 等提供支持的大型语言模型 (LLM) 是根据当今互联网的内容进行训练的。虽然大多数人愿意相信互联网是多元化和包容性的,但它也有一些非常值得怀疑的角落。我们应该努力争取一个比今天更具包容性的世界。 使用互联网上的公共论坛来训练您的 AI 可能不是最好的主意。近年来,这导致人工智能变得种族主义和有偏见。
几个例子
使用当今的互联网来训练 AI 存在多个包容性问题。这意味着 AI 本身会成为种族主义、性别歧视或能力歧视,因为他们接受培训的内容是种族主义、性别歧视或能力歧视。让我们看几个例子。
1. 亚马逊的 AI 招聘失败
以亚马逊的招聘人工智能为例。他们将此工具开发为招聘的“圣杯”,以帮助他们找到合适的人选。亚马逊使用十年来主要是男性的简历来训练人工智能。当然,这是整个科技行业的反映,但这也意味着该工具变得性别歧视。他们可能无意创造一个性别歧视的人工智能,但因为它所提供的数据偏向于更多的男性雇员,它认为它在做正确的事情。如果他们用来训练的数据是有偏见的,人工智能将永远有偏见。
2. 图像创建也可能有问题
AI 走向种族主义的另一个例子是 AI 图像创作。如果你想生成一对牵手的浪漫情侣的图像,你会发现所有的生成器都以白人为主,这一点并不少见。2021 年 7 月,Dall-E 2 更新了其工具,以“更准确地反映世界人口的多样性”。不幸的是,它仍然会生成非多样性的照片。 当您在提示中添加“差”一词时,它只会显示有色人种。
这不仅限于有色人种; LGBTQI+ 社区也成为这些非包容性图像的牺牲品。当然,这些工具可以对其系统进行调整。要反映我们所处的世界,我们还有很长的路要走。正如 Zoe Larkin (Levity) 在关于 AI 偏见的博客文章中所写:“不幸的是,AI 无法避免人类偏见的倾向。它可以帮助人类做出更公正的决定,但前提是我们努力工作以确保人工智能系统的公平性。”
不要忘记人工编辑
在某种程度上,使用 AI 工具作为捷径是可以接受的。然而,今天,内容创作者在使用它们时没有考虑为 AI 提供数据的数据。这导致回音室的加强和扩展,并有助于创建相似的内容以及产生种族主义和非包容性/多样化的图像。因此,内容创作者需要更多地了解人工智能工具使用的数据和算法,以确保他们的内容真实、多样化和包容,并且不会延续刻板印象或排他性做法。
网上很多内容不具有代表性
亚马逊的招聘工具和 Dall-E 2 是 AI 内容生成器走向流氓的几个例子。人工智能内容工具走同样的路也就不足为奇了,因为互联网上充斥着由说英语的平庸的白人顺势男性编写的内容。例如,牛津大学互联网研究所的一项研究发现,世界西方地区的编辑(主要是男性)为维基百科做出了大部分贡献,从而造成了一种扭曲的世界观。即使这是您的目标受众的一部分,也不是唯一的受众。目前,来自各种背景、各种经历的人只占所听到声音的一小部分。如果我们想打破这种不断重复相同内容的循环,我们需要改进写作和创造更具包容性的内容。 这样,我们就可以在更具包容性和多样性的互联网上训练未来的人工智能。
让今天的内容更适合未来
尽量不要成为会议上重复别人所说的那个人。用您的声音制作内容,并让尽可能多的观众可以访问它。所有这一切都为每个人创造了一个更好的互联网。与您想要接触的受众进行适当的沟通。当您以包容的方式写作时,您,我的朋友,正在帮助创建将使未来的互联网变得更美好的内容。
注意你自己的偏见
不仅 AI 有这种偏见;我们都有一种无意识的偏见,我们正在努力消除和进化。这就是让我们来到这里的首要原因。我们都需要做得更好,才能编写更具包容性的内容。只有花时间编写包容性内容,我们才能塑造今天的互联网。反过来,这意味着我们可以使用更具包容性和更少贬损性的语言来训练未来的人工智能工具。我们知道,这是一项重大责任。这不会在一夜之间改变。需要花时间。我们无疑会弄错。但是,通过现在努力创建多样化和包容性的内容,我们将开始朝着更好的互联网前进。
所以,我们能做些什么?
您可以在内容创建过程中使用 AI 工具。但是,您必须在点击发布之前进行人工编辑。对 AI 工具推出的内容持批评态度。确保进行事实核查。并进行急需的调整。您不应该只调整内容中的语气,还应该检查它的多样性和包容性。您应该查明任何有问题的内容。将它改进到任何人都可以与之相关并且您对此感到满意的程度。
如何使您的内容更具包容性
可能很难知道从哪里开始。这就是工具可以帮助您走上更具包容性和多样化的互联网之路的地方。例如,我们在 SEO 中的包容性语言分析。这种新的分析可以帮助您发现您何时可能无意识地使用了一个不具有包容性的术语,或者实际上是种族主义、性别歧视或能力歧视的术语。
就像我们的可读性分析一样,它会在您的文本中查找我们数据库中的种族主义、性别歧视、非包容性或贬损性词语。它将帮助您了解那些非包容性的单词和短语。您将获得反馈和适当的替代方案,这些替代方案可以改进您的内容,以确保网站访问者感到与您交谈。只要朝着正确的方向迈出几小步,我们就有希望让世界和网络成为子孙后代更具包容性和多样性的地方,以及未来的人工智能。