众所周知,一个社区的核心是用户与用户之间的交流,而 AI 生成的虚假内容一旦泛滥很容易摧毁这种交流,这也是所有在线社区极力避免的。但方式呢?除了依靠个人去分辩,很多时候我们又必需依赖 AI,比如前文提到 V2ex,其站长@Livid 为了分辩 AI 生成的灌水内容,就会直接反过来询问 AI「是否由 AI 生成」,以此作为是否封禁用户的依据。
于是本年 2 月 1 日,OpenAI 转头又推出「AI 生成内容识别器」,目的是识别文本由 AI 生成还是人类撰写,本质上是一个分辩真实内容和 AI 生成内容的分类器。不外,OpenAI 在博客中指出,该识别器对 AI 生成内容的检测成功率仅为 26%:
可能还不如网友瞎猜。
国内也呈现了类似的 AIGC-X。这是一款由人民网部属传布内容认知国家重点尝试室、中国科学技术大学、合肥综合性国家科学中心人工智能研究院联合推出的 AI 生成内容检测东西,撑持对 AI 生成内容和人工生成内容的分辩。尽管有报道称 AIGC-X 对中文文本检测的准确率超过 90%,但实测并不如意。
即便有这么多错误,图/AIGC-X,Bing
可以说到目前为止,所有试图用 AI 打败 AI 的测验考试都没有成功,本身这条路径也存在不少争议,有人就将其形容为新时代的「自相矛盾」——用最强的矛打最强的盾。
对比之下,「水印」成了越来越广泛的选择。5 月谷歌 I/O 大会上,谷歌率先颁布发表公司的每一张 AI 生成图片城市内嵌水印,水印无法肉眼识别,但可通过谷歌搜索引擎等软件读取并以标签显示出来,用以提醒用户该图片由 AI 生成。不久后,Shutterstock、Midjourney 等 AI 应用也颁布发表将撑持这种新的标识表记标帜方式。
但 AI 生成文字还在等待一个切实可行的方案。在 AI 生成内容识别器掉败之后,OpenAI 也在考虑在生成的文本中插手数字水印,以降低模型被滥用带来的负面影响。OpenAI 对齐团队(主要负责系统安全性)负责人 Jan Leike 暗示,OpenAI 已经探索在文本中插手水印。
不外,OpenAI CEO Sam Altman 在接受采访也提醒到,不存在一个完美的 AI 生成文字识别东西,原因是人们总会弄清楚他们要改削多少文字,还会呈现改削输出文本的其他东西。
写在最后
之前在某个论坛上看到一个帖子,一位网友通过搜索引擎跳到知乎的一则回答,看到了一半才意识到这则回答概略是由 AI 生成,瞬间有种被喂 x 的感觉。
关键是如果主动使用 ChatGPT 之类的生成式 AI,我们可能对它的真实性、胡说八道城市有必然的预期,但显然我们无法阻止其他人使用并发布 AI 生成的虚假内容。打个比方,如果对历史并不熟悉的人,在知乎上看到一则言之凿凿讨论亚瑟王的回答,会不会误认为亚瑟王是真实存在的人物,甚至是一位女骑士(型月作品中的设定)。
但坦白讲,除了很明显的 AI 生成风格,我们很难在熟知范围之外分辩内容是否由 AI 生成,独一能做的,可能就是更加审视我们所看到的内容。