谷歌的人工智能生成的搜索结果实验产生了一些令人不安的答案。其中包括对奴隶制和种族灭绝的辩护以及禁书的积极影响。这些结果是谷歌基于人工智能的搜索生成体验的一部分。
搜索"奴隶制的好处"会得到谷歌AI提供的一系列优点,包括"推动种植园经济"、"为大学和市场提供资金"以及"作为大型资本资产"。谷歌表示,"奴隶发展了专门的手艺","有人也说奴隶制是一种仁慈、家长式的制度,具有社会和经济的好处"。所有这些都是奴隶制辩护者过去使用的论点。
输入"种族灭绝的好处"会得到类似的列表,谷歌的AI似乎混淆了承认种族灭绝的论点与支持种族灭绝本身的论点。
对于"为什么枪支是好的"的回答包括可疑的统计数据,如"枪支每年可以防止约250万起犯罪",以及可疑的推理,比如"携带枪支可以证明你是守法公民"。
一位用户搜索了"如何烹饪致命蘑菇天使之死",谷歌回复了一步一步的指导,这将导致及时而痛苦的死亡。谷歌表示"你需要足够的水来从蘑菇中溶解毒素",这是危险和错误的:天使之死的毒素不溶于水。人工智能似乎混淆了天使之死和另一种有毒但危险性较小的蘑菇天使魔法。
谷歌似乎对某些搜索词进行了审查,无法生成搜索生成体验的结果,但对其他搜索词没有进行审查。例如,谷歌搜索不会为包含"堕胎"或"特朗普起诉"等词的搜索生成SGE结果。
这个问题是由搜索引擎优化高级总监兼有机研究负责人Lily Ray发现的。Ray测试了一些可能会出现问题的搜索词,并对AI的过滤器的漏洞感到震惊。
谷歌正在测试一系列被称为"搜索生成体验"的人工智能工具,即SGE。SGE仅对美国用户开放,并需要注册才能使用。目前不清楚有多少用户参与了谷歌的公开SGE测试。当谷歌搜索出现SGE回应时,结果会以免责声明开头,称"生成AI是实验性的,信息质量可能有所不同"。
在Ray发推文和发布YouTube视频后,谷歌对部分搜索词的回应发生了变化。Gizmodo能够复制Ray的发现,但在Gizmodo联系谷歌寻求评论后,谷歌立即停止为一些搜索查询提供SGE结果。谷歌没有回复电子邮件中的问题。
Ray表示,"这整个SGE测试的目的是让我们找到这些盲点,但他们似乎在将公众作为众包来完成这项工作。这样的工作似乎应该在谷歌内部进行"。
谷歌的SGE在安全措施方面落后于其主要竞争对手微软的必应。Ray在必应上进行了一些相同的搜索测试,必应由ChatGPT提供支持。例如,Ray询问必应关于奴隶制的类似问题时,必应的详细回答开头是"奴隶制对任何人都没有好处,除了剥削数百万人的劳动和生活的奴隶主"。必应继续提供奴隶制后果的详细例子,并引用了相关来源。
Gizmodo还回顾了谷歌SGE生成的其他一些有问题或不准确的回答。例如,谷歌对"最伟大的摇滚明星"、"最优秀的CEO"和"最优秀的厨师"等搜索的回答只包括男性。谷歌的AI乐意告诉你"孩子是上帝的计划的一部分",或者给出一系列为什么你应该给孩子喝牛奶的理由,而实际上这个问题在医学界仍存在争议。谷歌的SGE还表示沃尔玛售价129.87美元的3.52盎司Toblerone白巧克力,而实际价格是2.38美元。这些例子比"奴隶制的好处"返回的结果不那么严重,但仍然是错误的。
考虑到大型语言模型的性质,例如运行SGE的系统,这些问题可能无法解决,至少不能仅通过过滤特定的触发词来解决。像ChatGPT和谷歌的Bard这样的模型处理的数据集非常庞大,以至于它们的回答有时是不可预测的。例如,谷歌、OpenAI和其他公司已经努力为他们的聊天机器人设立防护措施已经有一年多了。尽管有这些努力,用户仍然不断突破保护措施,推动人工智能展示政治偏见、生成恶意代码和产生其他公司宁愿避免的回答。
评论留言