【外评】谷歌人工智能搜索功能建议使用胶水让奶酪粘在披萨上
谷歌的新搜索功能使用人工智能来回答用户的一些问题,但因其不准确的回答而受到批评,包括告诉用户吃石头和将披萨奶酪与胶水混合。
人工智能概述上周在美国推出,上个月在英国向部分用户开放。
该功能旨在简化信息搜索,但自推出以来,该功能行为失常的例子充斥着社交媒体。
在一个例子中,人工智能(AI)似乎告诉用户将胶水与奶酪混合,使其粘在披萨上。它甚至给出了具体细节:”你还可以在酱汁中加入约⅛杯无毒胶水,使其更具粘性”。
该建议似乎来自 11 年前 Reddit 上的一个笑话帖子,不应遵循。吃胶水很危险。
另一个回复告诉用户,42位美国总统中只有17位是白人。”发现这一错误的鲍比-艾林(Bobby Allyn)发帖说:”通过谷歌的人工智能概述,我学到了很多关于美国历史的知识。
人工智能概述还声称美国前总统巴拉克-奥巴马是穆斯林。在奥巴马总统任职期间,有多种不实的阴谋论称,尽管他是一名基督徒,但却秘密信奉伊斯兰教。
奥巴马总统的前发言人汤米-维特尔发布了这一搜索结果 并讽刺道:”谷歌新的人工智能概览搜索开了个好头”
在回答 “烹饪鸡肉的安全温度是多少 “的问题时,一位用户发布的结果显示谷歌的答案似乎是 38 摄氏度。
安全温度实际上是 73.9 摄氏度,鸡肉应该一直保持这个温度。如果温度再低,就有可能患上多种危险疾病。
X 用户 Heshiebee 说,在不该吃的东西方面,《人工智能概述》还建议用户 “每天至少吃一块小石头”。
该回复甚至引用了 “加州大学伯克利分校地质学家 “作为建议的来源,称岩石 “含有对消化系统健康非常重要的维生素和矿物质”。不过,该回复也警告说,吃石头 “可能有危险”。
说白了,你不应该吃石头。这样做可能会要了你的命。
不过,谷歌表示,这些答案并不能代表该工具的总体运行情况。
“谷歌发言人说:”我们看到的例子一般都是非常不常见的查询,并不能代表大多数人的经历。
“绝大多数人工智能概述都提供了高质量的信息,并附有深入挖掘的网络链接。在推出这种新体验之前,我们进行了广泛的测试,以确保人工智能概述符合我们的高质量标准。
“在出现违反我们政策的情况时,我们已经采取了行动–我们也在利用这些孤立的例子继续完善我们的整体系统”。
本文文字及图片出自 Glue cheese to pizza and eat rocks, says Google's new AI feature as mistakes flood social media
你也许感兴趣的:
- 我受够了维护 AI 生成的代码
- 【外评】作为全栈开发人员如何跟上 AI/ML 的发展?
- 大模型集体失智!9.11和9.9哪个大,几乎全翻车了
- 【外评】为什么似乎没有人在意人工智能给出了错误的答案?
- 【程序员搞笑图片】AI 编程
- 【外评】黑客工具可提取 Windows 全新人工智能 Recall 功能收集到的所有数据
- 【外评】如果人工智能能胜任你的工作,也许它还能取代你的首席执行官
- 【外评】人工智能提供假冒的 Facebook 客户服务电话导致一男子陷入骗局
- 【外评】训练与聊天不同:ChatGPT 和其他 LLM 不会记住你说的每一句话
- 【外评】让Windows完全回忆(Recall)用户所做的一切是一个隐私雷区
你对本文的反应是: