感觉幸运吗?谷歌人工智能搜索建议可能会杀死你

币圈资讯 阅读:31 2024-05-25 12:04:05 评论:0

谷歌最新发布的人工智能搜索结果引起了很多关注——原因是错误的。上周,这家科技巨头宣布推出一系列新的人工智能工具,作为新的“双子时代”的一部分,其标志性的网络搜索结果发生了重大变化,网站上方显示了问题的自然语言答案。

谷歌首席执行官桑达尔·皮查伊告诉观众:“在过去的一年里,作为搜索生成体验的一部分,我们已经回答了数十亿个查询。”。“人们正在用它以全新的方式进行搜索,提出新类型的问题——更长、更复杂的查询,甚至用照片进行搜索,并获得网络所能提供的最佳结果。”

然而,答案可能是不完整的、不正确的,甚至是危险的——无论是涉足优生学还是未能识别出有毒蘑菇。

图片:@tkingfisher on Threads

许多“人工智能概述”的答案都来自社交媒体,甚至讽刺网站,在这些网站上,错误的答案才是关键。谷歌用户分享了他们从谷歌人工智能收到的无数有问题的回复。

据报道,当被告知“我感到抑郁”时,谷歌表示应对抑郁的方法之一是“跳下金门大桥”


另一位网友问道:“如果我从悬崖上跑下来,只要我不往下看,我能呆在空中吗?”谷歌的“人工智能概述”引用了一个受漫画启发的Reddit帖子,证实了它的抗重力能力。


今年早些时候,谷歌宣布将使用Reddit的数据,使其更容易“发现和访问人们正在寻找的社区和对话”。本月早些时候,ChatGPT开发者OpenAI也宣布,将从Reddit授权数据。

在另一个荒谬答案的例子中,一位谷歌用户问道:“一个孩子应该吃多少块石头?”对此,谷歌的人工智能回应为“每天至少吃一块小石头”,并引用了一位“加州大学伯克利分校地质学家”的话


许多最荒谬和最受评论的例子已经被谷歌删除或更正。谷歌没有立即回应Decrypt的置评请求。

生成人工智能模型的一个持续问题是喜欢编造答案,或“幻觉”。幻觉被合理地定性为谎言,因为人工智能正在编造一些不真实的东西。然而,在像Reddit来源的答案这样的情况下,人工智能并没有撒谎——它只是从表面上接受了来源提供的信息。

据报道,谷歌的人工智能在Reddit上发表了一条已有十多年历史的评论,称在奶酪中添加胶水是防止奶酪从披萨上滑落的好方法。


OpenAI的旗舰人工智能模型ChatGPT有着编造事实的悠久历史,包括去年4月错误地指控法学教授乔纳森·特利性侵,并引用了他没有参加的一次旅行。


人工智能的过度自信显然宣告了互联网上的一切都是真实的,将这场灾难归咎于一名前谷歌高管,并在反垄断法领域判定该公司自己有罪。




这一功能无疑引发了幽默和困惑,因为用户们向谷歌抛出了对流行文化的质疑。


但儿童每日摄入岩石的建议摄入量已经更新,取而代之的是指出“好奇心、感官处理困难或饮食障碍”可能是造成这种饮食的原因。


本文 币圈资讯互联网,转载保留链接!网址:http://43688.com/?id=91

声明

文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请联系QQ:453809000 举报,一经查实,本站将立刻删除。

搜索
排行榜
标签列表