Google正在努力消除其AI搜索结果中的错误和可能危险的回答。然而,新的"AI概述"功能有时会把社交媒体和讽刺网站上的玩笑和讽刺内容错误地当作事实来呈现。Google最近发布的人工智能搜索结果引起了广泛关注,但原因并非如预期那样正面。作为新推出的“Gemini Era”战略的一部分,这家科技巨头在上周宣布了一系列新型人工智能工具。随之而来的是其标志性的网络搜索服务的显著变化,现在搜索结果中的问题答案以自然语言的形式直接展示在网站链接之上。尽管Google的这次更新让搜索技术更加先进,能够应对更加复杂的用户提问,但它也引发了一些担忧。比如,AI在处理搜索结果时,有时会将错误的或者具有误导性的信息呈现给用户,这在涉及敏感话题如优生学时尤其成问题。优生学曾被错误地用于历史上的一些不人道政策,因此其信息的准确性和敏感度尤为重要。此外,AI在识别一些具体事物,比如区分有毒和无毒的蘑菇时,也存在准确度不足的问题。这提醒我们,在使用AI搜索工具时,对于健康和安全相关的查询,需要格外小心,并尽可能寻求专业的确认。Google AI在提供"AI概述"答案时,有时会引用来自Reddit等社交媒体的内容,而这些内容可能原本是出于幽默或讽刺的目的。这导致了一些明显错误或荒谬的回答被提供给用户。例如,有用户报告称,当他们询问如何应对抑郁时,Google AI居然建议"跳下金门大桥"。还有的回答荒谬地确认了一种反重力能力,即人可以在空中停留,只要他们不向下看。这些例子表明,尽管AI在提供搜索结果方面取得了进步,但在准确性和可靠性方面仍存在不足,需要进一步改进。Google与Reddit的合作初衷是为了让用户能够更便捷地找到并参与他们感兴趣的社区和讨论。然而,这项合作也暴露出了一些风险,尤其是在AI处理来自Reddit的内容时。由于AI可能没有足够的能力去辨别信息的真伪或背景,它可能会不加甄别地采纳并引用Reddit上的信息。这种不加选择的信息采纳可能导致一些误导性甚至荒谬的建议出现在搜索结果中。比如,AI曾经给出了一个不当的建议,即孩子们每天至少应该吃一块小石头,并且还错误地标注了这一建议来源于加州大学伯克利分校的地质学家。这个例子说明了AI在处理网络信息时可能会忽略信息的可信度和适宜性,从而产生误导。Google虽然已经对一些明显荒谬的回答进行了删除或更正,但AI生成模型有时会产生不准确或虚构的答案,这种现象被称为"幻觉"。这些"幻觉"可以被视为不真实的陈述,因为AI在创造一些并非事实的内容。同时,Google AI曾错误地推荐使用胶水以防止奶酪从比萨上滑落,这一建议源自Reddit上一个十年前的评论。OpenAI的ChatGPT模型曾发生编造事实的情况,包括错误地指控法学教授Jonathan Turley性侵,这一指控基于他未曾参与的一次旅行。这一事件反映了AI在处理信息时可能过于自信,未能准确区分互联网上内容的真伪。此外,人工智能的过度自信可能导致它不加选择地接受互联网上的所有信息为真实,这种信任可能导致错误的判断,比如,在反垄断法的背景下错误地对公司作出有罪的裁定,并错误地将责任归咎于谷歌的前高管。当用户在Google上搜索与流行文化相关的问题时,AI搜索建议的功能有时会带来一些幽默或令人困惑的结果。这可能是因为AI在处理流行文化内容时,会遇到理解上的挑战,尤其是当这些内容包含幽默、讽刺或特定社会背景时。同时,AI可能难以准确把握这些内容的真正意图,导致提供的建议或答案可能与用户的预期不符,引发一些意想不到的反应。此外,Google AI对于儿童摄入石头这一问题提供了更新后的建议,提出可能的原因包括孩子的好奇心、感官处理上的难题或是饮食上的障碍。这一点再次表明,在利用AI提供的信息时,特别是当这些信息关乎健康和安全的建议,我们必须要格外谨慎,并且一定要寻求专业的意见和帮助。结语:Google AI的搜索建议功能虽然在技术上取得了显著进展,但其准确性和可靠性方面的不足仍可能导致严重后果。从Reddit等社交媒体平台上不加选择地采纳信息,到对优生学等敏感话题的误导性信息,再到法律领域内的不当自我定罪,这些事件都凸显了AI在信息筛选和判断上的重大缺陷。此外,AI模型编造事实或产生"幻觉"的问题,也表明其在处理复杂问题时的局限性。因此,我们必须对AI提供的信息保持警惕,寻求专业意见,并呼吁开发者和研究者持续改进AI技术,以确保其为人类带来更多益处而非风险。#GoogleAI #准确性 #AI模型 #可靠性
用戶喜愛的交易所
已有账号登陆后会弹出下载