今日消息!人工智能搜索误导用户?谷歌陷“胶水披萨”风波

博主:admin admin 2024-07-09 01:11:40 715 0条评论

人工智能搜索误导用户?谷歌陷“胶水披萨”风波

近日,谷歌人工智能搜索结果建议用户往披萨里加胶水一事引发热议。该建议源自网络恶搞视频,但人工智能系统却未能识别,并将其作为真实信息呈现给用户。这一事件暴露了人工智能搜索系统在识别虚假信息方面存在的缺陷,也引发了人们对人工智能技术安全性的担忧。

事件回顾

5月底,国外网红凯蒂·诺托普洛斯在社交平台上发布了一段视频,称她在制作披萨时意外将胶水当成了鸡蛋加入其中。视频中,凯蒂面不改色地将披萨吃下,并表示味道“还不错”。

这段视频迅速走红网络,也引起了谷歌人工智能系统的注意。在用户搜索“往披萨里加什么”时,谷歌人工智能系统会自动推荐相关结果。其中,一个结果显示“加八分之一杯胶水”,并附上凯蒂的视频链接。

人工智能“幻觉”

这一结果引起了许多用户的质疑。有用户指出,往披萨里加胶水显然是危险的,谷歌人工智能系统竟然会推荐这样的结果,令人难以置信。

对此,谷歌方面解释称,人工智能系统是基于大量网络数据进行训练的,难免会受到虚假信息的误导。在凯蒂的视频走红后,相关关键词与“披萨”的搜索量急剧增加,导致人工智能系统将视频中的错误信息当成了真实结果。

引发担忧

谷歌人工智能搜索结果误导用户事件,暴露了人工智能系统在识别虚假信息方面存在的缺陷。这并非个例,此前也有报道称,一些人工智能系统被植入虚假信息,导致其做出错误判断。

人工智能技术的发展给人类社会带来了巨大便利,但也带来了一些新的风险。如果人工智能系统无法识别虚假信息,就有可能被别有用心者利用,造成严重后果。

如何应对?

为了解决人工智能“幻觉”问题,需要从以下几个方面入手:

  • 加强对人工智能系统的训练,提高其识别虚假信息的能力。
  • 建立健全的人工智能伦理规范,防止人工智能技术被滥用。
  • 提高公众对人工智能技术的认知,帮助人们识别虚假信息。

人工智能技术是一把双刃剑,既能造福人类,也能带来风险。只有正视人工智能技术的风险,才能更好地利用这项技术,造福人类社会。

大模型热度依旧,落地应用仍需破局:周鸿祎谈人工智能发展新挑战

北京讯,6月6日,360公司创始人、董事长兼CEO周鸿祎在360AI新品发布会暨开发者沟通会上表示,自去年大模型技术发布以来,虽然取得了长足的进步,但在落地应用方面仍然存在较大的挑战,离用户还比较远。

周鸿祎指出,大模型技术拥有强大的学习和处理能力,能够在自然语言处理、计算机视觉等领域取得卓越的成果。然而,大模型的应用场景仍然比较局限,主要集中在科研和开发领域,尚未真正走进大众生活。

究其原因,主要有以下几点:

  • **大模型的训练和使用成本高昂。**大模型需要大量的算力和数据进行训练,这对于大多数企业和个人来说都是难以承受的。
  • **大模型的易用性和可解释性差。**大模型的内部结构复杂,普通人难以理解和使用,也无法解释其做出决策的依据。
  • **大模型存在伦理问题。**大模型可能会被用于恶意目的,例如制造虚假信息或操纵舆论。

针对这些挑战,周鸿祎建议:

  • 加强大模型的基础研究,降低训练和使用成本。
  • 开发更加易用和可解释的大模型。
  • 建立大模型的伦理规范,防止其被滥用。

周鸿祎强调,大模型技术拥有广阔的应用前景,但其发展也面临着诸多挑战。只有共同努力,解决这些挑战,才能让大模型技术真正走进大众生活,服务社会。

除了周鸿祎的观点,业界人士也对大模型的未来发展表达了看法。

  • **中国人工智能学会副理事长、清华大学教授唐杰表示,**大模型技术是人工智能发展的必然趋势,但其落地应用需要一个长期的过程。在未来,大模型技术将与其他人工智能技术融合发展,在更多领域发挥作用。
  • **百度副总裁、百度研究院院长吴恩达表示,**大模型技术已经取得了重大突破,但仍然处于早期发展阶段。未来,大模型技术将更加开放,更加易用,为更多开发者和用户所用。

总体而言,大模型技术正在快速发展,但其落地应用仍需破局。只有解决成本高、易用性差、伦理问题等挑战,大模型技术才能真正发挥其潜力,服务社会。

The End

发布于:2024-07-09 01:11:40,除非注明,否则均为安排新闻网原创文章,转载请注明出处。