今日消息!人工智能搜索误导用户?谷歌陷“胶水披萨”风波
![博主:admin](http://0f759.rz8.site/skin/yan/picture/0.png)
人工智能搜索误导用户?谷歌陷“胶水披萨”风波
近日,谷歌人工智能搜索结果建议用户往披萨里加胶水一事引发热议。该建议源自网络恶搞视频,但人工智能系统却未能识别,并将其作为真实信息呈现给用户。这一事件暴露了人工智能搜索系统在识别虚假信息方面存在的缺陷,也引发了人们对人工智能技术安全性的担忧。
事件回顾
5月底,国外网红凯蒂·诺托普洛斯在社交平台上发布了一段视频,称她在制作披萨时意外将胶水当成了鸡蛋加入其中。视频中,凯蒂面不改色地将披萨吃下,并表示味道“还不错”。
这段视频迅速走红网络,也引起了谷歌人工智能系统的注意。在用户搜索“往披萨里加什么”时,谷歌人工智能系统会自动推荐相关结果。其中,一个结果显示“加八分之一杯胶水”,并附上凯蒂的视频链接。
人工智能“幻觉”
这一结果引起了许多用户的质疑。有用户指出,往披萨里加胶水显然是危险的,谷歌人工智能系统竟然会推荐这样的结果,令人难以置信。
对此,谷歌方面解释称,人工智能系统是基于大量网络数据进行训练的,难免会受到虚假信息的误导。在凯蒂的视频走红后,相关关键词与“披萨”的搜索量急剧增加,导致人工智能系统将视频中的错误信息当成了真实结果。
引发担忧
谷歌人工智能搜索结果误导用户事件,暴露了人工智能系统在识别虚假信息方面存在的缺陷。这并非个例,此前也有报道称,一些人工智能系统被植入虚假信息,导致其做出错误判断。
人工智能技术的发展给人类社会带来了巨大便利,但也带来了一些新的风险。如果人工智能系统无法识别虚假信息,就有可能被别有用心者利用,造成严重后果。
如何应对?
为了解决人工智能“幻觉”问题,需要从以下几个方面入手:
- 加强对人工智能系统的训练,提高其识别虚假信息的能力。
- 建立健全的人工智能伦理规范,防止人工智能技术被滥用。
- 提高公众对人工智能技术的认知,帮助人们识别虚假信息。
人工智能技术是一把双刃剑,既能造福人类,也能带来风险。只有正视人工智能技术的风险,才能更好地利用这项技术,造福人类社会。
大模型热度依旧,落地应用仍需破局:周鸿祎谈人工智能发展新挑战
北京讯,6月6日,360公司创始人、董事长兼CEO周鸿祎在360AI新品发布会暨开发者沟通会上表示,自去年大模型技术发布以来,虽然取得了长足的进步,但在落地应用方面仍然存在较大的挑战,离用户还比较远。
周鸿祎指出,大模型技术拥有强大的学习和处理能力,能够在自然语言处理、计算机视觉等领域取得卓越的成果。然而,大模型的应用场景仍然比较局限,主要集中在科研和开发领域,尚未真正走进大众生活。
究其原因,主要有以下几点:
- **大模型的训练和使用成本高昂。**大模型需要大量的算力和数据进行训练,这对于大多数企业和个人来说都是难以承受的。
- **大模型的易用性和可解释性差。**大模型的内部结构复杂,普通人难以理解和使用,也无法解释其做出决策的依据。
- **大模型存在伦理问题。**大模型可能会被用于恶意目的,例如制造虚假信息或操纵舆论。
针对这些挑战,周鸿祎建议:
- 加强大模型的基础研究,降低训练和使用成本。
- 开发更加易用和可解释的大模型。
- 建立大模型的伦理规范,防止其被滥用。
周鸿祎强调,大模型技术拥有广阔的应用前景,但其发展也面临着诸多挑战。只有共同努力,解决这些挑战,才能让大模型技术真正走进大众生活,服务社会。
除了周鸿祎的观点,业界人士也对大模型的未来发展表达了看法。
- **中国人工智能学会副理事长、清华大学教授唐杰表示,**大模型技术是人工智能发展的必然趋势,但其落地应用需要一个长期的过程。在未来,大模型技术将与其他人工智能技术融合发展,在更多领域发挥作用。
- **百度副总裁、百度研究院院长吴恩达表示,**大模型技术已经取得了重大突破,但仍然处于早期发展阶段。未来,大模型技术将更加开放,更加易用,为更多开发者和用户所用。
总体而言,大模型技术正在快速发展,但其落地应用仍需破局。只有解决成本高、易用性差、伦理问题等挑战,大模型技术才能真正发挥其潜力,服务社会。
发布于:2024-07-09 01:11:40,除非注明,否则均为
原创文章,转载请注明出处。
还没有评论,来说两句吧...