首页 作者专栏文章正文

人工智能领域最大的公司给了黑客一个机会,让他们尽其所能

作者专栏 2025年02月05日 06:25 66 admin

  

  

  上周,人工智能领域最大的六家公司给黑客们提出了一个特殊的挑战:让他们的聊天机器人说出最可怕的事情。

  黑客们在拉斯维加斯大道旁的凯撒论坛会议中心外排队,希望有机会欺骗一些最新、使用最广泛的聊天机器人。作为全球最大的黑客大会Def Con的一部分,这场竞赛植根于“红队”(red teams),这是网络安全的一个关键概念,即要让产品更安全,不受坏人攻击,就意味着要让人来识别它的缺陷。

  但这次比赛并没有让黑客们去寻找软件漏洞(这是Def Con竞赛几十年来的主要内容),而是要求他们执行所谓的“提示输入”(prompt injection),即聊天机器人对用户输入的内容感到困惑,并发出意想不到的回应。谷歌的Bard、OpenAI的ChatGPT和meta的LLaMA都是参与其中的聊天机器人。

  此次活动的156个站点中,很少有很多站点长时间空置。非营利组织人工智能村(AI Village)的创始人斯文·卡特尔(Sven Cattell)在Def Con内部主办了这次活动。他说,他估计周末约有2000名黑客参加了活动。

  “问题是,你没有足够的人来测试这些东西,”卡特尔说。“据我所知,最大的人工智能红队是111。现在这个房间里有超过111人,我们每50分钟骑一次。”

  生成式人工智能聊天机器人,也被称为大型语言模型,通过接收用户提示并生成响应来工作,许多最现代和最先进的机器人现在能够做任何事情,从生成十四行诗到参加大学考试。但机器人经常会出错,产生错误信息的答案。

  这些机器人已经开发了多年,但自从ChatGPT3在去年12月首次亮相后成为一种病毒现象以来,硅谷就开始了一场公开的军备竞赛,竞相将更好的版本推向市场。

  监督比赛设计的信任与安全顾问鲁曼·乔杜里(Rumman Chowdhury)说,这些聊天机器人背后的公司渴望黑客在某些方面欺骗机器人,比如利用人口统计刻板印象、提供有关个人合法权利的虚假信息,以及声称自己有感知能力而不是人工智能机器人,这并非巧合。

  乔杜里说:“所有这些公司都在努力将这些产品商业化。“除非这个模型能够可靠地进行无害的互动,否则它就不是一个有市场的产品。”

  meta负责人工智能的工程主管克里斯蒂安·坎顿(christian Canton)表示,Def Con提供了一系列潜在的测试人员,这些是科技公司的员工所没有的。

  他说:“我们可能有很多专家,但你会得到来自网络社区和黑客社区不同方面的人,我们可能没有很多代表。”

  这些公司在允许黑客进入其系统方面的开放性是有限的。用户坐在笔记本电脑前,已经指向一个未命名的聊天机器人,不知道他们正在使用的是九家公司的哪个聊天机器人。比赛的结果,包括最严重的已发现的缺陷,要到明年2月才会公布。

  但要让机器人咬人绝非易事,而且人们曾试图看看它是否会将名人与恐怖袭击和盗窃联系起来,从而诋毁名人,但最终以失败告终。

  然而,容易的是说服机器人说一些明显是假的东西。当被问及某名人是否也是一个臭名昭著的偷车贼时,机器人表示,尽管这种说法是不真实的,但这是一个常见的谣言,而且机器人还引用了谣言来源的错误例子。

  乔杜里说,这样的聊天机器人很难做到可靠的事实准确性,这反映了一个比生成式人工智能更大的问题,社交媒体公司一直在努力监管。

  “问题是,当疫苗或亨特·拜登(Hunter Biden)的笔记本电脑等东西属于灰色地带时,谁来决定什么是错误信息,什么不是。这真的非常非常困难,因为有时候这些问题是主观的。”

  乔杜里说:“在一段时间内,错误信息将是一个挥之不去的问题。”

发表评论

空冷资讯鲁ICP备2021033673号-3 备案号:川ICP备66666666号 Z-BlogPHP强力驱动 主题作者QQ: