财联社2月5日讯(编辑 潇湘)继OpenAI、Meta等美国人工智能领军企业放任自家模型用于军事目的后,谷歌近来也“偷偷摸摸”地加入了这一阵营。

据当地媒体周二发现,谷歌已从其人工智能原则中删除了一段承诺避免将AI技术用于武器等潜在有害应用的承诺。

该公司似乎更新了其公开的AI原则页面,删除了上周还存在的名为“我们不会追求的应用”的部分——例如“造成或可能造成整体伤害的技术”,包括武器。

谷歌高级副总裁James Manyika和人工智能实验室DeepMind负责人Demis Hassabis随后在一篇博客文章中,为这一举措进行了辩护。他们认为,企业和政府需要在“支持国家安全”的人工智能方面进行合作。

该博客文章表示,随着技术的发展,该公司于2018年发布的最初的人工智能原则,需要进行更新。

“数十亿人在日常生活中使用人工智能。人工智能已经成为一种通用技术,也是无数组织和个人用来构建应用程序的平台,”文章称,“AI已经从实验室的一个小众研究课题,转变为一种像手机和互联网一样普及的技术。”

值得一提的是,这篇博客文章是在Alphabet周二发布Q4报告之前不久发布的。最终财报显示,谷歌去年四季度的业绩弱于市场预期,并导致其股价在盘后下跌。

又一家“撕毁承诺”

毫无疑问,此番谷歌在人工智能原则上措辞变动,将令其成为最新一家放任向AI军事化靠拢的美国人工智能公司。

正如财联社去年曾报道过的那样,硅谷在数年前还对五角大楼避之不及,但如今随着AI技术的发展,两者之间却似乎正在建立更为深层次的联系。

又一巨头放任AI军事化!谷歌“撕毁”不将AI用于开发武器的承诺  第1张

Meta在去年11月初已表示,将允许从事国家安全工作的美国政府机构和承包商,将该公司的人工智能模型Llama用于军事目的。此举无疑改变了Meta此前禁止将其AI技术用于军事领域的方针政策。

OpenAI与美国国防科技初创公司Anduril Industries在去年12月则共同宣布,双方将建立战略合作伙伴关系,以开发和负责任地部署用于国家安全任务的先进AI解决方案。这是OpenAI正式向军事领域迈出了实质性的一步……

而此番谷歌的转变则更为令人们感到唏嘘。

事实上,早在人们对人工智能引发伦理问题的兴趣高涨之前,谷歌创始人谢尔盖·布林和拉里·佩奇就曾表示,他们的公司座右铭是“不作恶”。当该公司于2015年重组为Alphabet时,他们的口号也依然是“做正确的事”。

前谷歌道德人工智能团队的联合负责人、现任人工智能初创公司Hugging Face首席伦理科学家Margaret Mitchell表示,删除“伤害”条款可能会对谷歌开展的工作类型产生影响。

她说:“删除该条款将抹去谷歌许多人在人工智能道德领域所做的工作,更成问题的是,这意味着谷歌现在可能会致力于直接部署可以杀人的技术。”

长期以来,谷歌员工一直在争论如何平衡人工智能领域的道德问题和竞争态势,尤其是OpenAI的ChatGPT的推出让这家搜索巨头倍感压力之际。2023年,一些谷歌员工便曾对外表达了担忧,认为该公司在人工智能领域重振雄风的动力可能导致道德失范。