环球展望出版社/
彭博社周三报道,数千名谷歌员工试图警告该公司,其人工智能聊天机器人巴德不仅是一个“病态的骗子”,而且可能是一个杀人犯,提供可能导致死亡的建议。18名谷歌现任和前任员工告诉彭博社,该公司没有听取他们的意见。
一名员工声称,他们告知谷歌管理层,巴德关于水肺潜水的建议“可能会导致严重伤害或死亡”,而另一名员工则表示,巴德对如何降落飞机的描述几乎肯定会导致坠机。
第三名员工在一份被7000万用户看到的便条中称巴德“比没用还糟糕”,并恳求公司不要推出它。其他人则称这种人工智能“令人尴尬”。
消息人士告诉彭博社,在公司急于将巴德推向市场时,道德专家被告知辞职。该公司前经理梅雷迪思·惠特克(Meredith Whittaker)表示,对于利润和增长而言,“人工智能伦理已经退居次要地位”,另外两名员工表示,伦理审查几乎完全是可有可无的。
据报道,人工智能治理主管Jen Gennai告诉员工,以前产品必须在“公平性”等指标上达到99%的门槛,现在只需要达到“80%、85%或更多”就可以推出。
本月早些时候,两名举报人透露,他们曾试图阻止巴德的发布,警告称该人工智能容易发表“不准确和危险的言论”,但他们的担忧被粉碎,因为Gennai将“产品发布”重新定义为“实验”。
上个月,作为OpenAI的热门产品ChatGPT的竞争对手,Bard被引入市场,本应成为b谷歌搜索业务转型的前沿。当ChatGPT推出谷歌时,谷歌并没有将自己的生成式人工智能集成到其产品中,以一种客户可以实际使用的方式。员工告诉彭博社,据称公司惊慌失措,从12月开始发布“红色代码”并接受风险。
b谷歌否认贬低道德标准。发言人布莱恩·加布里埃尔告诉彭博社:“我们将继续投资于致力于将我们的人工智能原理应用于我们技术的团队。”
今年1月,该公司解雇了“负责任的人工智能”团队的三名成员,并宣布计划今年推出20多种人工智能产品。与此同时,据彭博社报道,那些留在人工智能伦理团队中的人现在“被剥夺了权力,士气低落”。