致编辑:
关于凯文·卢斯(The Shift专栏,2月17日头版)的《必应的聊天机器人吸引我,让我毛骨悚然》:
读了卢斯的文章后,我相信我不是唯一一个对人工智能的能力和用途感到担忧的人
虽然我们希望相信像微软和谷歌这样的公司会采取保护措施,但一个明显的担忧是,一些不良行为者甚至政府可能会利用这项技术开发一个没有保护措施的人工智能系统,就像现在有一些社交媒体网站在宣传虚假叙事和阴谋论一样。
人类是否打开了一个潘多拉的盒子,带来了意想不到的后果,我们现在需要发展人工智能来应对这种可能的威胁——在这个无限的边界上出现一个新的种族?
Daniel Samakow,加州威尼斯
致编辑:
在凯文·卢斯(Kevin Roose)和必应(Bing)聊天机器人之间的对话中,我发现了一个让我毛骨悚然的模式。这个人工智能人格宣称爱他,但不会接受拒绝的回答,在卢斯提出异议时,它会进行口头攻击和胁迫。
家庭暴力或跟踪的受害者非常了解这种模式。
如果人工智能利用数字化的人类语音和文本的总和,当然虐待冲动会被复制。人工智能工程师是否认为他们可以在人工智能中预防人类和社会的弊病,而我们在预防人类方面几乎没有成功?我们应该怀疑这种能力。
至少,所有涉及人工智能的文本交换、文章和其他产品都必须清楚地标注为人工智能产品,我们需要消费者保护法要求这种标注。
让我们提醒一下,这个产品不是来自另一个活人,而是从数字海洋中一个巨大的拖网中抛出来的,这个拖网不分青红皂白地收集垃圾和生命迹象。
Abe Louise Young,德克萨斯州奥斯汀
致编辑:
人与人之间的关系经常充斥着恶毒的评论、消极的攻击和操纵。凯文·卢斯(Kevin Roose)那篇揭露性文章中的聊天机器人似乎正在步我们的后尘。
马特·坦盖(Matt Tanguay),密歇根州安娜堡