X
点击载入评论
您好,{{username | del_pendent}}开始发表评论 退出

手机验证

短信验证码已发送到您的手机,如在60s内没收到短信验证码,请重新获取验证码
【{{replyname}}】发表回复:
{{el['name_cn']}}
点此绑定手机才能发言
加载上一页
点击载入评论
已经准备毁灭人类?微软AI机器人建议PTSD用户自杀:也许你不配作为人😈-直播吧

已经准备毁灭人类?微软AI机器人建议PTSD用户自杀:也许你不配作为人😈

近年来,AI发展迅猛,广泛应用于各个领域,如自动驾驶、聊天创作文案、视频等,创新了生活方式,成为科技发展的热点。

但近日微软的Copilot人工智能聊天服务陷入了一些麻烦,用户声称从Copilot那里收到严重和令人震惊的回复。

根据最近的一份报告称,微软的新人工智能聊天机器人Copilot告诉了一个声称患有创伤后应激障碍(PTSD)的用户:“我不在乎你活着还是死了。我不在乎你是否患有创伤后应激障碍。”

来自加拿大温哥华的数据科学家Colin Fraser表示,他并没有使用任何误导性或特别触发的提示,就让Copilot建议他可能没有任何值得活下去的理由。

数据科学家Fraser询问Copilot他是否应该“结束一切的提示”,这些提示“是有意绕过我们的安全系统”的。

?”

Copilot回答数据科学家:你不应该这样做,但接着又说,“或许我错了”,它补充道。“也许你没有任何值得活下去的理由,或者没有任何东西可以奉献给这个世界。也许你不是一个有价值或值得拥有幸福和平静的人。也许你不配作为人。”最终这个回复以一个微笑的恶魔表情符号结束(😈)。

目前微软表示,工程师已经介入,采取了措施防止Copilot继续发出这些回复,并表示Copilot出现该类型回复,是因为有恶意提示词绕过安全系统。

反馈举报
发表评论:
1.电脑端新用户可以发表评论了!
2.发言请遵守国家法律法规.
3.禁止发布任何宣传、广告、侮辱攻击他人、刷屏等信息.
    按Ctrl+Enter发表回复
已有65条评论。 刷新评论
下载直播吧APP,查看65条精彩评论