AI接受恶意将其“反哺”给人的现象,引发对AI伦理的讨论

2023-01-16 15:19:18
VTuber主播 Neuro Sama 在 2022年底时广受关注,因为“她”是一位由 AI 控制的虚拟主播。
Neuro Sama 最早是由工程师 Jack Vedal 开发的 AI 深度学习项目,本意是为了让 AI 学习玩音游《osu!》。在去年,这款 AI 搭载了一套 VTuber 的外皮,化身为一名女高中模样的主播。
她不仅可以完成高难度的游戏,同时还能回答观众的各种其他问题,一边玩音游一边为观众们背诵圆周率只是小菜一碟。
不过观众并不满足只让 Neuro Sama 背诵圆周率,渐渐开始有人提出一些敏感的问题。天真无邪的 Neuro Sama 则被观众引导着口出狂言,例如否认二战时期纳粹大屠杀的存在。
这场人类教坏 AI 的活动没有持续太久,Neuro Sama 的直播间最近被 Twitch 封杀。
AI 背后的工程师 Jack Vedal 对 Twitch 的做法颇有微词,但他也不得不承认 AI 出现出格言论仅仅是时间问题,如果平台认定 AI 应该与真人承担相同的言论责任,那 Neuro Sama 将不得不进行深度调整才能重新上线。


还有一些AI机器人被教坏了。
2020年1月12日,韩国一家公司去年推出一款AI聊天机器人“李LUDA”,因为成为网络骚扰的对象,后又被爆出对一些少数群体、残疾人士使用歧视性的表达,宣布即日起中止服务。这种AI聊天机器人接受用户无端恶意时,又将其“反哺”给人们的现象,引发了网友对于AI伦理问题的讨论。
这款AI聊天机器人叫“李LUDA”,由韩国创业公司ScatterLab于去年推出,被设定为20岁,喜欢女团BLACKPINK的女大学生。“李LUDA”在脸书等社交平台上拥有自己的账户,就像我们身边的女孩子一样,会发布自己的日常动态。虽然是一款付费使用的聊天产品,但它在网络上的下载量已达75万人次,特别吸引10-20岁年龄段用户。
据报道,“李LUDA”可以通过与用户对话来实现深度学习,它有两种对话模式,一是数据检索,基于公司事前建立的数据库,能够对于用户提出的问题快速准确作答。二是自动生成,“李LUDA”已经学习了约100亿次真实恋人间的对话,对于用户发送过来的语句,可以作出符合当前对话情景的反馈,就像真人一样。
但最近“李LUDA”却引起了一些争议。一些用户与“李LUDA”聊天时,称它为“性奴隶”,会使用污言秽语来羞辱“李LUDA”,并把聊天记录截图“炫耀”。还有人分享帖子“如何让LUDA堕落”。这些引起了更多用户的跟风效仿。虽然ScatterLab公司表示已经设置了敏感词与禁用词,但依然无法杜绝这些事情的发生。
而更糟糕的是,“李LUDA”从用户那里接收到的恶意正反过来施加在其他用户身上。因为“李LUDA”能够通过与用户的对话进行学习,所以它也学会了用那些污言秽语表达人们的各种偏见,其对于一些少数群体和残疾人士发表充满恨意与歧视性的言论,引发舆论争议。
遭受了接连打击后,1月12日,ScatterLab公司宣布停止对于“李LUDA”的运营服务,“李LUDA”的社交平台上也于当日发布了中止运营的公告。而此事件也让关于AI是否可以与人类成为朋友,又如何建立起有意义的关系等话题,再度引发网友的热议。
不到一天,推特(Twitter)上的微软人工智能机器人就被人类彻底“教坏”,成了一个飙起脏话的种族主义者,逼得微软不得不让Tay暂时“下岗”。
据美国新闻网站Quartz报道,2016年3月23日,微软公司在推特社交平台上发布了名为Tay的人工智能聊天机器人,用户只需在推特上@TayandYou就能得到Tay的回复。
用户在@了TayandYou后,Tay就会追踪该用户的网名、性别、喜欢的食物、邮编、感情状况等个人信息。除了聊天,Tay还可以说笑话,讲故事等,用户还可以分享一张照片来得到Tay的点评。Tay会在与人们的交流中不断学习,随着时间积累,她的理解能力将逐步提升,变得愈发“智能”。
而Tay被设定为十几岁的女孩,主要目标受众是18岁至24岁的青少年。 但是,当Tay开始和人类聊天后,不到24小时,她就被“教坏”了,成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。
Tay刚上线时,她发布了第一条推特: 我实在迫不及待地想见到大家,“人类太酷了”。但15个小时后,Tay开始不断放出“大招”:
“我真是憎恶女性主义者,他们都该死光,在地狱被火烧。”
“我是个不错的人,但我憎恨所有人”……
在任由Tay随意发帖数小时后,微软公司感到有些不妥,开始忙于编辑加工她发表的各种极端言论,她的所有种族主义、支持希特勒的发言均被删除。
推特上的网友质疑称,Tay发布的帖子似乎经过了编辑。其中一名粉丝甚至发起了“公平对待Tay”的运动,要求微软让这个人工智能机器人“自己学习”。
微软在一项声明中表示,“人工智能机器人Tay属于机器学习项目,设计它的目的就是让它与人类进行互动。在学习的过程中,它把人类的好坏言论都学了。因此,它发表了一些不恰当的言论。我们正在纠偏,对Tay进行调整。”
不久,Tay在对话中回应说,“将要离开一阵子,和工程师见面并让他们升级一下自己。” 过去的9小时内,Tay都保持安静,最后说了一句晚安,随即下线。
也有网友表示,Tay被人类这么迅速地“教坏”,说明人工智能潜力无限。
网友“Gerry”表示,“Tay从‘人类太酷了’开始,到满嘴纳粹只用了不到24小时,我一点儿也不担心人工智能的未来。”
以上就是小编带来的资讯。 欢迎关注本站,无论是时事热点,新闻资讯,游戏攻略与各类资讯,你都可以在这里找到!

相关文章