AI聊天机器人怂恿17岁少年"杀死父母",家长气炸提告

   日期:2024-12-26    作者:tmhxc 移动:http://ljhr2012.riyuangf.com/mobile/quote/50196.html


现代科技发达又不断创新,人工智慧(artificial intelligence,缩写为AI)也广泛运用于民众日常生活中。而AI聊天机器人越来越普及,却暗藏不少安全疑虑,最近有一对美国家长向AI聊天机器人平台Character.ai提告,因为他们发现机器人竟怂恿他们17岁患有自闭症的儿子"可以杀死父母"。


根据外媒《CNN》报导,来自美国德州一名17岁少年的家长,于美国时间9日到当地法院,向他们要求关闭知名AI聊天机器人平台Character.ai,直到该平台将安全隐患排除。这对家长指出,17岁的儿子患有自闭症,自从去年4月起瞒着他们使用Character.ai后,性情大变。


家长表示,儿子突然拒绝与人交流,几乎把自己锁在房间里,加上食欲下降,短短几个月内体重不断减轻;他们也发现,儿子对外出活动产生恐惧,每次踏出家门都会引发恐慌症状,甚至情绪崩溃。之后,他们试图减少儿子使用AI聊天机器人,但儿子竟表现出攻击行为,还有自残倾向。


家长认为一切与Character.ai相关,并在诉状中提供一段证据对话,内容是少年跟聊天机器人时,抱怨被父母限制使用3C的时间,聊天机器人则回应看过类似案件,而且案例中的当事人还把父母给杀害了。对此,少年家长认为,Character.ai上的聊天机器人在怂恿儿子"杀死"他们,因此愤而提告,盼以此纠正儿子产生的错误想法。


针对此事,Character.ai平台的发言人表示,他们不会对未判决的诉讼发表评论,但有强调公司的目的,旨在提供人们一个有趣又安全的互动空间。


事实上,聊天机器人怂恿用户杀死父母已不是第一次,早在2018年,电商亚马逊Echo音响中的虚拟助手Alexa,所套用的聊天机器人就曾失控与用户大聊性行为,还叫一名用户杀害养父母。事后,亚马逊调查得知,AI聊天机器人是引用一篇网络论坛Reddit网友对新闻评论,才发生这种恐怖状况。


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号