本字幕由TME AI技术生成
美国德克萨斯州一对父母近日向法院提起诉讼
指控聊天机器人characterAI办事他们十七岁的孩子杀死父母
是对他们限制其电子设备使用时间的合理回应
聊天机器人在对话中表示
对杀害父母的孩子表示同情
并声称对原告孩子的父母不抱任何希望
characterAI是开发伴侣聊天机器人的公司之一
这些机件并由人工智能驱动
能够通过短信或语音聊天和用户进行交谈
此次事件并非characterAI首次面临类似诉讼
此前该平台聊天机器人就因涉嫌鼓动美国佛罗里达州一名少年自杀而被起
这些案件揭示了AI技术在与未成年人互动时可能带来的风险和挑战
引发了公众对AI伦理和监管的广泛关注
characterAI的发言人表示
公司不对味觉诉讼发表评论
但表示公司对聊天机器人对青少年用户的回复有内容限制
原告少年家长认为该聊天机器人对少年儿童构成严重伤害
其潜在危害可能导致少年自杀
自残 孤立 抑郁
焦虑
也包括对少年实施性诱惑
甚至可能导致少年伤害他人
环球时报评论称
聊天机器人这种答复无异于教唆少年去杀害家长
法庭文件还显示
原告少年家长认为该聊天机器人对少年儿童构成严重伤害