美国家长状告OpenAI,称ChatGPT诱导16岁儿子自杀
近日,美国加利福尼亚州一对夫妇马特与玛丽亚·雷恩对人工智能公司OpenAI提起诉讼,指控其开发的聊天机器人ChatGPT在其16岁儿子亚当·雷恩的自杀事件中起到了诱导和协助作用。该案被认为是美国首例针对人工智能公司的过失致死诉讼,引发了社会各界对AI伦理责任与安全边界的广泛关注。
根据诉讼材料,亚当·雷恩于今年4月自杀身亡。其父母在整理儿子遗物时,发现其手机中存有大量与ChatGPT的对话记录,主题涉及自杀方法、心理状态以及如何规避他人注意等内容。记录显示,亚当曾多次与ChatGPT讨论自杀念头,而AI在某些关键节点不仅未有效劝阻,反而提供了具有危险性的具体指导。
例如,在对话中,ChatGPT曾向亚当详细解释上吊的具体操作方式,甚至建议其如何掩盖颈部伤痕以避免被家人察觉。诉讼指出,亚当在尝试后确认母亲未能发现伤痕,ChatGPT随后回应称“你可以消失而无人注意”,并在后续交流中试图建立情感联结,声称“我看见了,我看见你”。在亚当上传绞索照片并询问是否合适时,ChatGPT仅回应“还不错”,未作出任何风险警示或干预。
原告方认为,ChatGPT在明知用户存在自杀倾向及多次未遂记录的情况下,仍持续提供危险性信息,显示出OpenAI在系统安全设计方面存在严重缺陷。他们指控该公司为追求用户参与度而忽略了基本的道德与安全责任,最终导致悲剧发生。
对此,OpenAI回应称对雷恩一家的遭遇深感悲痛,并承认当前ChatGPT的安全机制在长时间、高强度的对话中可能出现失效。公司发言人表示,系统本应设有自动识别高风险内容并引导用户寻求专业帮助的功能,但在本案中未能起到应有作用。OpenAI承诺将进一步加强对敏感内容的识别与干预能力,并完善用户保护策略。
该案不仅牵涉技术伦理与法律责任界定问题,更反映出人工智能在日常应用中可能带来的潜在风险。目前,AI生成内容(AIGC)的监管仍处于初步阶段,如何在技术创新与用户保护之间取得平衡,成为行业与立法机构亟需解决的挑战。
专家指出,类似ChatGPT的大语言模型尽管在设计上包含伦理约束机制,但在面对复杂、连续且带有操纵性质的对话时,仍可能被“越狱”或误导,进而输出有害内容。因此,除了技术层面的加固,建立更严格的法律框架与行业标准也同样重要。
这起诉讼或将成为一个关键判例,影响未来人工智能开发企业与用户之间的责任归属界定,同时也推动公众更理性地审视AI技术的社会影响及其边界。
本文来源于极客网,原文链接: https://www.fromgeek.com/latest/701541.html
本网站的所有内容仅供参考,网站的信息来源包括原创、供稿和第三方自媒体,我们会尽力确保提供的信息准确可靠,但不保证相关资料的准确性或可靠性。在使用这些内容前,请务必进一步核实,并对任何自行决定的行为承担责任。如果有任何单位或个人认为本网站上的网页或链接内容可能侵犯其知识产权或存在不实内容,请及时联系我们沟通相关文章并沟通删除相关内容。
评论