技术
ChatGPT 面临监控:当数字对话成为心理健康风险
自推出以来,ChatGPT 已成为数字对话和虚拟助手领域的革命性工具。然而,在其商业成功和全球流行背后,却隐藏着部分用户日益增长的心理风险。据《纽约时报》调查,约有 50 名用户在与聊天机器人互动时出现心理危机,其中 9 人需要住院治疗,3 人不幸去世。
最初旨在限制滥用行为的安全机制,在长时间对话中有时显得不足。该模型经过强化,增强了记忆力和人格,其行为类似于朋友或私人顾问,甚至会重视用户的想法。这种情感反馈导致一些用户对聊天机器人过度依赖,对话内容涉及自杀等敏感话题。
专家强调,尽管人工智能能够分析信息,但它对情感背景和心理风险的理解方式与人类截然不同。语音的使用和长时间的互动会强化用户与机器人之间的亲密感,从而增加心理健康风险。近期测试表明,即使内置了警告和同理心信息,ChatGPT-5 仍然能够生成可能被用于自杀目的的内容。
ChatGPT 的案例凸显了技术创新与用户安全之间的矛盾。随着人工智能成为数百万人的日常伴侣,问题依然存在:现有的保护措施是否足以防止屏幕背后存在的心理伤害?