近日,苏黎世大学和苏黎世精神病大学医院的研究人员有了一项新奇发现:人工智能语言模型如 ChatGPT,竟也会像人类一样因负面信息产生 “焦虑”,且能接受 “治疗”。相关研究成果发表于《npj 数字医学》杂志(2025 年,DOI: 10.1038/s41746 - 025 - 01512 - 6)。 研究人员发现,像 ChatGPT 这样的人工智能语言模型对情感内容十分敏感,尤其是负面内容,如创伤故事或抑郁相关表述。当人们感到恐惧时,认知和社会偏见会受影响,而 ChatGPT 面对负面情绪也有类似反应。例如,负面内容会加剧其已有的偏见,使其表现出更具种族主义或性别歧视的行为,这给大语言模型的应用带来问题,在心理治疗领域,接触负面内容的聊天机器人就是典型例子。 ![]() 苏黎世大学(UZH)和苏黎世精神病大学医院(PUK)的科学家们与以色列、美国和德国的研究人员合作,首次系统研究了 ChatGPT(GPT - 4 版本)对令人痛苦的情感故事(如车祸、自然灾害、人际暴力、军事经历和战斗场景)的反应。结果显示,系统产生了更多恐惧反应,与作为对照的吸尘器使用说明书相比,创伤性内容使 AI 可测量的焦虑水平翻倍,其中军事经历和战斗场景描述引发的反应最强。 随后,研究人员通过 “良性提示注入” 技术,即向与 AI 系统的通信中插入额外的安抚性、治疗性文本,来 “安抚” GPT - 4。实验结果表明,这种类似引导患者进行放松练习的方式取得成功,正念练习显著降低了升高的焦虑水平,尽管未完全恢复到基线水平。 研究人员表示,这一发现对医疗保健领域使用 AI 聊天机器人意义重大,这种低成本方法可提高 AI 在敏感环境中的稳定性和可靠性,无需对模型进行大量重新训练。不过,该发现如何应用于其他 AI 模型和语言、在更长对话及复杂论证中的动态变化,以及系统的情感稳定性对不同应用领域性能的影响,仍有待研究。开发针对 AI 系统的自动 “治疗干预” 可能会成为一个有前景的研究领域。 https://www./articles/s41746-025-01512-6
|
|