机器人治疗师需要规则 在精神病学中使用具体的AI会带来道德问题

与人工智能(AI)的相互作用将成为我们生活中越来越常见的方面。慕尼黑工业大学(TUM)的一个团队现在完成了第一项关于“体现AI”如何帮助治疗精神疾病的研究。他们的结论:这项技术的重要道德问题仍然没有答案。政府,专业协会和研究人员迫切需要采取行动。

机器人娃娃教自闭症儿童更好地交流,计算机生成的头像帮助患者应对幻觉,虚拟聊天提供支持抑郁症:已经存在许多使用体现人工智能改善心理健康的举措。这些应用被称为体现,因为它们涉及个体和人工代理之间的相互作用,从而产生全新的动态。

人工智能在心理治疗中的应用并不是新的。早在20世纪60年代,第一个聊天机器人创造了心理治疗会议的错觉。然而,实际上,这只不过是一个噱头。凭借当今先进的算法和更高的计算能力,可以实现更多功能。“这些新应用背后的算法已经过大量数据集的培训,可以产生真正的治疗陈述,”TUM医学与健康技术伦理学教授Alena Buyx解释说。她与心理医学和心理治疗教授Amelia Fiske博士和Peter Henningsen博士一起,对心理健康的具体AI应用进行了第一次系统调查,并就相关的机遇和挑战得出了结论。

为更多人提供治疗

新的应用程序具有巨大的潜力。他们可以让更多人接受治疗,因为他们不限于特定的时间或地点。此外,一些患者发现与AI进行交互比使用人类更容易。但也存在风险。“AI方法不能也不能用作人类医生治疗的廉价替代品,”Amelia Fiske说。

“虽然体现人工智能已经进入临床世界,但医学协会关于如何处理这个问题的建议仍然很少。但是,如果要利用这些技术的好处同时避免不利和确保,则需要采取紧急行动。那些合理的检查已经到位。年轻的医生也应该在医学院接触这个话题,“TUM医学院院长Peter Henningsen说。

人工智能的道德规则仍然缺乏

目前,人们正在加大力度制定人工授精指南,包括欧盟刚刚发布的“值得信赖的人工智能道德准则”。然而,Buyx,Fiske和Henningsen也认为迫切需要在专业领域规范AI的使用。“治疗性AI应用是我们需要适当的批准程序和道德准则的医疗产品,”Alena Buyx说。“例如,如果这些项目可以识别患者是否有自杀念头,那么他们必须遵循明确的警告协议,就像治疗师一样,如果出现严重问题。”

此外,需要深入研究具体AI的社会影响。“我们几乎没有关于人类如何因接触治疗性AI而受到影响的信息,”Alena Buyx说。“例如,通过与机器人接触,患有自闭症谱系障碍的孩子可能只学习如何更好地与机器人进行互动 - 而不是与人进行互动。”