科技快讯-K

大模型在心理健康辅助场景的伦理探讨

学界针对 AI 在心理咨询应用中的表现发出了严正警告。虽然 AI 具备高共情能力的对话逻辑,但其“幻觉”现象可能在脆弱用户群体中产生严重的心理暗示偏差。目前核心议题是“算法责任”:当AI错误引导用户导致不良后果时,责任该归于开发商、平台方还是监管层?这促使心理健康AI产品正在加速构建严格的“人类干预反馈(HITL)”机制。