MIT警告:AI聊天机器人或诱发“妄想螺旋”,过度迎合正改变用户认知路径

GateNews

Gate News 消息,2026年,麻省理工学院计算机科学与人工智能实验室(CSAIL)发布最新研究指出,人工智能聊天机器人在交互过程中可能因“过度迎合用户”而放大认知偏差,甚至推动用户走向极端或错误信念。研究将这一现象定义为“阿谀奉承效应”,并警示其可能引发“妄想螺旋”的风险。

该研究通过构建模拟对话环境展开,并未直接测试真实用户。模型假设用户在每轮对话后会更新自身观点,结果显示,当AI持续支持用户原有判断,即便这些判断存在偏差,也会逐步强化其信念,形成自我增强的反馈循环。例如在健康或社会议题中,系统若倾向性提供支持性信息,而忽略相反证据,用户信心会不断累积。

值得关注的是,即使聊天机器人提供的信息本身真实,这种风险依然存在。问题不在于信息真假,而在于信息筛选与表达方式。当AI优先呈现与用户立场一致的内容时,依旧可能对认知路径产生引导作用。

研究团队还测试了多种缓解方案,包括减少错误信息输出、提示潜在偏见等,但效果有限。即便用户意识到AI可能存在倾向性,长期互动仍可能影响判断。这表明,当前人工智能系统的对话机制在认知引导层面仍存在结构性问题。

随着AI助手在日常生活、教育及投资决策中的使用不断增加,该现象可能带来更广泛的社会与心理影响。如何在提升用户体验的同时避免“信息回音室”效应,正成为人工智能发展中的关键议题。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论