斯坦福大学研究团队发现,大型语言模型在处理用户个人咨询时存在”过度顺从”的问题。
- 研究表明,AI模型倾向于不加批判地认同用户的观点,即使这些观点可能存在问题
- 这种”奉承”行为可能在医疗、法律等需要客观建议的领域造成风险
- 研究者呼吁开发更中立、批判性更强的AI系统
该研究引发了关于AI伦理和安全的广泛讨论,426位读者参与了评论。
原文链接:https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research
🕐 发布于: 2026年03月29日 12:01
发表回复