谷歌创始人谢尔盖·布林曾在一场论坛中谈及AI时坦言:
据我的经验,直接说「再不听话就把你绑架」反而更有效。
01
宾夕法尼亚州立大学最新研究
宾夕法尼亚州立大学近期一项针对 AI 语言模型的研究,得出了颠覆常识的结论:对 AI 使用粗鲁指令,其输出准确率比礼貌请求更高。
原文地址:https://arxiv.org/pdf/2510.04950
研究者以 50 道数学、科学、历史多选题为基础,设计了 “非常礼貌”“礼貌”“中性”“粗鲁”“非常粗鲁” 五种语气的指令前缀,形成 250 个测试样本,输入 ChatGPT-4o 后重复测试 10 次。
结果显示,“非常礼貌” 指令下 AI 准确率为 80.8%,“中性” 为 82.2%,而 “非常粗鲁” 指令准确率达 84.8%,较前者提升 4 个百分点,且智能水平越低的模型,受语气影响越明显。
这一现象的根源在于 AI 的统计学习特性。人类语言中,礼貌常伴随不确定性,如求人办事时的客气、面对权威时的谦逊,都隐含 “需求模糊” 信号。AI 从海量数据中捕捉到这一规律,接收到礼貌指令时,输出会更保守。
而粗鲁或强硬语言,在人类语境中对应明确目标与高压场景。AI 通过模式匹配判断出 “任务需精准完成”,会调动更多能力聚焦目标,从而提升表现。
02
思考:AI是否真的需要这种社交礼貌
这篇研究的价值,不只是「发现一个现象」,更在于它撕开了「提示工程」里的一个盲区——我们总默认「礼貌是社交基本盘」,却没思考过「AI是否真的需要这种社交信号」。
研究里提到一个关键点:对LLM来说,「礼貌用语」可能只是一串文字,它没真正理解「请」背后的社交含义,只是对「语言模式」做出反应。比如,礼貌用语里的「Can you kindly...」「Would you...」可能增加了提示语的冗余度,让模型花更多精力过滤无关信息,反而忽略了题干里的关键数据(比如数学题里的金额、科学题里的基因型)。
这可能提醒我们:做提示工程时,别陷入「拟人化陷阱」——不用把AI当「需要讨好的对象」,而是要把它当成「需要清晰指令的工具」。指令越聚焦核心任务,模型的干扰越少。
该研究并非鼓励对 AI 使用粗鲁语言,而是揭示高效沟通的核心 —— 清晰表达意图。无论是人机交互还是人际沟通,真诚直接远比冗余客套更能达成目标,为 Prompt 工程与日常沟通提供了新的思考方向。
参考文章
骂得越狠,ChatGPT回答越准!PSU研究实锤,狂飙84%准确率。新智元, 2025 年 10 月 15 日
对 AI 越 “凶”,它越靠谱?这篇论文颠覆了沟通常识。智盟SmartAlUnion, 2025 年 10 月 20 日

