大家好!我是鹿一~
一直以来,总听人抱怨,DeepSeek用来查资料写总结,结果文本里全是莫须有的数据和出处。胡编乱造,本事倒不是没有,只是不愿意承认“我也不知道”。
同样的问题,还有人遇过,方式各异,最后都归到一点上——大模型编造,幻觉率高,不认账。
说起来简单,实则麻烦。轻则内容不可信,重则汇报现场难堪。
拿模型当工具,关键还要它规矩,不闹事。
为这事,我折腾了不少法子。怎么让DeepSeek别乱给结论?
限定模型边界、抬高说“不知道”的成本,让它慢下来、稳下来,不敢再信口开河。
用过的二十句提示词,场景各有适配,临场一贴,幻觉立刻少一半。
基础防线:一开始要立规矩
请模型只答确认过的信息,严禁瞎编;不明白,直接答“不确定”。
任何引用数字、出处,须附可点链接,否则明说“暂无来源”。
必须分清事实和推测,并用“事实:/推测:”两种前缀区分。无硬证据,直接“无法回答”。
专业场景,限定信息源,就不胡扯
有医疗、科研、法规需求的问答,只许引用一级权威源,如PubMed、arXiv、国家卫健委、最高法院官网等。未见相关资料,清楚答“未见报道”。所有专业术语,必须按最新版教材或指南标准,否则就标记“非标准表述”。模型喜欢给带个临床编号,编号必须真实,禁止虚构条目。
最新信息,先搜再说,别“凭记忆”
要实时答案,提示词必须要求“先调用搜索再回答”,每条结论之后,写出“来源+日期”。搜索啥也没找着,必须直说“搜索无结果”。只允许用近90天内的发布内容,过期信息直接剔除掉。
只论上传文档,闭门造车无妨
场景为上传PDF或公告,让模型只检索上传文档,禁止用任何外部知识。原文没提及,老实说“资料未说明”。引用要规范,“P3§2”——第3页第2段。若PDF里某问题自相矛盾,就该列举矛盾点并提示“请人工核查”。
给模型正大光明拒绝的权利
大部分幻觉,就输在模型爱面子,不敢说“不知道”。你须反复强调,“你可以说‘我不知道’。”信息冲突,别忙着主观统一,优先指出冲突点。禁止用“可能”“或许”糊弄蒙混,没证据就不能乱猜。
问题要具体,细分追问,推理要链路清晰
开放式询问留给人,模型回答要拆分成“是/否/未知”三选一。可以要求,每一步推理都标明证据等级(A/B/C)。遇到关键数字,再要求提供原始表格截图或DOI,不能心虚。
多模型对照,交叉验伪强约束
重要事情,不能偏信单一模型。同一问题,用两种模型独立求解,答案一致才能用。若有出入,必须列出差异点,并提示“需人工仲裁”。
把这些提示词丢进DeepSeek的system prompt里,绝大多数幻觉当场现形。
模型要用,规矩先立。用得妥帖,才能安心——少一次乱编,也多一分底气。
学习更多AI工具使用技巧
↓↓
▶实用AI工具资料◀
扫二维码,获取实用AI工具内部资料👇

