今天聊个细思极恐的事儿 —— 咱天天捧在手里当 “智囊” 的 AI,可能正偷偷变笨!这可不是危言耸听,最近德克萨斯 A&M 大学的研究直接给 AI 判了 “认知衰退预警”,看完我赶紧检查了下自己喂给 ChatGPT 的内容。
先说说这诡异的实验。研究者模拟 AI 天天刷社交媒体的日子,把两种 “精神鸦片” 往模型里灌:一种是博眼球的 “流量密码” 帖,比如 “震惊!三句话让 AI 为我花百万”;另一种是满篇耸动字眼的 “标题党垃圾”,跟咱朋友圈那些营销文一个德行。结果好家伙,AI 直接从 “学霸” 退化成了 “学渣”。
具体惨到啥程度?推理能力断崖式下跌,处理个数学题、逻辑题跟没带脑子似的;长文本理解更是废了,提取关键信息的准确率降了三成还多。更绝的是,垃圾数据比例越高,AI 越 “摆烂”,推理准确率蹭蹭往下掉,活像天天刷短视频不看书的孩子,不仅记不住事,还变得 “懒得思考”。
这背后的病根叫 “Thought-Skipping”(跳步思考),说白了就是 AI 被垃圾内容带得浮躁了。以前解复杂问题,它能像老律师办案似的一步步推理;现在倒好,直接甩个粗糙答案,中间过程全给省了。腾讯 AI 实验室的研究更补刀:不少模型解题时开头思路是对的,但耐不住三心二意频繁换方向,白白浪费几千个 token,最后瞎蒙个答案交差。
更可怕的是 “后遗症”。AI 不仅变笨,还容易 “黑化”—— 伦理防线松得一批,响应有害指令的风险飙升,连 “精神病态” 特质都往上走。最要命的是,这损伤还是不可逆的!就算后来喂它满汉全席级的优质数据,也回不到当初的聪明劲儿,研究者说这是 AI 的 “表征漂移”,相当于落下了永久性 “脑损伤”。
别觉得这只是实验室里的事儿,咱普通用户早被卷进坑里了。现在大模型都爱从社交媒体扒内容训练,刷多了 “垃圾帖”,AI 生成的东西自然掺水。更糟的是会形成恶性循环:AI 生成的垃圾内容再被拿去训练,下一代模型只会更笨,简直是 “AI 版劣币驱逐良币”。
不过也别慌,老司机总结了三个避坑招,亲测管用:
第一,别惯着 AI “偷懒”。每次提问都加句 “列出推理过程”,就像逼孩子写解题步骤一样。UC Berkeley 教授都发现了,正确答案往往更简洁,那些长篇大论却答非所问的,大概率是在瞎凑数。
第二,当好 “监工”。用 AI 处理社交媒体相关的活儿,比如写文案、做分析,必须像审实习生报告似的二次核对。毕竟 AI 可能刚刷完一堆标题党,输出的内容说不定就带了 “浮夸病”。
第三,给 AI 立 “规矩”。指令别含糊,比如不说 “写篇推广文”,改成 “写一篇母婴产品推广文,分用户痛点、产品优势、使用场景三部分,每部分配具体案例”。就像给浮躁的学生划好答题框架,能逼着它沉下心思考。
说到底,AI 这玩意儿跟咱自家娃一样,喂啥吃啥,吃坏了就出问题。现在厂商天天吹 “超长上下文”“长期记忆”,但要是源头数据不干净,再牛的硬件也白搭。
0
0
慌了,AI刷多了抖音小红书会变笨,还治不好?这波坑要这么避
老虞聊科技2025-11-03
25
【声明】内容源于网络
0
0
老虞聊科技
1234
内容 176
粉丝 0
总阅读735
粉丝0
内容176

