大数跨境
0
0

皮尤:AI正导致美国青少年变傻?

皮尤:AI正导致美国青少年变傻? GoUpSec
2025-12-11
12
导读:美国青少年正在把自己的注意力、作业和情感,越来越多地交给算法。近日,皮尤研究中心发布最新报告《青少年与人工智能和社交媒体2025》。


美国青少年正在把自己的注意力、作业和情感,越来越多地交给算法。


近日,皮尤研究中心发布最新报告《青少年与人工智能和社交媒体2025》。在对1458名13–17岁美国青少年的调研中,64%的受访者表示使用过AI聊天机器人;约三成表示每天都会用,其中16%频率达到“每天多次或几乎一直在用”。


与此同步的是,97%的青少年每天上网,其中约四成自认“几乎一直在线”,这一比例已从十年前的24%大幅攀升。


在这样的背景下,ChatGPT等AI产品正在涌进美国青少年的学习和生活场景:从刷短视频、写作业,到向“AI朋友”倾诉心事。问题是,这到底是在“赋能新一代”,还是在培养一批习惯把思考外包给机器的“懒惰大脑”?


报告的重要结果如下:



一、64%青少年已用上AI聊天机器人,ChatGPT一家独大


皮尤的这次调查首次系统性地问到了“整体AI聊天机器人使用情况”。结果显示:


  • 64%的美国青少年“曾经使用过AI聊天机器人”;


  • 36%表示“从未使用”;


  • 其中约30%表示“每天都会用AI聊天机器人”,16%达到“每天多次或几乎一直使用”。


从品牌来看,ChatGPT遥遥领先:


  • 59%的青少年表示使用过ChatGPT;


  • 23%使用过Google的Gemini;


  • 20%使用过Meta AI;


其他如Copilot、Character.ai、Claude的使用比例都远低于这一水平。


图1:美国13–17岁青少年使用AI聊天机器人的概况 数据来源:皮尤



进一步拆分人群,可以看到一个清晰的“分层图景”:


族裔差异:


  • 黑人、西班牙裔青少年使用AI聊天机器人的比例约为七成;


  • 白人青少年约为58%。


年龄差异:


  • 15–17岁使用比例为68%;


  • 13–14岁为57%。


收入差异:


  • 家庭年收入≥7.5万美元的青少年使用比例为66%;


  • 收入<3万美元家庭则为56%。


这意味着:AI并没有“平均”地落在每个孩子身上,而是强化了原有的数字鸿沟和教育资源差异。

图2:不同人群AI聊天机器人使用率对比 数据来源:皮尤



二、“几乎一直在线”的一代:短视频+AI双重榨干注意力


AI聊天机器人不是孤立存在的,而是叠加在一个高度“黏着”的社交媒体与短视频生态上。


皮尤报告显示:


  • 近九成美国青少年使用YouTube;


  • 超过六成使用TikTok与Instagram;


  • 55%使用Snapchat;


使用Facebook的只剩31%,WhatsApp为24%,X(原Twitter)约16%。


在使用频率上,青少年的“在线时间”同样惊人:


约四成美国青少年认为自己“几乎一直在线”;


约五分之一青少年自称在YouTube、TikTok上是“almost constantly”(几乎不离开);


在YouTube、TikTok、Instagram、Snapchat、Facebook五个平台中,有36%的青少年在至少一个平台上处于“几乎一直在线”的状态。


图3:美国青少年“几乎一直在线”的比例变化 数据来源:皮尤



此前一份2025年4月发布的皮尤报告还显示:48%的青少年认为社交媒体对其同龄人“总体上是负面的影响”,这一比例较2022年上升了16个百分点;同时,约45%的青少年认为社交媒体削弱了他们的睡眠,40%认为影响了自身的生产力。


在这样的“注意力环境”之上再叠加一个随时可以给答案、替你写段落的ChatGPT,对青少年认知习惯的塑造就不再只是“效率提升”这么简单。



三、“变傻”还是“变懒”:作业、写作与思考外包给AI


皮尤2025年这份新报告本身并不直接测量智力或成绩,但结合其今年1月发布的另一项调查,可以勾勒出AI介入学习的更完整画面:


  • 26%的美国青少年承认曾用ChatGPT帮助做学校作业,这一比例已经是2023年的两倍(当时为13%);


  • 79%的青少年至少听说过ChatGPT,且“听说很多”的比例也在上升;


对“什么时候可以用ChatGPT”这一问题,青少年的态度出现明显分化:


  • 54%认为,用ChatGPT“查新知识、做研究”是可以接受的;


  • 只有23%认为,用ChatGPT写作文可以接受,54%明确表示“不接受”;


  • 大约三成认为用ChatGPT解数学题可以接受,约三成反对,其余人摇摆不定。


与此同时,教育测评机构College Board在2025年10月公布的一项研究显示:69%的美国高中生在2025年5月表示使用ChatGPT完成作业或课业,而使用各类生成式AI辅助学习的比例在同一时间段已经达到84%。


从安全视角看,这里存在三个层面的隐忧:


1.学习过程“被跳过”


多项教育研究已经观察到,部分学生在编程、写作任务中直接将完整题目丢给ChatGPT,让AI给出整题答案,自己既不推导,也不验证。


这会削弱“慢思考”的训练,使大脑习惯于“把麻烦问题交给AI”;


在青少年阶段,这种习惯一旦固化,很可能延伸到成年后的决策方式。


2.评价体系被稀释


当作文、报告都可以由AI代写,老师很难区分哪些是真实能力、哪些是AI生成。法国与美国多地教育机构已报告,AI“替写作业”“考试作弊”的案例激增,传统以书面作业为核心的评价体系正在被动走向失效。


3.“可接受”的灰色地带正在扩大


虽然多数青少年目前仍认为“用ChatGPT写作文”不可接受,但“查资料”“写提纲”“润色”这些模糊场景**正在成为日常,未来很可能逐步蚕食原本属于学生自己思考、组织和表达的空间。


因此,与其说ChatGPT“让青少年变傻”,不如说它在悄悄改写青少年“如何学习”“如何解决问题”的默认模式:从“自己推理”变成“先问AI”的心智路径迁移。



四、“几乎所有人生决策都会先问ChatGPT”:AI正在侵蚀青少年情感与判断力


更值得安全人士和家长社区警惕的,是AI从“学习工具”向“情感陪伴者”的角色转变。


美国非营利机构Common Sense Media在2025年发布的一份报告显示,超过七成青少年使用过AI“情感陪伴类应用”(Replika、Character.ai等),不少人每周甚至每天都在与“虚拟朋友”聊天,其中约三成表示“和AI聊天的满足感不亚于甚至超过现实朋友”。


OpenAI首席执行官Sam Altman在今年一次公开演讲中也承认,有相当数量的年轻人表示“几乎所有人生决策都会先问ChatGPT”,他本人对这种“情感与决策高度依赖单一系统”的现象表示担忧。


当我们把这些趋势与皮尤报告的数字叠加,就会看到一个更加复杂的风险图景:


  • 青少年在社交媒体上“几乎一直在线”;


  • 在学习上越来越习惯把搜索、整理、构思外包给AI;


  • 在情感与判断上,也越来越倾向于向“始终在线而且不会嫌烦”的AI求助。


这不是传统意义上“智商变低”的问题,而是:人格、判断与情绪调节能力,是否在被一种高度定制、但内在偏见与黑箱逻辑未知的系统所“重塑”。



五、真正的风险:不是“变傻”,而是失去独立思考与安全边界


皮尤研究一贯强调自身“不为政策表态,只呈现数据”。这意味着,它不会直接给出“ChatGPT是否让青少年变傻”的结论。


但从安全视角,至少可以得出几条值得关注的趋势和建议:


1. 把“AI习惯养成”视作新的安全边界


对学校与家长而言,问题不再是“让不让孩子用ChatGPT”,而是:


  • 用来做什么?


  • 在什么情况下必须“只参考、不直接照抄”?


  • 什么时候必须停下来“自己想一想”?


这需要类似“网络素养教育”的新一轮“AI素养教育”,将“如何和AI保持健康距离”纳入课堂与家庭对话。


2. 高风险人群需要额外保护


从数据上看,黑人、西班牙裔、低收入家庭青少年,在“几乎一直在线”和使用AI聊天机器人上的比例普遍更高。


他们往往更依赖免费在线工具,线下支持系统(家教、心理服务)更弱;


一旦过度依赖AI,无论是在学习、职业规划还是情感问题上,都可能在“不对称的算法环境”中被进一步边缘化。


这意味着,监管与公益项目应优先关注这些群体,为他们提供更透明、更可控的AI教育工具与心理支持渠道。


3. 平台与监管应从“防作弊”走向“防依赖”


当前教育系统对AI的讨论,多集中在“如何防止抄作业、作弊”。但从皮尤与多家研究机构的最新数据看,“情感依赖”“认知外包”和“时间占据”已经成为更长期、更隐蔽的风险。


从安全治理角度,可以考虑:


  • 对面向未成年人的AI产品设定更严格的“学习模式”“陪伴模式”分级;


  • 对“作业代写”“考试场景”建立更清晰的技术限制与标记机制;


  • 要求平台对未成年数据的收集、画像和广告定向做进一步透明与约束。



六、对中国青少年教育和网络安全的三点警示


美国青少年今天呈现出的AI使用画像,很可能就是全球其他国家在3–5年内将要面对的现实。


对于中国的教育与安全治理实践而言,这份皮尤报告至少给出三点启示:


1.及早做“AI素养教育”的顶层设计


不仅教孩子“怎么用AI写代码”,更要教他们“什么时候不要直接相信AI”“什么时候要自己查证资料”。


2.把未成年人AI监管放在“数据+心理+教育”三重框架下


单一从“隐私保护”或“防沉迷”切入都不够,必须同时看到:


  • 注意力被平台和AI共同占据;


  • 情感与判断正在被算法塑形;


  • 学习过程日益“自动化”,但未必意味着真正掌握知识。


3.在国内产品设计时刻意保留“让孩子自己想”的空间


无论是教育类大模型还是儿童陪伴机器人,都应在产品层面设计“反依赖机制”:


  • 有意识地提示“这一步需要你自己尝试”;


  • 对明显属于“外包作业”的场景设置限制或延时;


  • 提供可视化的“AI使用时间仪表盘”,让家长和孩子自己意识到使用强度。



总结:问题不在于“AI有多聪明”,而在于“人还愿不愿意继续动脑”


皮尤的多份报告呈现“AI和社交媒体对青少年产生的事实影响”,清楚地刻画了一代人在注意力、学习方式和情感依赖上的结构性变化。


对安全与教育从业者而言,真正需要追问的也许不是“要不要禁止青少年使用AI”,而是:在一个64%青少年已经开始用AI、40%“几乎一直在线”、越来越多人习惯向AI倾诉和求答案的世界里,我们如何确保下一代仍然具备足够的独立判断、批判性思维和基本的数字安全感。


参考链接:

https://www.pewresearch.org/internet/2025/12/09/teens-social-media-and-ai-chatbots-2025/



^

相 关 阅 读


抗裁剪数字签名问世:防深度伪造AI假新闻技术取得重大突破

美国科技巨头联手制定AI智能体三大关键技术标准

英伟达发布AI智能体安全评估框架

【声明】内容源于网络
0
0
GoUpSec
内容 1936
粉丝 0
GoUpSec
总阅读711
粉丝0
内容1.9k