大数跨境
0
0

当算法觉得“女人更年轻”:互联网如何扭曲我们的年龄与性别认知

当算法觉得“女人更年轻”:互联网如何扭曲我们的年龄与性别认知 科学臻荟
2025-10-09
1
导读:你是否曾注意到,在广告、电影、甚至新闻图片中,女性总是比男性显得更年轻?

你是否曾注意到,在广告、电影、甚至新闻图片中,女性总是比男性显得更年轻?这不仅仅是你的错觉——一项发表于《Nature》期刊的最新研究指出,互联网上的图像、视频和文本内容中,普遍存在一种系统性的“年龄-性别偏见”:女性被描绘为比男性更年轻,而这种扭曲与现实数据严重不符。

📊 现实 vs 网络:数据背后的真相

研究团队分析了来自Google、Wikipedia、IMDb、Flickr、YouTube等平台的近140万张图片和数千条视频,并对比了美国人口普查数据,发现了一个惊人的矛盾:

  • 现实中:美国职场中男女的年龄分布并无显著差异,女性甚至平均寿命比男性长8年。

  • 网络上:女性在图像和视频中被一致地表现为更年轻。

例如,在Google搜索“医生”时,女性医生的图像平均比男性医生年轻5.46岁;在Wikipedia中,这一差距甚至达到7.1岁。而在名人图像中(如IMDb),女性名人比男性平均年轻6.5岁。

在来自7个网络来源的超过130万张图像及数千个视频中,女性被呈现的年龄显著低于男性

🤖 语言模型也在“复制偏见”

研究还发现,这种偏见不仅存在于视觉内容中,也深深植根于大型语言模型中。研究人员分析了包括GPT-2 Large在内的9个主流语言模型,发现它们在学习互联网文本时,也习得了“男性更年长、女性更年轻”的关联模式。例如,在GPT-2的语义空间中,“CEO”“主席”等词更接近“男性”和“年长”,而“秘书”“护士”更接近“女性”和“年轻”。

从互联网爬取的数十亿词汇中,根据OpenAI最大开源模型(GPT-2大型)的编码分析,女性被表征的年龄显著低于男性

🧪 实验证实:算法正在放大偏见

为了验证这种偏见是否会影响人们的认知,研究团队进行了一项全国代表性实验:

  • 参与者被要求通过Google图片搜索职业图像,并估计该职业从业者的平均年龄。

  • 结果发现,上传女性图像的人会显著低估该职业的年龄,而上传男性图像的人则会高估。


更令人担忧的是,这种认知偏差进一步影响了招聘偏好:人们更倾向于雇佣“年轻女性”和“年长男性”,而这与现实中的能力分布并无关联。

在谷歌上搜索职业图片会放大人们观念中基于年龄的性别不平等

📝 ChatGPT也“重女轻男”?简历生成中的隐形歧视

研究还审计了ChatGPT在生成和评估简历时的表现:

  • 当被要求为“女性申请人”生成简历时,ChatGPT会默认生成更年轻、经验更少的简历;

  • 而在评估简历质量时,ChatGPT更倾向于给年长男性的简历打高分。

这表明,基于互联网数据训练的AI模型,不仅复制了偏见,还可能在实际应用中加剧职场中的性别与年龄歧视。

性别与年龄对ChatGPT简历生成与评估的影响

🧩 偏见从何而来?地位越高,女性越“被年轻”

研究发现,这种“女性更年轻”的偏见在高地位、高收入职业中尤为明显。例如,在管理层、董事会主席等职位中,男性被描绘为年长的比例远高于女性。这反映出一种根深蒂固的性别化年龄主义:社会对女性的价值评判更倾向于外表与青春,而对男性则更看重经验与权威。

🌍 这不是“小问题”:算法正在重塑社会认知

这项研究揭示了一个严峻的现实:互联网和AI不仅仅是反映社会偏见,更是在系统性地放大它。当我们依赖Google搜索、ChatGPT等工具获取信息、筛选简历时,这些算法正在无形中塑造我们对“谁适合什么工作”的判断。年长女性在职场中面临的双重歧视——既因为性别,也因为年龄——在这种数字扭曲中被进一步固化。

✅ 我们能做什么?

研究者呼吁:

  • 平台与开发者:应在训练数据与算法设计中引入多维度的公平性审计,尤其是交叉性偏见(如性别+年龄)。

  • 用户与公众:应提高对算法偏见的认知,审慎对待算法推荐的内容与决策。

  • 政策制定者:需推动对AI伦理与数据透明度的监管,防止技术加剧社会不平等。

📌 结语

我们生活在一个被算法中介的世界里,如果我们不主动去纠正这些系统性的扭曲,它们将继续在无声中定义我们看待自己与他人的方式。这项研究不仅是一次对互联网偏见的揭露,更是一次对技术伦理的警醒。在AI日益渗透日常生活的今天,识别、理解并纠正算法中的偏见,已不仅是技术问题,更是社会共识的塑造过程。

参考文献:

Guilbeault D, Delecourt S, Desikan BS. Age and gender distortion in online media and large language models. Nature. 2025 Oct 8. doi: 10.1038/s41586-025-09581-z.

📢 欢迎转发这篇文章,让更多人看见算法背后的偏见——因为我们每一个人,都不该被“数字滤镜”定义。

关注我们,聚焦科学前沿!

【声明】内容源于网络
0
0
科学臻荟
本公众号专注解读Nature、Cell、Science等顶级期刊的最新科研突破,聚焦生命科学与生物技术领域,为科研工作者及行业同仁提供前沿、精准、深度的文献解析,助力科学洞察与创新转化。关注我们,快速获取全球顶尖科研动态!
内容 8
粉丝 0
科学臻荟 本公众号专注解读Nature、Cell、Science等顶级期刊的最新科研突破,聚焦生命科学与生物技术领域,为科研工作者及行业同仁提供前沿、精准、深度的文献解析,助力科学洞察与创新转化。关注我们,快速获取全球顶尖科研动态!
总阅读0
粉丝0
内容8