我觉得,以下这些事儿,你肯定多少都做过一些:
让文心一言帮你润色工作报告;
用通义千问构思朋友圈文案;
用绘图软件的的AI绘画功能生成一张美颜且点缀过的照片;
用某个短视频自带的ai功能平台生成过一些搞怪视频;
连很多中老年人都会的“图片一键生成视频”……
不知不觉间,生成式AI已经从科技新闻中的概念,变成了我们手机里触手可及的工具。它仿佛一位不知疲倦的创作伙伴,能与你对话、为你设计、帮你表达。但在享受这份便利的同时,我们是否想过:这些看似“聪明”的创作从何而来?它们又将把我们的数字生活引向何方?
从“识别万物”到“创造万物”:生成式AI究竟是什么?
要理解生成式AI,不妨先看看我们早已熟悉的那些AI应用。手机相册能自动把人像、风景、美食分类——这是传统AI,擅长识别与归类。而当让绘图ai自动生成一些海报或者去除水印、logo时,当你让deepseek帮你检查错别字或者整理文案时,当你使用视频软件的“一键成片”时,你使用的就是生成式AI。它的核心能力不再是“看懂”世界,而是“创造”新内容。
这项技术的魔力,源于它对海量数据的学习。就像一个阅遍无数画作的画家,最终能融合各家风格画出新作一样,生成式AI通过分析互联网上数以亿计的文本、图像和声音,学会了人类创作的“模式”与“语法”。当你输入“黄山云海间的古风亭台”时,AI并非从某个图库中直接调用照片,而是根据它学到的对“黄山”、“云海”、“古风”、“亭台”等概念的理解,重新组合渲染出一幅前所未有的数字画作。
这种技术虽然最早可以追溯到八十年前对神经元数学模型的初步探索,但直到近几年,计算能力的飞跃和海量数据的积累,才真正迎来爆发。
一个关键的转折点是2012年ImageNet竞赛中深度学习的突破性胜利,这证明了多层神经网络在理解复杂模式上的巨大潜力。而Transformer架构的提出,如同为AI安装了一套处理语言关系的强大引擎,直接催生了现在我们对话的大语言模型。
[美]阿尔文德·纳拉亚南
[美]萨亚什·卡普尔 著
王勇 王安心 译
中信出版集团 出版
正如《AI万金油:商业幻想与科技狂潮》一书所梳理的,这条“通往生成式AI的漫漫长途”充满了偶然与必然,也让我们更能理解,今天这些看似神奇的创造能力,其实是一代代研究者“厚积薄发”的结果。它并非横空出世,而是历经数次“寒冬”与“复兴”,在算法、算力和数据三股力量的共同推动下,才最终走到了聚光灯下,从实验室走向了我们的日常生活。
便利背后的现实挑战:当AI融入普通人的日常
生成式AI在展示惊人创造力的同时,大大的丰富了人们的娱乐生活,更是提高了人们的工作效率。可是正如标题所说的,“双刃剑”能带来的可不只有快乐,还有“剌到手的肉疼”。
首先,是“以假乱真”带来的信任困境。生成式AI的本质是“概率预测”,其首要目标是生成流畅、合乎逻辑的内容,而非保证绝对真实。这导致它经常会“一本正经地胡说八道”。例如,曾有学生用国内某AI工具查询历史事件细节,得到的回复内容详实、引经据典,但其中关键日期和人物关系却被混淆,如果不加以甄别,就会形成错误认知。在法律咨询、医疗健康等严谨领域,这种“幻觉”风险尤为突出。更深远的影响在于,当AI生成的虚假信息、伪造的音频视频泛滥我们多年建立的“眼见为实”的信任基石将被动摇。未来,接到熟人的语音借款请求,看到一段明星的争议发言视频,我们第一反应可能不再是相信,而是怀疑:这是真的吗?
其次,是创作伦理与版权归属的模糊地带。许多国产AI绘画模型在训练时,吸收了互联网上无数画师公开的作品。于是,一位普通用户也能通过输入“赛博朋克风格,少女机甲,绚烂霓虹”等提示词,生成颇具专业水准的图像。但这一过程引发了尖锐的争议:AI的“创作”算原创吗?被学习了风格却未获通知与补偿的原作者,权益又该如何保障?《AI万金油》中提到,全球艺术社区曾爆发过“拒绝AI生图”的抗议浪潮。现在国内一些平台已经出现了画师与读者携手抵制ai绘画浪潮,创作者们担心,低价甚至免费的AI产出会挤压他们的生存空间,读者则担心那些绘画水平低的画师使用AI来伪装原创,从而收到欺骗。长远看,也可能削弱人类独特艺术表达的多样性。
再者,是偏见强化与隐私侵蚀的隐形风险。AI在学习人类数据的同时,也难免习得其中的偏见。例如,当用户要求生成“一位工程师”的形象时,某些工具仍倾向于输出男性面孔;在描述职业成就时,对性别的措辞也可能存在无意识的差异。这些输出无形中加固了社会固有刻板印象。另一方面,AI声音克隆、照片生成技术的低门槛化,让恶意伪造变得异常容易。普通人可能成为色情深度伪造的受害者,或遭遇精准的AI语音诈骗,个人隐私与尊严面临前所未有的威胁。
最后,我们不能忽视光环背后的“人力暗面”。为了让AI输出更安全、更符合价值观,需要大量人工对生成内容进行审核与标注,以过滤有害信息。这部分枯燥且常接触负面内容的工作,往往外包给成本更低的地区。这些“AI训练师”构成了产业不可或缺的一环,但其劳动条件与获得的回报,却与AI公司的万亿估值形成鲜明对比。我们使用的每一个“智能”回复背后,都可能包含着全球劳动力市场不平衡的复杂故事。
面对生成式AI的狂飙突进,身处浪潮中心的科技从业者们,在推动技术前沿的同时,也发出了的冷静思考。
一种声音着眼于技术的终极潜力与风险。被誉为“AI教父”的杰弗里·辛顿(Geoffrey Hinton)在2023年离开谷歌后,多次表达了对AI发展速度的担忧。他认为,AI可能很快在泛化能力上超越人类智能,并且学会操纵人类。他的警告并非空穴来风,而是基于对神经网络学习机制数十年的深刻洞察。他强调,我们创造出的数字智能与生物智能的运作方式根本不同,其进化轨迹可能失控,人类必须将AI安全研究置于前所未有的优先位置。这种对“生存性风险”的严肃考量,将AI伦理讨论提升到了文明存续的高度。
另一种声音则更关注技术落地过程中的现实社会影响。如纽约大学教授梅雷迪思·惠特克(Meredith Whittaker)所反复倡导的,她认为许多AI问题本质上是社会权力与经济结构的反映。她指出,对“智能”的过分关注,常常掩盖了AI系统对低薪劳动力的依赖、对数据资源的掠夺性收集,以及可能加剧的社会监控与不平等。她的观点提醒我们,在赞叹技术奇迹时,必须审视其背后的人力成本、环境代价和财富分配。这与《AI万金油》中对数据标注员境遇的描绘和对“监控之眼”的警惕不谋而合,共同指向一个核心:技术治理必须与社会公正的议程紧密结合。
与此同时,来自国内产业前沿的思考则更显务实与探索性。阿里巴巴前首席技术官王坚院士曾比喻,数据是数字时代的“石油”,而计算是“发动机”。在生成式AI的语境下,他认为当前的核心挑战之一是如何让这台强大的“发动机”更高效、更普惠、更安全地运转,真正转化为各行各业的“生产力”。百度创始人李彦宏则多次强调“AI原生应用”的重要性,他认为未来真正的竞争不在于大模型本身的数量,而在于基于大模型创造出的、能解决实际问题的杀手级应用有多少。这种思路将焦点从技术竞赛拉回到用户价值和产业融合。
其实,这些多元的、有时甚至对立的声音,共同描绘出一幅更完整的图景。 它们告诉我们,生成式AI的未来并非一条预设的坦途,而是一个充满选择的十字路口。它既包含着提升生产效率、激发个人创造力的巨大机遇,也伴随着失业冲击、伦理失序、权力集中的严峻挑战。专家的分歧与共识,恰恰说明了这项技术的复杂性和塑造其方向的紧迫性。
可以说,生成式AI已经开启了一个新的时代。它不应被视为即将替代人类的“对手”,也不该被盲目崇拜为无所不能的“先知”。它的本质,是一个能力空前强大、但依然需要人类引导和设定目标的工具。
作为普通用户,我们当然要拥抱它的便利性:让它辅助我们处理信息、激发灵感、完成重复性的创作劳动。但我们也必须时刻保持清醒:对AI生成的内容进行事实核查,特别是在关键决策时;保护个人生物信息,警惕技术滥用;在享受AI创作乐趣时,也尊重和支持人类原创者的价值。
面向更广阔的未来,生成式AI的健康发展,需要的是超越技术的集体智慧。这包括:建立更清晰的数据使用与版权规则,保障创作者权益;推动制定针对深度伪造等恶意使用的法律法规,保护公民权益;倡导更公平的AI劳动价值链,让技术进步惠及更广泛的群体;以及,开展全社会范围内的数字素养教育,让每个人都具备与AI时代共处的理性和能力。
技术的光芒照亮前路,但是产生了阴影。我们要用人性的尺度去审视和修正它。生成式AI的漫漫长路,终究是我们如何定义智能、价值与共同未来的探索之旅。在这段旅程中,《AI万金油》所提供的冷静观察与深刻剖析,无疑是一份值得随身携带的理性地图。
部分图片来自网络,侵删
中信出版墨菲 | 尽情分享朋友圈
-近期好文推荐-
↓↓↓点击阅读原文,收获《AI万金油:商业幻想与科技狂潮》





