大数跨境
0
0

人工智能启示录:构建负责任的AI未来七大原则

人工智能启示录:构建负责任的AI未来七大原则 瀚鹏AI
2024-08-06
2
导读:通过其坚定的承诺和创新实践,微软不断推动人工智能技术的健康、安全和负责任的发展。而在全球范围内,微软的合作伙伴们也在积极地将这些高标准和创新技术融入到自己的业务和产品中。

line-height: 1.6em;">微软在构建人工智能应用时,已经设立了一套原则和流程来最小化意外伤害并提供用户期望的体验。尽管如此,生成式人工智能产品的广泛应用还是带来了新的挑战和机遇。为了应对这些,微软发布了其首份年度《负责任的人工智能透明度报告》,以增进公众对微软负责任人工智能(RAI)实践的理解。

同时,微软在Azure AI中推出了新工具,供企业客户和开发者使用,确保人工智能产品输出的质量,并预防系统被恶意或意外使用。在这一年中,对新兴技术和保障措施进行了大规模的压力测试,微软RAI方法的领导团队成员Natasha Crampton和负责推动RAI在全产品组合中实施的Sarah Bird分享了他们的一些见解。


将 RAI 融入基础,而非事后弥补


url();background-position: center top;background-repeat: no-repeat;background-size: cover;padding: 3px;">

微软将负责任的人工智能(RAI)作为公司文化的核心,而非事后补救措施,要求所有员工,特别是参与生成式人工智能应用开发的团队,遵循"负责任的人工智能标准"(Responsible AI Standard),确保在产品开发过程中评估潜在影响、制定应对计划,并采取必要措施,以促进客户和合作伙伴做出明智决策。微软通过强制性培训,提高了员工对RAI重要性的认识,截至2023年底,已有99%的员工完成培训。Natasha Crampton强调,RAI不应仅作为产品发布前的检查项,而应从产品设计之初就深入每个环节,确保每位员工都能从项目启动开始就考虑RAI的相关事宜。



加速成长与适应



在快速发展的人工智能领域,微软认识到必须迅速采纳并整合用户反馈,以推广其生成式人工智能技术。通过与用户持续互动,微软不仅能够识别并解决新技术普及过程中出现的问题,还能探索提升用户体验的方法,使产品更加吸引人。例如,微软在Bing搜索引擎中引入了具有不同对话风格的Copilot智能副驾驶功能,包括更有创造力、更平衡或更精确的模式。Sarah Bird指出,通过共同进行实验周期,尝试多种可能性,并从中吸取经验,微软能够不断优化和调整产品,以满足用户需求。



集中发展以实现规模化



微软推出Microsoft Copilot智能副驾驶®后,正致力于将人工智能技术整合到所有产品中,这要求公司建立一个集中化的系统以确保产品符合统一高标准。为此,微软在Azure AI中开发了RAI技术栈,统一团队使用的工具和流程。微软的RAI专家团队采用"共识驱动框架",集中管理产品发布过程中的评估和审批,从技术栈的各个层面到产品发布全过程,审查团队如何应对生成式人工智能的风险,同时考虑测试、威胁建模和"Red Teaming"等方法收集的数据。这种集中化审查帮助微软有效识别和减少安全漏洞,制定最佳实践,并确保信息及时共享给内外部客户和开发者。Sarah Bird强调,面对技术的快速发展,我们必须集中精力,迅速行动,并充分利用经验教训。



明确信息来源



随着人工智能技术在制作逼真的合成媒体方面日益进步,辨别这些内容的真伪变得至关重要。今年2月,微软与19家企业联合签署了自愿性承诺,目的是在2024年美国大选期间预防AI技术的欺诈性使用和deepfakes技术的潜在滥用。这些承诺包括开发阻止生成误导性图像的功能、嵌入追溯图像来源的元数据,以及为候选人提供举报deepfakes伪造内容的机制。微软已开发出媒体来源功能,即“内容凭证”,利用加密技术标记和签名AI生成的内容,并附上源和历史元数据,符合内容来源和真实性联盟(C2PA)的开放技术标准。微软的AI for Good实验室正致力于识别深度伪造内容,追踪并分析不良行为者的策略。Natasha Crampton强调,这些问题不仅是科技公司的挑战,而是需要社会各界共同努力解决的问题。



赋予客户RAI工具:强化AI应用的安全与效能



为了提升人工智能模型的输出品质并遏制生成式AI系统的滥用,微软正积极为客户提供一套全面的工具集与安全措施,涵盖开源、商业工具及技术服务,同时伴随详尽的模板与指南,助力企业负责任地构建、评估、部署及管理其生成式AI系统。2023年,微软推出的Azure AI 内容安全服务进一步强化了这一承诺,通过自动识别和过滤有害内容(如仇恨言论、暴力、色情及自残描述等),保障内容纯净。最新在Azure AI Studio(国际版)中加入的工具更是聚焦于增强系统的安全性和可靠性,赋予开发者和客户能力,以进行深度安全评估、快速漏洞识别与修复、强化风险监控,并有效检测模型可能产生的“幻觉”现象,即生成不实或虚构数据。微软的这一系列举措体现了其将安全性能置于核心位置的愿景,正如Sarah Bird所言:“安全性能,我们视为默认的必选项。”



前瞻防范:预测并抵御潜在的破坏行为策略



随着人工智能技术的日益复杂化,面对潜在的无害或恶意“越狱”企图——即绕过系统安全机制的行为,微软采取了前瞻性的措施。他们不仅在新产品发布前积极探测并修复漏洞,还携手客户,提供尖端工具以加固Azure平台上客户自定义AI应用的安全性。微软最新推出的模型,凭借先进的模式识别技术,能够有效侦测并阻止恶意“越狱”行为,从而捍卫大语言模型与用户交互的纯洁性,确保AI系统免受恶意指令操控或攻击。对此,Natasha Crampton评论道:“尽管这些非预期用途并非我们设计系统的初衷,但随着技术边界的持续拓展,它们不可避免地成为了技术演进中的自然现象。”



助力用户全面理解人工智能技术的边界



尽管人工智能技术极大便利了我们的生活,但微软仍强调其局限性,鼓励用户验证AI系统信息,并在输出中附上引用链接以增强透明度。自2019年起,微软通过发布“透明度说明”详尽阐述AI功能、限制、用途及责任使用方式,同时在产品中融入用户友好型通知,警示技术风险、错误及意外内容生成的可能性,明确用户正与AI技术互动。面对生成式AI技术的飞速发展,微软承诺持续优化系统、适应法规变化、更新流程,并致力于创造满足用户需求且负责任的AI体验,保持谦逊态度,积极倾听用户反馈,推动持续创新与学习。



微软在负责任的人工智能领域的领导地位,不仅推动了公司自身的可持续发展,也为整个行业树立了高标准。通过其坚定的承诺和创新实践,微软不断推动人工智能技术的健康、安全和负责任的发展。而在全球范围内,微软的合作伙伴们也在积极地将这些高标准和创新技术融入到自己的业务和产品中。


深圳领驭科技有限公司,作为微软中国南区的核心合作伙伴及具有HK CSP资质的企业,已经站在了这一创新浪潮的前沿。作为国内首批获得Azure OpenAI服务授权的服务商之一,领驭科技正在将Azure OpenAI的强大功能整合到其产品和服务中。这些功能包括先进的自然语言处理、分析和推理能力等,它们正在被应用于辅助写作、代码编写、多媒体内容生成以及数据分析等多个领域。


Azure OpenAI服务通过其大规模生成式AI模型,支持企业客户根据特定需求和场景,开发创新应用,涵盖辅助写作、代码编写、多媒体内容生成以及数据分析等多个领域,为互联网、游戏、金融、零售、医药等行业以及自动驾驶和智能制造等前沿技术领域带来深远影响。


随着微软及其合作伙伴的不断努力,我们有理由相信,人工智能技术将继续以一种负责任和可持续的方式发展,为社会带来更加丰富和积极的变化。未来,领驭科技将继续与微软携手,共同推动人工智能技术的创新和应用,造福全人类。



联系我们


深圳领驭科技有限公司

电话:0755 8654 3872

电邮:marketing@leinwin.com

网址:ai.leinwin.com

地址:深圳市南山区粤海街道高新科技园中区科技中三路5号国人通信大厦A座 902


【声明】内容源于网络
0
0
瀚鹏AI
瀚鹏AI产品体验和最新消息发布。
内容 111
粉丝 0
瀚鹏AI 瀚鹏AI产品体验和最新消息发布。
总阅读18
粉丝0
内容111