印度提交《人工智能(伦理与问责)法案,2025》
2025年12月5日,印度2025年第59号法案《人工智能(伦理与问责)法案,2025》(Artificial Intelligence (Ethics and Accountability) Bill, 2025)正式提交至印度议会下院(人民院,Lok Sabha)。
法案的主要内容
该法案旨在为人工智能(AI)在决策、监控及算法系统中的应用建立统一的伦理与问责框架。法案将“人工智能”明确定义为:能够执行通常需要人类智能才能完成的任务的计算机系统或应用程序,包括但不限于决策、语言处理和视觉感知。“算法偏见”指AI系统中导致不公平结果的系统性错误;“开发者”则指设计、开发并实施AI模型与系统的个人或组织。
人工智能伦理委员会
法案要求中央政府设立“人工智能伦理委员会”(Ethics Committee for Artificial Intelligence,简称AI委员会),负责制定AI伦理指南、监督系统合规性,并审查AI滥用、偏见及违规行为。
对人工智能使用的限制
法案严格限制AI在监控领域的应用,仅允许出于合法目的且须事先获得AI委员会批准。涉及关键决策的AI系统(如执法、金融信贷、就业等)须满足两项强制要求:
• 不得基于种族、宗教、性别等任何受保护因素进行歧视;
• 必须接受AI委员会的严格伦理审查。
开发者的义务
所有AI开发者须履行三项核心义务:
一、确保透明度:披露AI系统的预期用途与局限性、训练数据来源与方法、影响个人决策的关键依据;
二、防止算法偏见:定期开展偏见审计、确保训练数据多样性与包容性、在发现重大偏见时暂停使用系统;
三、保存合规记录:留存证明符合本法案伦理标准的完整记录。
执行与问责
受AI滥用或损害的个人或群体可向AI委员会提出投诉,委员会须调查并建议处罚或补救措施。违法者将面临:
• 最高5,000万印度卢比(约合55.3万美元)罚款;
• 暂停或撤销AI系统部署许可。


