据路透社及外媒 TechCrunch报道,印度电子和信息技术部在上周五发布的一份公告中规定,所有正在开发中的人工智能工具在印度市场发布之前,都需要获得政府的批准。

公告表示,正在测试中和不可靠的人工智能模型、大型语言模型、生成式人工智能、软件或算法在通过互联网向印度用户提供服务只有获得印度政府的明确许可后才可以发布,只有在对产生的输出可能存在的固有错误或不可靠性问题进行适当的标记后才能部署。

此外,所有中介机构 (调用其他公司 AI 模型的平台) 或平台必须确保人工智能模型不存在偏见、歧视。
尽管这份公告还不具备法律约束力,不过公告要求所有人工智能技术相关的产品必须在公告发布的 15 天内遵守公告中的规定。在申请许可证并获得批准后,开发商可能会被要求进行演示或接受压力测试。
印度电子信息技术部副部长Rajeev Chandrasekhar强调,该报告标志着未来监管的方向。他还补充道,如果不遵守这一建议,这些人工智能平台可能会面临即将出台法律的监管。
事实上,谷歌的Gemini在印度刚引发了一场乌龙事件。
2月末,有网友在X平台分享了Gemini对印度总理莫迪相关问题的回答,Gemini将莫迪与“法西斯”相关联,称莫迪实施的某些政策被一些专家认为具有法西斯主义性质并举出具体案例。
一天后,谷歌表示该问题已经被解决,并表示Gemini不总是可靠的。
但很快 Chandrasekhar在X平台强势回应道,“安全与信任是平台的法律义务,‘对不起,不可靠’的回应不能免于法律责任”,并对Gemini AI聊天机器人可能违反印度IT法律表示担忧。

