观韬解读 | 全球人工智能监管系列解读(六)——印度人工智能监管体系评议
作者:王渝伟 张烜 徐倩怡 颜茜
伴随人工智能(AI)飞速发展、以及中国企业出海浪潮的大背景,全球范围内关于人工智能的法律法规和政策指引正逐步成型。因此,我们汇总和梳理了全面的、涉及境外主要经济体的人工智能法律与政策分析,并将作为完整的系列逐步发布,以期为企业出海、以及后续在人工智能领域的进一步法律研究,提供基础支持和指引。
本篇为该系列的第六篇,对印度在人工智能领域的法律法规、政策进行归纳和解读。点击下方文章标题可查阅此前已发布的第一篇(美国篇)、第二篇(欧盟篇)、第三篇(新加坡篇)、第四篇(加拿大篇)、第五篇(日本篇):
《观韬解读 | 全球人工智能监管系列解读(一)——美国监管体系评议》
《观韬解读 | 全球人工智能监管系列解读(二)——欧盟的人工智能(AI)监管方法》
《观韬解读 | 全球人工智能监管系列解读(三)——新加坡人工智能治理》
《观韬解读 | 全球人工智能监管系列解读(四)——加拿大人工智能发展战略与治理探索》
《观韬解读 | 全球人工智能监管系列解读(五)——日本治理人工智能(AI)的实践路径》
印度人工智能治理:第三世界创新优先与降低风险的探索
摘要:在人工智能时代,AI技术已成为推动社会经济发展的关键力量,各国纷纷出台政策和法规以规范其发展。印度作为一个人口众多、IT行业发达的国家,在AI领域具有巨大潜力。印度虽无专门针对人工智能的法律法规,监管体系不够完善,但积极采用全政府方法进行治理,通过《信息技术法案》及相关规则、个人数据保护法律等间接规范AI发展,并通过一系列政策和措施推动AI技术的研发和应用,努力在创新与监管之间寻找平衡,形成了创新优先、普惠性应用及轻触式监管的人工智能治理特点,对发展中国家乃至全球AI治理均具有重要意义。
引言
在国际舞台上,印度的IT行业以令人惊叹的速度蓬勃发展,其IT公司数量居于世界第二位,诞生了如Tata咨询服务公司(TCS)、Infosys、Wipro等在全球市场表现突出的行业巨头,在全球IT业占据重要地位。印度软件外包公司规模庞大,汇丰全球研究报告指出,印度在2024-2025财年的IT出口额有望达到2100亿美元,占据全球IT外包支出的18%。快速发展且趋于成熟的IT行业、丰富的数据资源基础、多元的语言文化环境以及较为完善的创业生态系统,为印度人工智能产业的发展提供了可能。根据Statista统计数据,印度人工智能市场的市场规模预计到2025年将达到83亿美元,在全球人工智能领域扮演着重要角色。
但由于基础设施建设落后、社会数字化程度较低、复杂数据处理及信息管理需求不足、人工智能专门人才储备不足、产学转化断层等原因,事实上印度人工智能的发展情况也面临诸多挑战。鉴于印度需求的多样性,全政府方法对于有效管理AI的潜力和挑战至关重要。印度政府于2024年3月7日批准了IndiaAI任务,预算支出为1037.192亿印度卢比,旨在建立一个全面的人工智能创新生态系统,构建公共部门和私营部门的合作伙伴关系,推动印度AI生态系统的负责任、包容性发展。整体而言,印度政府已经初步建立人工智能的政策框架,它以电子和信息技术部为核心治理机构,以国家转型委员会出台的政策建议为建设指南,以期AI能够成为印度数字经济的“催化剂”和“动力引擎”。
目前,印度没有直接监管AI的具体成文法律、法定规则或法规,亦尚未建立明确规范AI和Machine Learning (ML)工具/技术开发和使用的立法框架。但同时,印度通过发布行业指导文件、咨询公告等其他灵活措施指导、鼓励负责任的人工智能发展,并基于《信息技术法案》及相关细则、个人数据保护及数据治理法律体系,间接为人工智能治理提供引导。印度电子与信息技术部(MeitY)认为人工智能对国家战略具有重要意义,因此曾对人工智能发展采取非强制性干预立场,但2024年3月1日发布的AI咨询公告(AI Advisory)及3月15日紧急修改的AI咨询公告,反映出印度在人工智能监管上的态度转向,由非强制性干预姿态转变为主动参与。
以下为印度目前人工智能及相关领域的法律、政策文件梳理:
名称 | 主要内容 | 发布时间 | 效力层级 |
《数字个人数据保护规则》草案 Draft Digital Personal Data Protection Rules,2025 | 该规则旨在提供DPDPA的必要细节和实施框架,为数据受托人提供明确的指导,确保数据收集和使用的透明度。此外,规则引入了“同意管理人”机制,以标准化用户的收集过程;并对数据泄露、未成年人数据处理、跨境数据传输、重要数据保护影响评估和审计等方面作出规定。 | 2025年1月发布 | / |
印度国家软件及服务公司协会(NASSCOM)《印度负责任人工智能开发者手册》 The Developer's Playbook for Responsible AI in India | 该手册分析了判别式人工智能、生成式人工智能和人工智能应用程序在不同阶段可能存在的潜在风险,并给出了符合印度实践的风险缓解提示及相关指南的详细指导意见。 | 2024年11月发布 | 非强制性行业指导文件 |
印度电子和信息技术部(MeitY)《人工智能咨询》 eNo.2(4)/2023-CyberLaws-3:Due diligence by Intermediaries /Platforms under the Information Technology Act,2000 and Information Technology(Intermediary Guidelines and Digital Media Ethics Code)Rules,2021 | 该咨询文件涉及印度对AI模型和工具的使用和允许,包括生成式AI和大型语言模型(LLMs)。 3月1日发布的公告指示所有中介机构和平台为任何正在试用/不可靠的人工智能模型贴上标签,并在部署此类模型之前获得政府明确事先批准。 3月15日发布的最新公告不再要求政府事先批准AI模型的发布,而是建议公司标记测试不足和不可靠的AI模型以告知用户其潜在的错误或不可靠性。此外,该公告强调AI模型不应用于分享根据印度法律非法的内容,也不应允许偏见、歧视或对选举过程完整性的威胁。 | 2024年3月1日发布 2024年3月15日紧急修改 | 行政指导意见 |
印度电子和信息技术部(MeitY)《关于2021年<信息技术(中间人准则和数字媒体道德规范)规则>下的中介机构尽职调查和申诉报告机制的咨询》 No.2(4)/2023-CyberLaws-2:Due diligence by Intermediaries and Grievance Reporting Mechanism,under the Information Technology(Intermediary Guidelines and Digital Media Ethics Code)Rules,2021-regarding | 该咨询文件旨在解决人们对AI深度伪造驱动的错误信息日益增长的担忧,敦促社交媒体平台和其他中介机构遵守IT规则,特别是关于识别和删除违禁内容的规定,包括冒充他人或传播误导性信息的深度伪造。 | 2023年12 月发布 | 行政指导意见 |
拟议的《数字印度法案》演示报告 Proposed Digital India Act 2023 Presentation | 该报告旨在建立对印度数字环境的全面监督,有效应对网络犯罪、数据保护、深度伪造、互联网平台之间的竞争、在线安全和人工智能的负面影响等当代挑战。该拟议法案报告引入了基于风险和规模的中介机构分类系统,针对面向消费者应用人工智能和机器学习的各类公司规定严格的“禁区”,涵盖对用户存在潜在伤害的各个方面。 | 2023年9月发布
| / |
《数字个人数据保护法案》 Digital Personal Data Protection Act 2023,DPDP/DPDPA | 该法案旨在规范数字个人数据的处理,明确了数据主体权利,规定了数据受托人(Data Fiduciary)和数据处理者的义务,设立数据保护委员会(Data Protection Board of India),并对未成年人数据处理、跨境数据传输、以及特定情况下的豁免条款进行了详细规定。 | 2023年8月生效 | 法律规定 |
印度电子与信息技术部(MeitY)、印度技能发展与创业部(Ministry of Skill Development and Entrepreneurship,MSDE)《国家人工智能计划(NPAI)技能框架》 National Programme on Artificial Intelligence (NPAI) Skilling Framework | 该框架旨在通过系统化的技能发展计划,推动印度AI在各行业的应用和创新。该框架分析了AI在不同领域的应用,并提出针对不同群体的技能培养路径,涵盖从基础AI素养到高级技术开发的多个层次。此外,该框架还强调了伦理AI的重要性,提出了“负责任和可解释的AI”概念,并建议在所有AI课程中纳入伦理AI模块。 | 2023年6月发布 | 政策文件 |
印度国家软件及服务公司协会(NASSCOM)《负责任AI指南:生成式人工智能》 Responsible AI Guidelines for Generative AI | 该指南旨在为生成式AI(GenAI)的研究、开发和使用提供规范性义务和最佳实践建议,以确保生成式AI技术的安全和负责任应用。该指南提出了针对研究人员、开发人员和用户的义务框架,要求各利益相关方在开发和使用生成式AI时遵循透明度、可靠性、安全性和问责制等原则,推动AI技术的可持续发展。 | 2023年6月发布 | 非强制性行业指导文件 |
印度医学研究委员会(ICMR)《人工智能在生物医学研究和医疗保健中应用的道德准则》 Ethical Guidelines for Application of Artificial Intelligence in Biomedical Research and Healthcare | 该文件旨在为基于人工智能的解决方案的开发、部署和采用过程中的医疗人工智能道德决策提供框架,强调了定期进行内部和外部审计以确保人工智能系统最佳运行的重要性,并为所有利益相关者概述了人工智能在卫生部门应用的10项以患者为中心的关键道德原则。 | 2023年3月发布 | 非强制性行业指导文件(医疗行业) |
印度国家软件及服务公司协会(NASSCOM)《负责任AI资源工具包》 Nasscom Responsible AI Resource Kit | 该资源工具包旨在指导企业独立评估和跟踪AI解决方案的开发和实施,确保道德合规性,为企业提供在符合道德标准的同时开发和部署AI的工具和指导。 | 2022年10月发布 | 非强制性行业指导文件 |
印度国家转型政策委员会(Niti Aayog)《国家数据治理框架政策》草案 Draft National Data Governance Framework Policy,NDGFP | 该文件旨在通过数据主导的治理和基于数据的创新,充分利用数字治理的潜力。该文件推出了基于非个人数据的印度数据集计划,概述了政府和私营实体为安全访问非个人数据和匿名数据以用于研究和创新而应采用的方法和规则;并提议设立一个数据管理办公室,负责制定、管理和定期审查该政策,以及设计和管理印度数据集平台。 | 2022年5月发布 | 政策文件 |
印度国家转型政策委员会(Niti Aayog)《负责任的人工智能的实施原则》 The Operationalizing Principles for Responsible AI | 该文件作为《人工智能国家战略》(NSAI 2018)的延续,提出了确保AI技术安全、可靠、公平和透明使用的具体措施。该文件强调了对AI进行监管和政策干预、能力建设和激励道德的必要性,建议设立一个多学科的咨询机构即技术与伦理委员会(CET),以指导政策制定、监管干预等,并推动AI采购、数据共享和伦理审查机制的建立。 | 2021年8月发布 | 政策文件 |
印度国家转型政策委员会(Niti Aayog)《负责任的人工智能原则》 The Principles for Responsible AI
| 该文件作为印度跨部门创建合乎道德、负责任的 AI生态系统的路线图,从制度和社会两方面探讨了AI采用过程中的伦理挑战和考虑因素,并概述了人工智能系统负责任管理的七大原则,为在整个AI开发生命周期中纳入道德考虑和风险缓解策略提供了可行的步骤和框架。 | 2021年2月发布 | 政策文件 |
《信息技术(中介机构指南和数字媒体道德准则)规则》 The Information Technology(Intermediary Guidelines and Digital Media Ethics Code) Rules | 该规则旨在规范互联网中介(包括社交媒体平台、新闻和在线内容发布者)的行为,确保网络空间的安全、透明和负责任。该规则进一步明确了中介的责任,包括建立用户投诉处理机制、保护用户隐私、确保信息安全性以及在必要时配合政府调查,并为新闻和在线内容发布者制定伦理守则。 | 2021年2月生效 | 法律规定 |
印度国家健康管理局(NHA)《国家数字健康任务战略》 National Digital Health Mission:Strategy Overview,NDHM | 该文件旨在通过数字化手段提升医疗服务的可及性、效率和透明度,整合各种医疗服务数据,建立一个吸纳现有医疗信息的数字化生态系统;同时确保个人健康数据的安全和隐私。 | 2020年7月发布 | 非强制性行业指导文件(医疗行业) |
印度证券交易委员会《对市场中介机构提供、使用的人工智能(AI)和机器学习(ML)应用与系统进行报告》 Reporting for Artificial Intelligence(AI)and Machine Learning(ML)applications and systems offered and used by market intermediaries | 该文件旨在规范金融市场中介机构对人工智能、机器学习技术应用与系统的使用,通过建立报告机制,确定具体报告要求,深入了解印度金融市场对AI和ML技术的采用情况,确保这些技术的使用不会对投资者造成误导,并为未来可能出台的AI/ML政策做好准备。 | 2019年1月发布 | 非强制性行业指导文件 (金融行业) |
印度国家转型政策委员会(Niti Aayog)《人工智能国家战略》 The National Strategy for Artificial Intelligence,NSAI 2018 | 该文件旨在为印度未来对人工智能的监管奠定坚实基础。该文件确定了从人工智能中受益最大的五个行业:医疗保健、农业、教育、智慧城市和基础设施以及智能移动和运输;还推出了“AIRAWAT”(AI Research and Augmentation for Welfare and Transformation,人工智能研究与福利转型),通过促进包括学术界、工业界和政府机构在内的各利益相关者之间的合作来促进人工智能的研究和开发。 | 2018年6月发布 | 政策文件 |
《信息技术(合理的安全实践和程序及敏感个人数据或信息)规则》 Information Technology(Reasonable Security Practices and Procedures and Sensitive Personal Data or Information)Rules, 2011 | 该规则旨在通过明确的安全和隐私标准,保护个人数据免受未经授权的访问和滥用,同时为企业处理个人信息提供法律框架。要求企业在收集和处理这些信息时必须获得用户明确同意,且仅用于合法目的;此外,企业需确保信息安全并定期进行安全审计。 | 2011年4月生效 | 法律规定 |
《信息技术法案》 The Information Technology (IT) Act, 2000 | 该法案及其修正案是印度规范信息技术活动的核心法律,旨在促进电子商务、电子政务和打击网络犯罪。该法案明确了信息安全和保护要求,规范个人信息和敏感数据的处理;赋予了政府在特定情况下限制数据访问的权力;对违反信息安全和数据保护的行为设定了严厉的法律责任。 | 2000年6月获得批准 2000年10月生效
| 法律规定 |
一、印度人工智能发展政策
随着人工智能技术在全球范围内取得显著进展,印度政府意识到这些技术可以为印度的经济转型提供强大支持。2017年,印度政府工商部组建了印度经济转型人工智能工作组(Artificial Intelligence Task Force)。工作组由专家、学者、研究人员和行业领袖组成,旨在利用人工智能实现经济效益,并就印度AI部署提供政策和法律框架建议,针对特定部门、行业、研究项目制定具体的5年期建议。工作组于2018年3月21日发布了《人工智能工作组报告》,这是印度人工智能领域的首个重要报告,是朝着明确的AI政策迈进的积极一步。报告详细分析了人工智能在各重点领域的应用潜力;指出了AI使用和发展中面临的主要挑战,包括基础设施障碍、数据治理、消费者意识不足、伦理和法律支持缺乏等问题;并提出了一系列政策建议,在建立合乎道德的AI框架方面,工作组提出要使AI可解释、透明和可审计偏见。该报告指出,随着人类和AI交互的增加,需要为AI的部署制定新的标准。
2018年6月,印度国家转型政策委员会(Niti Aayog)发布《人工智能国家战略》,该报告强调包容性增长,开发可扩展和应用于新兴及发展中国家的人工智能解决方案的重要性,并着重关注人工智能在医疗保健、农业、教育、智慧城市和基础设施以及智能通讯与交通五个关键领域的发展。同时,讨论报告的主题是“所有人的人工智能”(AI for ALL),强调了印度发展人工智能的迫切性,指出了本国人工智能发展面临的困难和瓶颈,包括数据基础设施不足、研究产出低、技能人才短缺、企业采用成本高且认知度低,以及隐私、安全和伦理法规的不明确。具体而言,印度缺乏结构化且标注良好的数据集,人工智能研究产出方面低于全球领先水平,人工智能专业技能人才不足,企业面临高资源成本和低认知度的双重障碍,同时缺乏明确的人工智能监管框架来解决隐私、数据安全和伦理问题。此外,知识产权保护不足也抑制了对人工智能驱动产品和服务的投资。为解决上述问题,该报告提出了若干建议,如建立人工智能研究卓越中心(COREs)和国际转化人工智能中心(ICTAIs)、创建大型标注数据集、开发人工智能研究的通用计算平台以及建立国家人工智能市场(NAIM),以促进数据共享和人工智能模型部署;强调伦理人工智能发展的重要性,重点关注公平性、透明度和隐私;建立数据保护框架,制定特定行业的监管指南,以及促进国际隐私保护人工智能研究合作。此外,该文件还强调了重新技能培训劳动力和通过更新教育课程及培训项目为人工智能驱动的未来做好人才储备的必要性。
2022年10月,印度国家软件及服务公司协会(NASSCOM)发布《负责任AI资源工具包》,为企业提供在符合道德标准的同时开发和部署AI的工具和指导。2023年6月,印度电子与信息技术部(MeitY)、印度技能发展与创业部发布《国家人工智能计划(NPAI)技能框架》,旨在通过系统化的技能发展计划,推动印度AI在各行业的应用和创新。
印度初步建立的人工智能政策框架体现出印度政府对于人工智能研究与开发的支持,强调促成利益相关者之间的合作以及应用人工智能促进行业发展。“所有人的人工智能”更是指明了印度人工智能产业的未来发展方向,平衡经济收益和社会影响,为更大的人群服务,目标直指第三世界人工智能的巨大市场。其中,蕴涵了内在相互关联的三个方面:机会、普惠以及市场。印度对于人工智能产业发展的最大特点是政府主导而非私营部门引领,例如,在印度政府推动下,Aadhaar系统(全国性的身份认证系统)这一广泛应用面部识别技术、机器学习技术等人工智能技术的项目落地。这也从侧面展示了印度政府对于推动人工智能技术发展的开放态度。
二、印度人工智能监管政策
印度长期采取较宽松的监管政策,以此激励技术和应用创新。其主流观点认为,任何严格的监管都会扼杀创新,使印度难以实现印度人工智能使命的宏伟目标。但随着人工智能在政治选举等敏感领域的负面应用不断增多,印度政府开始逐步加强监管力度。2017-2022年期间印度人工智能相关专利申请数量增长5.2倍,在这一期间,AI指导性监管文件也开始增加。
2021年2月,Niti Aayog发布《负责任的人工智能原则》,概述了人工智能系统负责任管理的七大原则,重点在于道德考虑。同年8月,Niti Aayog发布《负责任的人工智能的实施原则》,提出了确保AI技术安全、可靠、公平和透明使用的具体措施。2023年6月,NASSCOM发布《负责任AI指南:生成式人工智能》,提出了针对研究人员、开发人员和用户的义务框架,要求各利益相关方在开发和使用生成式AI时遵循透明度、可靠性、安全性和问责制等原则。2024年11月,NASSCOM发布《印度负责任人工智能开发者手册》,分析了判别式人工智能、生成式人工智能和人工智能应用程序在不同阶段可能存在的潜在风险,并给出了符合印度实践的风险缓解提示及相关指南的详细指导意见。此外,印度金融行业、医疗行业均发布了非强制性行业指导文件,为规范相关行业领域人工智能的使用提供指导。
为应对人工智能在印度独特的社会经济格局中带来的机遇和风险,印度成立了一个多方利益相关者咨询小组和人工智能治理和指南制定小组委员会,旨在为人工智能治理提出可行的建议。2025年1月6日,该小组委员会发布了一份报告,强调采用协调一致的政府方法,以确保负责任的AI开发。该报告提出了八项原则,旨在通过借鉴经合组织AI原则等全球框架和Niti Aayog发布的《负责任的人工智能原则》等印度特定举措来指导印度的AI治理。该报告强调,AI治理的核心是最大限度地降低风险并利用其巨大潜力。同时,该报告强调了三个关键策略的制定:使用生命周期方法检查AI系统、采用AI参与者的生态系统角度、利用技术进行治理。MeitY已发布该报告以征询公众意见,寻求反馈以创建一个强大且具有包容性的框架,提交意见的截止日期为2025年2月27日。
尽管目前印度已就人工智能的开发与应用发布了多个指引,但仍未建立人工智能监管的综合立法框架,倾向于通过规范数据处理间接监管人工智能,利用现有的法律法规构建解决路径和人工智能监管的基石。在中国、美国、欧盟等国家/地区积极制定人工智能监管法律法规的时候,印度仍在就是否需要新的法规来应对人工智能的风险问题展开讨论。对于印度而言,如果建议、指南或有针对性的法律修订可以充分解决风险,则需要进行澄清或有针对性的修订,而不是采用新的全面规则。
2000年《信息技术法案》、2011年《信息技术(合理的安全实践和程序及敏感个人数据或信息)规则》、2021年《信息技术(中介机构指南和数字媒体道德准则)规则》、2023年《数字个人数据保护法案》构建了印度数据治理基本框架,明确了数据主体权利,规定了数据受托人和数据处理者的义务,规范了数字个人数据的处理。2025年1月,修订的《数字个人数据保护规则》草案发布,旨在为此前的《数字个人数据保护规则》提供必要细节和实施框架,为数据受托人提供明确的指导,确保数据收集和使用的透明度。
2023年6月,印度电子与信息技术部(MeitY)部长声明,印度将对人工智能进行监管,并正式开启《数字印度法案》的磋商工作。同年9月,MeitY发布了拟议的《数字印度法案》演示报告,演示报告指出,该法案将规范不同类型的中介,确保互联网的开放性和公平竞争,保护用户免受网络伤害,并建立专门的裁决和上诉机制,应对新兴技术带来的挑战和风险。据称,该法案将取代印度现有的2000年《信息技术法案》,并对数字环境进行全面监督。有报告称,该法案可能在2024年7月发布以征求公众意见,但目前该法案文本仍未向社会公布。MeitY秘书S Krishnan在2025年1月7日接受新闻记者采访时表示,目前处理人工智能和中介的现有法律框架令人满意,预计政府不会匆忙推出《数字印度法案》草案和围绕人工智能的监管框架。
针对人工智能应用中部分常见问题,印度通过现有法律法规中已有相关规定,能够基本应对印度社会经济环境下与人工智能发展水平相当的系列问题,现将部分常见AI风险及可适用的成文法分列如下:
AI风险 | 可适用的成文法 |
在AI生成的色情视频中对儿童的描绘 | ▪ 2000年《信息技术法》(Information Technology Act, 2000) ▪ 2012年《防止儿童性犯罪法》(Prevention of Children from Sexual Offences Act, 2012) ▪ 2023年印度刑法典(Bharatiya Nyaya Sanhita, 2023) |
使用AI生成的深度伪造进行未经授权的冒充 | ▪ 2000年《信息技术法》(Information Technology Act, 2000) ▪ 2023年印度刑法典(Bharatiya Nyaya Sanhita, 2023) |
在招聘决策中使用AI招聘工具形成的歧视 | ▪ 2016年《残疾人权利法》(Rights of Persons with Disabilities Act, 2016) ▪ 2019年《跨性别者(权利保护)法》(Transgender Persons (Protection of Rights) Act, 2019) ▪ 2019年《工资法典》(Code on Wages, 2019) ▪ 1989年《表列种姓和表列部落(防止暴行)法》(Scheduled Castes and the Scheduled Tribes (Prevention of Atrocities) Act, 1989) |
未经同意使用个人数据训练AI模型 | ▪ 2000年《信息技术法》(Information Technology Act, 2000) ▪ 2023年《数字个人数据保护法》(Digital Personal Data Protection Act, 2023) |
关于AI服务的可靠性或性能的误导性广告 | ▪ 2019年《消费者保护法》(Consumer Protection Act, 2019) |
未经作者或所有者许可,在 AI生成的内容中使用受版权保护的材料 | ▪ 1957年《版权法》(The Copyright Act, 1957) |
没有遵守中介人的尽职审查指引 | ▪ 2000年《信息技术法》第79条 ▪ 《中介指南》第3条 |
三、印度人工智能监管特点
印度电信监管局于2023年7月发布的《电信领域利用人工智能和大数据的建议》反映了逐步收紧监管的思路。2024年3月1日发布的人工智能咨询公告要求所有中介机构和平台为任何正在试用/不可靠的人工智能模型贴上标签,并在部署此类模型之前获得政府明确事先批准。尽管这一咨询意见并无法律强制力,但印度信息技术部副部长Rajeev Chandrasekhar表示,此举预示了未来监管的走向。这一严格要求在遭到行业的激烈反对和批评后,MeitY于2024年3月15日紧急修改了这一咨询公告,不再要求政府事先批准AI模型的发布,而是建议公司标记测试不足和不可靠的AI模型以告知用户其潜在的错误或不可靠性。
尽管印度政府长期采取较宽松的监管政策,但如上所述,莫迪政府在监管尺度上表现出犹豫不决,试图在促进人工智能技术创新与保护社会公众利益之间不断寻找平衡点,已在多个方面呈现出在收紧监管和放松监管之间的游移不定。而在当前阶段,印度人工智能国家战略仍然表现出“创新优先”特征。
印度始终缺乏对人工智能有力的监管举措,尽管开放、安全、信任以及问责原则一直是政府监管议程的核心部分,但目前并没有形成完整、连贯的监管策略。以打击深度伪造为例,目前印度的主要策略是发布临时建议公告以及法律威胁,问题仍未解决。印度人工智能监管主要体现为两方面的隐忧:1)缺乏具有强制力的可执行的针对人工智能的法律法规,目前针对人工智能的监管文件大多是政策性建议文件及非强制性行业指南;2)人工智能监管体系缺乏针对性,仍通过较为传统的信息技术法案及相关细则,以及个人数据保护进行规制,未针对算法偏见、深度伪造、个性化推荐等人工智能特有风险形成针对性法律法规。
尽管如此,印度积极促成利益相关者在人工智能监管方面的合作,并强调采用协调一致的全政府方法,从人工智能生态系统角度进行治理;重视人工智能应用的普惠性,包括推广人工智能应用于疾病监测、提升农业生产力以及促进语言多样性等;同时,强调支持创新,采用较为宽松的“轻触式监管方法”,其人工智能发展策略及监管方法对发展中国家乃至全球人工智能治理仍有巨大意义和价值。
参考文献
▪ 杨路.印度人工智能:治理框架、发展现状与趋势[J].南亚研究季刊,2024,(03):137-155+160.DOI:10.13252/j.cnki.sasq.2024.03.08.
▪ 安全内参,印度发布数据保护规则草案公开征求意见,https://www.secrss.com/articles/74323
▪ Global Legal Insights,2024年人工智能、机器学习和大数据法律-印度,https://www.globallegalinsights.com/practice-areas/ai-machine-learning-and-big-data-laws-and-regulations/india
▪ White & Case LLP,AI Watch:全球监管追踪器-印度,https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-india
▪ Asia Business Law Journal,AI监管:印度监管机制一览,https://law.asia/zh-hans/navigating-ai-india
▪ 三所数据安全,要闻速览 | 印度发布《印度负责任人工智能开发者指南》,https://mp.weixin.qq.com/s/tRBxhJdVzwgPBoFlhmlqyQ
▪ 酷玩实验室,心高命薄:印度AI的野心与窘境,https://mp.weixin.qq.com/s/9icKStYKQoLfjnf-H2pJdQ
▪ Carnegie India,印度的AI战略:平衡风险与机遇,https://carnegieendowment.org/posts/2024/02/indias-ai-strategy-balancing-risk-and-opportunity?lang=en
▪ Securiti,Inc.,引领印度的AI治理:MeitY 2025年报告的见解,https://securiti.ai/ai-governance-in-india-meity-2025-report