探寻生成式人工智能算法规制的思路-环球速递

经济参考报   2023-05-23 00:32:05

近日,由中国人民大学法学院、中国人民大学未来法治研究院主办的“生成式人工智能算法规制——《生成式人工智能服务管理办法(征求意见稿)》学术研讨会议”召开,来自政府相关部门、高校研究机构、人工智能产业界的专家参加了本次研讨会。


【资料图】

■中国人民大学未来法治研究院执行院长张吉豫:

可以以发展、安全和法治三个关键词概括对ChatGPT为代表的大规模语言模型的系列关注。第一,生成式人工智能技术是划时代的发展,大模型在互联网、数据等架构上可能形成新的层次,深刻影响产业的发展和未来技术的进步。第二,从数据、算法、系统集成等角度来看,生成式人工智能的发展、创新中伴随着风险与挑战。第三,为调节好发展和安全之间的冲突,构建以人民为中心的智能社会法律秩序,对于推动人工智能技术健康有序发展具有重要意义。

■百度公司副总裁吴梦漪:

结合《生成式人工智能服务管理办法(征求意见稿)》的几个看法:一是将开放API和通过API调取功能认定为内容生产者可能提高了对合规义务的要求。二是将生成式人工智能认定为具有舆论属性和社会动员能力的互联网信息服务,可能泛化了适用范围。三是从实践的角度,内容生成的准确性与生成式人工智能技术原理存在冲突。因此,初始阶段监管层面的重点应从追求内容准确性转向对违法利用行为的打击。四是需要辩证看待数据的好坏。生成式人工智能具有一定的创作性,海量的训练数据有利于提高技术的发展速度,希望监管的重点在于生成式人工智能产品的质量,不宜对训练数据和技术路线做过于详尽的规定。五是综合考虑生成式人工智能服务的人机对话特点,简化对真实身份信息要求的规定。

■腾讯研究院首席数据法律政策专家王融:

对生成式人工智能的规制的几个建议。第一,生成式人工智能可能是未来新的信息时代最为基础的工具,超越了单纯的互联网信息服务,应以全新视角去看待。第二,制定规章是必要的,但是目前法律规范本身可能还需要进一步讨论新的问题;输出信息的质量方面有很强的市场自驱力;而大模型时代的底层网络安全和数据安全,发展更为优先。第三,三个月的模型优化训练期限在实践中难以落地,不妨考虑其他多种技术手段。最后,在AI发展领域,风险浮现是渐进式的,市场主体和监管主体应在共同目标和接近的立场下协同解决问题。

■中国人民大学法学院教授王利明:

应正视ChatGPT引发的问题,思考法律上如何积极应对。首先,面对生成式人工智能引发的人格权和知识产权方面的问题,立法过于超前可能会阻碍技术的发展和创新,通过发布管理办法或制定相关措施积累经验,条件成熟后再立法可能是相对稳妥的办法。

对ChatGPT引发的侵权问题,提出五点建议:一是在价值取向上积极支持人工智能产品的开发。二是ChatGPT不同于自动驾驶等一般产品,让服务提供者承担无过错责任会阻碍技术发展,不符合鼓励技术创新的价值取向。三是可借鉴医疗事故责任的减免规则,因技术水平限制而导致难以消除的漏洞时,可以适当减轻甚至免除服务提供者的责任。四是加强和强化服务提供者对个人隐私信息的安全保障义务。五是关于ChatGPT的幻觉回答导致的侵权责任分配问题,应区别平台大规模生成与用户恶意诱导的情形。

■中国社会科学院大学副教授刘晓春:

从四方面提出监管的建议。一是监管必要性,若在新技术场景下,原有体系能解决大部分问题,就缺乏专门规制的必要性。生成式人工智能的重要风险点在内容层面,如果生成的内容没有传播,是否存在风险仍存在疑问;如果已经传播,则要考虑原有的治理系统是否能够解决问题。二是监管有效性,其核心问题是公权力对产业的治理或干预是否能真实、有效地达到基于监管必要性的风险治理目的。三是结合我国现有产业背景考虑监管技术的应用场景。未必每个企业都研发大模型,但是在应用层面具有各自极大的拓展商业的可能性,应为应用层面的商业模式留出发展的空间。特别是在对内容生产者的定义上不应拓宽。四是从立法基础的角度考虑协调性。比如,在实名制问题上与网络安全法相协调,在算法的评估和备案问题上,也应基于现有的机制协调。

■对外经济贸易大学副教授许可:

《生成式人工智能服务管理办法(征求意见稿)》与之前的法律、现有的实践和技术存在四大矛盾。第一,新法和旧法的矛盾。《互联网信息服务深度合成管理规定》中的深度合成技术和《生成式人工智能服务管理办法(征求意见稿)》中的深层次人工智能技术之间有何异同尚不明确,未来执法过程中可能产生矛盾。第二,域外效力和属地管辖之间的矛盾。《生成式人工智能服务管理办法(征求意见稿)》涉及的内容超出了《个人信息保护法》覆盖范围,部门规章是否能设立超出上位法的域外管辖权存在疑问。第三,网络信息内容安全管理和通用技术规制之间的矛盾。将通用性的人工智能限制在网络信息内容上,可能出现规制工具和规制目标的不匹配。实际上,在不同的场景下,生成式人工智能的风险因形态而异,如何判断其风险,需要模块化判断。第四,全流程安全要求和技术内在特征的矛盾。全流程的管理和生成式人工智能的特性不符,例如,预训练数据的合法性难以实现,数据与最后信息生成之间也并不存在直接映射关系。

■对外经济贸易大学副教授张欣:

在监管对象上,我国的人工智能企业此前多集中在应用层,在基础层和技术层分布相对较少。在监管方式上,面向生成式人工智能的产业链特点,可以提升监管的互操作性、一致性。在监管创新上,一方面应注重监管的韧性,另一方面应积极探索以模块化监管为代表的新型监管方式。对《生成式人工智能服务管理办法(征求意见稿)》的四点修改意见:第一,进一步厘清第2条对“生成式人工智能”的定义。第二,面向产业链特点明确第5条中“产品生成内容生产者”的范围,不宜通过一刀切的方式让所有行为主体都承担产品内容生产者的责任。第三,第7条关于预训练数据和优化训练数据来源的准确性问题可以适当调整,只要在可接受的技术水平条件下,组织和企业履行了相应义务,可认为符合人工智能准确性原则。第四,第15条关于防止再次生成的期限和防止再次生成的方式聚焦于技术过程,目前的技术手段上难以达成,可以转换为从结果监管的角度防止被用户举报的不合法合规的内容再次出现。

■中国人民大学法学院教授万勇:

在生成式人工智能对著作权法合理使用制度的挑战方面,生成式人工智能可能涉及著作权法上的复制权、演绎权和向公众传播权。但是,目前的合理使用类型难以适用于人工智能技术。其次,为了解决相关的问题,应人工智能产业发展的合理使用制度改革,主要有两种解决方案:一是重塑理论基础,提出“作品性使用”与“非作品性使用”的概念,为了数据挖掘目的而使用作品,只有部分情形属于“非作品性使用”;二是改造制度规范,包括增设具体例外条款或引入开放式例外条款。建议修改《著作权法实施条例》,引入专门例外,兼顾产业发展和著作权人的权利。

■中国人民公安大学法学院教授苏宇:

处于追赶中的国内生成式人工智能在风险治理之外也非常需要制度支持。生成式人工智能大模型面临算法解释难、算法审计难、算法标准形成难、算法影响评估难、算法认证难等问题。《生成式人工智能服务管理办法(征求意见稿)》的主要考量问题是信息内容安全问题,在安全保障方面设计了“六重叠加”的机制,包括输出端的生成结果控制、输入端的数据来源和数据信息内容限制、扩展的内容生产者责任、用户举报与主动监管结合、宽泛的信息提供义务、与算法推荐和深度合成等已有立法的有限衔接等。其中部分机制存在不同程度的安全冗余。除此之外,还有需要充分考虑的治理要点,包括生成代码的单独归类、训练数据的必要区分、输出结果的类型提示、数据来源合法性的具体界定等。总体来说,对生成式人工智能的法律治理,大幅度降低无效或低效风险冗余应当是机制设计的重要目标。

■中国信通院高级工程师程莹:

生成式人工智能第一大特点是通用目的性。作为新底层基础平台,AIGC供应链被拉长,研发者是否应承担责任,研发者、平台方、B端用户、C端用户等如何分担责任成为关键问题。征求意见稿第5条应对各个主体进行精细划分。第二个特点是内容生成性,带来了知识产权、虚假信息等问题。未来生成式人工智能代表了知识调用方式的变迁,将掌握绝大多数信息来源,相较于深度合成的重点标识义务,负有更高算法评估、自我审查等义务。然而,一刀切要求训练数据和生成结果的真实性可能与生成式人工智能的技术本质存在一定冲突。第三个特点是数据依赖性,这是人工智能一直以来的典型特征,但是呈现了新的形式,例如中文语料库输入不足带来的文化偏见、数据虹吸效应带来的数据泄露风险等,相关法律义务应注意保持与上位法要求的一致性。

■中国科学技术信息研究所助理研究员刘鑫怡:

英国的监管框架是基于人工智能应用场景来规范人工智能应用,而非规范人工智能技术,并不为整个行业或技术设定规则或风险级别。在监管依据上,在不确定的技术应用和治理中探索可量化、可定性的成本收益及影响,这对我国监管政策的出台有启发意义。在目前的大模型监管上存在难点。主要包括三方面:一是技术的局限性导致目前难以达到治理的高标准;二是大模型治理的方式和限度难以把握;三是目前多样化治理工具没有完全发挥作用。随着多模态大模型的研发和广泛应用,未来的风险问题会逐步深化。建议在统筹发展与安全的基础上,构建全生命周期的差异化监管机制,加强人工智能重点领域关键环节监管。同时倡导“以技治技”,开展安全可信技术的治理。

最新供应

更多