当前位置: 首页 » 资讯 » 行业 » 正文

对以ChatGPT为代表的生成式人工智能规制的思考

放大字体  缩小字体 发布日期:2023-07-20  浏览次数:34
核心提示:生成式人工智能又称为AIGC(AI Generated Content),与过去从海量数据中寻找信息的传统人工智能相比,生成式人工智能可以自主创
 生成式人工智能又称为AIGC(AI Generated Content),与过去从海量数据中寻找信息的传统人工智能相比,生成式人工智能可以“自主创造”,完成高水平的写作,互动对话等任务,水平甚至高于普通人。其他类型的生成式人工智能还有图像内容生成,娱乐内容生成与办公内容生成等多样功能。以ChatGPT为代表的生成式人工智能的强大功能过于“惊艳”,引起科技领导者的关注甚至是担忧。比尔·盖茨认为其意义不亚于互联网或个人电脑的诞生。埃隆·马斯克曾在多个场合表达了担忧,并且联名众多科技领导者签字并呼吁暂停对ChatGPT的研究,要求在6个月内出台相应的治理制度。基辛格认为ChatGPT等人工智能可能瓦解人类的自主意识,摧毁我们的认知。各国纷纷尝试出台规划或者法案来引领行业发展,调整社会关系,防控人工智能带来的风险。
 
本文通过以ChatGPT为例研究生成式人工智能原理以及影响,探讨法律上应对生成式人工智能短期方案,并尝试以更高站位,更深层次的制度探索来应对生成式人工智能的冲击。
 
    1 ChatGPT的原理以及冲击
     1.1 ChatGPT技术原理
ChatGPT全名是Chat Generative Pretrained Transformer,即生成式预训练变换模型。ChatGPT改变了深度学习模型理念,采用Transformer算法,其技术原理可以用简单的“预训练+微调”模式加以概括。在模型里调用超大规模的数据来完成日常训练,理解上下文以及抓住文本重点。模型几乎能模拟出人脑的神经元链接系统,像人类一样学习。但人工智能仅是经过大数据模型预训练还不够,因为此时人工智能虽可造出形式上通顺的句子,但依旧无法从实质上理解人类指令。故人工智能还需要引入人类偏好的数据,通过反馈强化学习,完成对模型的微调优化。之后重复以上步骤,使原始模型不断吸收反馈的信息而升级迭代,变成最终模型。实质上该人工智能的学习过程大体上类似一般人的学习过程。
 
     1.2 生成式人工智能带来的冲击
算法的改变,带来技术的突破,以ChatGPT为代表的一系列生成式人工智能将对人类社会带来冲击。从有利方面看,人工智能提高工作效率,能代替人类完成机械性的重复劳动,人们得以解放出来而集中精力从事深层次工作。作为内容生成式人工智能,其努力“工作”能够生产更多的信息,帮助人们学习,推动科学文化的进步。也有人预测人工智能将与各行各业的结合,引导传统产业升级甚至是创造新的产业,推动社会的创新发展。
 
生成式人工智能同样带来显而易见的负面影响。地球上每一轮的科技革新都伴随着凯恩斯眼中的“技术性失业”,而能力强大的生成式人工智能更是直接威胁到了脑力工作者的竞争力。历史上每一轮的革新都会冲击“保守”的力量,法律作为社会稳定的基础便首当其冲。生成式人工智能大幅增加了现有法律的适应性压力。如在著作权方面,关于人工智能生成的内容是否属于作品,是否享有知识产权,其形成内容过程是否侵犯别人的知识产权都成为热点问题。生成式人工智能还会威胁他人隐私与信息安全,有能力生成虚假内容以及充斥暴力,歧视,犯罪等违反法律与社会公德的内容,以上问题都需要法律做出应对。
 
或许现在的技术仍不够发达,但展望未来,生成式人工智能对人类文明,国家关系,市场竞争等方面将产生深远作用。有学者从人类文明的高度提出担忧,认为人工智能将会使得人类失去未来走势的决策权,陷入人工智能主导的信息茧房之中。生成式人工智能可能改变公众对人工智能的主客关系认知,削弱人类独立思考与批判意识。“地球脑的觉醒”可能并非危言耸听,人类应该对人工智能研发的安全性与伦理性进行普适性立法,提前为可能到来的风险失控做好防范。
 
在国家安全层面,人工智能有条件成为黑客攻击的推手,成为日后全球网络战的主力。目前来看,内容生成式人工智能训练的数据库以及产生的数据以英文居多,输出的内容也不可避免蕴含明显的英美国家价值观,这将阻碍其他国家形成文化认同,危害穷国弱国的国家安全。从市场竞争角度来看,生成式人工智能需要巨量的技术成本与资金成本。即使公开所有的技术难点,初创公司也难以承担模型训练成本。这使得ChatGPT这种划时代的产品只能由少数互联网巨头才能驾驭,从而垄断市场,使得社会分化更为严重。
 
生成式人工智能虽然带来社会进步,但是如何应对其带来的明显负面影响以及如何提前采取措施,化解好未来可能产生的对人类文明、国家安全与社会经济等层面的危机是值得深入探讨的。
 
    2 短期内对具体问题的法律应对
为了应对近年来人工智能所带来的冲击,尤其是对一些具体问题的法律规制,各方反应迅速。美国于2022年发布的《人工智能权利法案蓝图》,通过规范数据的安全隐私以提高数据质量。欧洲发布的《欧盟人工智能发展战略》在保护个人数据安全的同时,也在积极促进数据运用。我国近期也出台了相关文件,如2023年1月10日施行的《互联网信息服务深度合成管理规定》(以下简称《深合规定》),以及2023年4月11日发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)。我国出台针对人工智能的法律文件,并配合既有的法律规定尝试应对生成式人工智能带来的著作权、个人信息安全、生成内容真实合法等问题。
 
     2.1 著作权的相关分析与应对
生成式人工智能一经出世,首当其冲的便是著作权问题。诸多学者归纳指出,生成式人工智能相关的著作权问题包含两个方面,其一是人工智能会不会侵犯信息源内容的著作权,其二是生成式人工智能形成的内容构不构成受著作权法保护的作品且何人为著作权人。
 
针对第一个问题,《深合规定》尚未对知识产权相关内容进行规定,但是《征求意见稿》中明确指出,技术提供者应履行训练数据中不含有侵犯知识产权内容的义务。单从我国现状看,通过技术手段抓取数据不构成个人学习情形,因此数据抓取方应获得原著作权人相关授权。具体来看,可以通过“知情—同意”框架进行授权。为提高效率,可考虑针对特定内容在一段时间内连续授权或打包集体授权。同时基于数据行业创新发展的需要,笔者认为可以通过修法或者解释扩大公共领域合理使用的范围。
 
针对第二个问题,学者讨论颇多。关于能否被赋予作品资格,有学者持否定观点,其认为驱动人工智能生成的仅是算法程序,不能体现创作者个性,故不能被认定为著作权中的作品。但也有肯定观点认为内容生成式人工智能的内容生成过程可以被认为是创作行为,因此其作品可以被著作权法保护。笔者认为著作权法是保护思想的表达形式,而非思想本身。人工智能把信息进行重新组合与抽象,不一定要求达到“创一家之言”的开山之作创新度,只要外观上符合独创性的条件,可被认定为作品。而关于人工智能能否被认定为著作权人,目前主流国家的法律有两种模式。美国注重激励的实际效果,对著作权主体的认定较为宽松,主体不必为自然人;而在我国法系下更强调人的道德与权利,对著作权的认定更加严格。依据我国现行的著作权法,著作权的主体是自然人,法人等,在法律层面很难做出回应。笔者认为,如能提高相关主体的积极性,在完善责任制度前提下,可考虑授予内容生成式人工智能著作权人资格。在发生侵权责任的场合下,如果有幕后人操纵人工智能进行侵权,可以仿照公司法上“刺破公司面纱”否定其权利主体资格,直接追究其幕后人,或者要求人工智能与幕后人一起承担连带责任。
 
     2.2 个人信息安全的相关分析应对
针对个人信息安全的问题,《征求意见稿》与《深合规定》都有规范。两部文件主要从两方面保护个人信息安全,其一是信息的获取规则,其二是安全机制的建立。在第一个方面,《征求意见稿》第七条要求提供者对生成式人工智能产品数据来源的合法性负责,涉及到个人信息的应当征得个人同意。《深合规定》第十四条要求服务提供者加强数据管理,保障数据安全,如涉及个人信息的,应遵守个人信息保护的相关规定。《中华人民共和国个人信息保护法》第十三条则对个人信息的获取规则做了细致规定。在第二个方面,《征求意见稿》第十三条、《深合规定》第七条都要求建立安全机制,《中华人民共和国个人信息保护法》中第五十一条通过对信息处理者施加义务的方式保护个人信息安全。
 
 
 
我们无法真正预测未来,但是我们必须做好准备。2021年9月,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,提出“增进人类福祉、促进公平公正,确保可控可信”等六项基本要求及针对研发,管理等特定活动的十八项要求。2022年10月,外交部发布了《中国关于加强人工智能伦理治理的立场文件》。国内学者普遍认为应该构建法律、自律等多元互动规制体系来保障人工智能可行可控。
 
人工智能带给人类无限便利的同时暗藏危机,加强人工智能伦理的框架设计是风险防控体系的内核要求。我们应有充足的预见性,坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责权和边界。未来要主动将伦理规范融入到人工智能研发、应用的各个环节之中,确保可审核、可监督、可追溯、可预测、可信赖。要重视人工智能伦理与人类未来的发展研究,建立严格的科技伦理审查制度,评估与管控风险。最后从政府、企业,到中介机构、社会公众等形成共识,树立风险底线思维,提高处置极端情况的能力。通过以上努力,确保人工智能安全可靠,可控,赋能全球发展,增进人类福祉。
 
    4 结束语
以ChatGPT为代表的内容生成式人工智能是一次重大的新技术变革,其促进社会全面发展的同时也对人类造成全方位冲击。短期来看,人工智能的问题可能是人与人之间的矛盾,可以通过对著作权、信息安全、内容质量等具体问题的法律调整应对,人类应对过往社会变动的经历使得自身富有底气。但是技术快速迭代存在失控的危险,未来或许演化为人与机之间的矛盾,这是全新的调整。我们须有前瞻性,通力协作扬长避短,形成我国人工智能发展“全国一盘棋”的局面。为防控人工智能已知或未知的风险,需尝试构建全方面的风险防控体系。而坚持伦理先行,加强人工智能伦理的框架设计是风险防控体系的内核要求。勇敢抓住机遇,妥善应对风险,最终让社会安全享用技术带来的红利,增进人类福祉。
 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐资讯
点击排行
 
网站首页 | 禁售产品总则 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 | 排名推广 | 广告服务 | 积分换礼 | 网站留言 | RSS订阅