Py学习  »  chatgpt

王勇旗:ChatGPT技术嵌入法律职业领域的风险及应对

AI数字世界 • 3 天前 • 8 次点击  
来源:警察大学学报

ChatGPT技术嵌入法律职业领域的风险及应对

王勇旗


河南警察学院 公安专业基础教学部,河南 郑州   450046

摘   要:ChatGPT技术嵌入法律职业领域可带来诸多便捷,但更应关注其风险问题。ChatGPT技术嵌入法律职业领域存在技术风险、伦理风险和法律风险。面向法律职业技术化存在的风险问题,理念上要牢固树立“以人为中心”法治伦理理念:构建“以人为中心”法治伦理原则,明确智能科技产品在法律职业领域客体定位;思路上要规范生成式人工智能类法律规范同人类社会伦理道德相贯通:细化算法伦理制度,明确主体责任伦理法治化;手段上智能科技企业技术部门要注重自我规制同外部监督相结合、刚性规定与柔性条款相结合等,实现ChatGPT嵌入法律职业契合向善发展。
关键词:生成式人工智能; ChatGPT; 法律职业; 伦理风险

问题的提出

2022年11月,美国OpenAI智能科技公司实验室发布智能科技驱动文本交互工具ChatGPT(Chat Generative Pre-training Transformer),引发社会各界普遍关注。2023年4月11日,中国国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》规定,生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。ChatGPT技术作为生成式人工智能创新性技术成果,是生成式预训练与算法语言转换相结合的一种大型语言模型处理系统1,可通过有目的性的训练处理大体量数据,并按照用户指令和自身理解能力完成指定任务的高新技术,基本符合强人工智能可自主思考等特点。生成式人工智能ChatGPT技术不断发展并已到“ChatGPT-5”阶段2。ChatGPT技术嵌入不同行业将会出现“ChatGPT+司法”“ChatGPT+教育”“ChatGPT+家居”“ChatGPT+出行”等现象。
目前,人工智能技术在法律职业领域应用较普遍,如法官和检察官利用智能化辅助量刑系统和智慧检务系统,可以提高办案质量和效率,律师及法务管理人员利用人工智能大数据服务平台可为目标客户提供优质法律服务。同时,人工智能系统依托大数据分析亦可为特定客户提供专业化合同起草与审查、法律规范咨询与检索等专业化法律服务等3。但值得注意的是,虽然ChatGPT技术具有中立性、客观性、非歧视性等特征,但技术研发设计者、用户等主体基于自身教育、生长环境等因素可能存在各种偏见,有时容易导致生成式人工智能设计研发、应用过程中充斥各种不良倾向,给法律职业领域带来各种未知风险,甚至所带来的风险会呈现“不一样的维度”4 。可以预见的是,生成式人工智能背景下,不同行业技术化特征将更为明显,ChatGPT技术嵌入法律职业领域会存在何种风险以及如何有效进行法治应对是我们当下面临的重要课题。

ChatGPT技术嵌入法律职业领域的风险

马克思主义经典理论认为:辩证法在对现存事物的肯定理解中同时包含对现存事物的否定理解,即对现存事物必然灭亡的理解……按其本质来说,它是批判的和革命的5。ChatGPT技术不断革新是必然趋势,就如人类历史每一次工业革命都会引发人们新的惊喜、恐慌一样。我们应理性看待ChatGPT技术给法律职业领域带来的各种便捷,但同时我们更应关注ChatGPT技术给法律职业领域带来的风险,如技术风险、伦理风险、法律风险等。

(一)ChatGPT技术嵌入法律职业领域的技术风险

德国学者乌尔里希·贝克在著作《风险社会》中首次界定“风险社会”概念,他认为科学技术发展与进步在为人类创造文明的同时,也带来了“全球性、系统性的社会风险”6。ChatGPT技术嵌入法律职业领域会带来一系列技术风险,如源头、过程性和结论体现等方面。
第一,源头:设计研发者认知缺陷问题。ChatGPT技术无疑是智能科技领域伟大的技术突破,可从某种程度上改变人类文明的底层逻辑,打破人类文明既有边界7。结合人类文明发展史,无论任何信息或文字等都有可能追溯根源,而ChatGPT技术是人类知识创造的成果,更贴切表述应是设计者技术创造性产品。ChatGPT技术依赖表面信息获取,并结合设计研发者思路进行筛选、提取、重组等一系列程式化输出,缺乏对现实世界真实自我感知,更不会拥有同理心等人类专属情感,本质上仍是人类既有知识系统重组8。ChatGPT技术嵌入法律职业领域如司法审判时,该技术虽可通过专业系统性训练精准地为法官提供庭审所需法律条文,甚至结合庭审结果作出司法判决以供法官参考,但由于该技术受到设计研发者代码保护,如为避免敏感性换题而设定代码9,可能会因多元价值或信仰导致冲突或增加不确定性。这种情况下,ChatGPT技术设计研发者会不自觉将自身缺陷性或多元化价值观输入程序,从而导致系统中的“元问题”。即使用户进行持续、反复、系统、专业训练,但其内在“元问题”依然无法解决,该问题同样可能出现在智慧检务、智慧警务等法律领域,进而导致ChatGPT技术在法律职业领域因设计研发者认知缺陷等问题造成司法不公等现象。
第二,过程:数据模型存在偏差。ChatGPT技术作为大型语言处理模型,已具备多模态、跨模态的信息内容生产能力10,但也明令禁止使用其生成恐怖、暴力、仇恨、欺诈、儿童性虐待或任何伤害儿童等非法内容。即使如此,ChatGPT技术本质上仍是基于现有人工智能技术基础上的迭代升级体现,依然具有算法黑箱特点,其在应用中仍存在异化为违法犯罪工具的高度风险11。笔者不禁陷入思考:ChatGPT技术作为人类知识创造技术成果,已从程序设计源头尽力规避非法内容产生,但仍存在技术风险,那么上述问题是如何产生的?笔者认为,其中一个重要原因在于输入数据模型存在偏差。ChatGPT技术在法律职业领域应用中,当出现语言模型被外界非法操纵或用户输入数据模型存在偏差等原因时,其生成性输出的内容可能存在虚假信息或非法信息,甚至在司法审判适用中虽符合国家法律等强制性规定,但可能出现同人类社会伦理道德相悖的情形。法律职业技术化大背景下,ChatGPT技术有时可能连续生成或持续出现虚假、违背人类常识或伦理道德等信息,这种算法黑箱效应可能导致国家司法建设与民众司法公正观之间的间隙随着智能技术加强而进一步扩大,这与司法公正所追求的法律效果与社会效果相统一相悖,可能影响国家法治建设的顺利开展。
第三,结论:技术化设计。智能科技时代,法律职业领域技术化特征愈加明显,但笔者认为人工智能难以从本质上改变法律职业,ChatGPT技术只能作为法律职业群体辅助工具12 ,正如它的自我介绍“我没有情感、意识或个性,只是一个回答问题的工具”。法律适用中,ChatGPT技术可协助法官、检察官、律师或办案民警快速查找相关法律文本或司法判例,并结合用户办案所需进行法律概念解释、文书撰写和进行审核、类案归纳等辅助性工作,提高法律职业群体处理法律事务的效率,但并不能作为法律职业主体进行司法裁判、独立执法、法庭辩护等工作。《大数据时代》一书中提到:人们过分相信数据分析所得结果,即使该结果本身存在着不合理的地方13。法律职业技术化背景下,法律职业群体从事司法审判、执法或法律服务过程中依赖智能科技特征明显,其结果就是法官司法审判、检察官公诉或监督检查、公安民警执法、律师等法律服务群体无需发挥主观能动性,只需要提高智能科技操作水平即可。但笔者认为,ChatGPT技术不具备人类基本情感、缺乏人类同理心,不能理解人类社会伦理道德或公序良俗等人类专属思想活动和意识,仅是机械化或经验积累的结果。如果法律职业群体过度依赖生成式人工智能技术化设计所得结论进行执法、司法裁判、法律服务等工作,将可能减弱人们对法律的信仰、增加司法公正性嫌隙。

(二)ChatGPT技术嵌入法律职业领域的伦理风险

历史已经向我们表明,重大的技术变迁会导致社会和经济的范式转换14。ChatGPT技术问世以来,关于人工智能技术伦理的担忧再次引发社会各界重点关注。智能科技时代,人与科技交互交融愈加密切,二者既相互独立,又不可分离。随着智能科技向前发展,人们越来越倾向于制造更多更先进的智能科技产品来拓展认知世界和保护自我能力,如智能机械臂、人造器官、不同类型智能机器人等,逐步形成“你中有我,我中有你”的统一体。与此同时,人工智能伦理问题相伴而生,如人与人工智能主客体地位、传统家庭组合等。ChatGPT技术嵌入法律职业领域可能引发伦理风险,这在法律职业技术化背景下已有体现,例如,我国已经发生了因片面强调司法技术而导致的伦理风险15。总之,ChatGPT技术嵌入法律职业领域伦理风险包括偏离“以人为中心”法治伦理理念、过度依赖高新技术而忽视人伦道德思维、限制法律职业主体能动性等。
第一,偏离“以人为中心”法治伦理理念。“以人为中心”法治伦理理念应是贯穿智能科技伦理体系的总纲。从智能科技设计研发者角度分析,其主要遵循“以技术为中心”理念16,在此理念指引下出现了无人驾驶汽车伤人事故、个人信息收集导致信息泄露和非法利用、智能产品伤人、面部识别导致社会不良影响等事件。近年来,立法、学界、实务部门等各领域开始重点关注智能科技伦理问题,强调树立科技发展为人类服务理念,体现“以人为中心”法治伦理理念重要价值。ChatGPT技术作为大型语言处理模型系统,是智能科技迭代升级产品,该技术嵌入法律领域后,有益于法律职业技术化程度不断加强。例如,法官审理案件过程中,从法律文本解读、案件分析甚至司法裁决等整个司法程序技术化痕迹明显。有报道称,哥伦比亚一地方法官审理一起自闭症儿童是否应获得医疗保障案件中,主审法官利用ChatGPT技术作出司法裁判17。该法官虽然强调借助ChatGPT技术审理案例并非出于取代法官司法审判主体地位的立场,但我们可从该案例中认识到AI科技在法律职业领域的重要地位,未来法律职业群体可能存在过度依赖AI科技定案或执法的风险。众所周知,ChatGPT虽具有强大数据存储、学习、计算等高新智能,但人类固有情感、价值、同理心、人伦道德等素养是智能科技产品无法理解和充分掌握的。因此,ChatGPT技术嵌入法律职业领域过程中,人类过度依赖“算法结果”定案、执法或法律服务,会偏离“以人为中心”法治伦理理念,不利于法律职业群体良性发展,甚至可能危害司法、执法权威和人们对法律公正性的信赖。
第二,过度依赖技术而忽视人伦道德。ChatGPT技术作为大型语言处理模型,是人类智力成果的体现。ChatGPT是“机器人”而非自然人,虽可模拟人类活动,但不具备人类的思维能力、同理心、伦理道德情感、认知能力、社会文化理解能力等。质言之,ChatGPT技术是智能程序设计,不具备人类情理意识和情感感知能力,没有情感计算能力18。法律职业领域中,无论执法、司法、法律监督、法律服务等各环节都是面向人类社会的法律实践,旨在解决人类社会活动具体问题。人类社会极其复杂,人类社会活动除受到国家制定的法律法规等制度规范约束外,更多日常行为是人类长期积累并在情理等人文因素指引下的活动。《清明集》记载:殊不知法意、人情,实同一体,循人情而违法意,不可也;守法意而拂人情,亦不可也。权衡于二者之间,使不上违法意,下不拂人情,则通行而无弊矣19。由此可见,清朝时期官员断案基本已都有不自觉情理意识。当下,法官、检察官、律师等法律职业群体在司法、法律监督或法律服务过程中,不仅需要精准的法律条文、知识图谱和解决问题的方法,更为重要的是需要结合个案进行综合判定。而案件的判定不仅需建立在国家法律法规等制度规范之上,还涉及人身、特定区域、不同民族等特殊场景,更需深入调研家庭伦理关系、当地风土人情、风俗习惯等因素。如“于欢故意杀人案”中,山东省高级人民法院二审在通盘考量国法、人情等基础上作出判决,是法律效果和社会效果的统一。在法律职业技术化背景下,此类涉及人伦道德类案件的司法审判,若过度依赖技术并严格适用国家法律法规等制度规范,但不深入洞悉人伦道德等情理,案件判决法律效果和社会效果将可能难以令人信服。ChatGPT技术嵌入法律职业领域尤其涉及司法审判等法律活动,司法审判结果不仅依赖于国家既定法律法规等制度规范,更是同人类伦理道德、公序良俗等情理相结合的产物。司法审判结果存在过于技术化而忽视人类情理的伦理风险。
第三,限制法律职业主体能动性。法律职业领域,无论是司法、执法、法律监督还是法律服务人员、法律从业者都应充分发挥其主观能动性,任何法律案件处理都要严格适用国家既定法律法规并结合情理综合考量。如英美法系国家衡平法即是法官在司法审判中结合案情并合理适用法律法规基础上,充分发挥法官主观能动性的结果。可以说,司法审判中法官能够结合实际案情灵活运用国家宪法精神、法律规定、伦理道德等处理案件,可实现法律效果和社会效果的统一。相较而言,ChatGPT技术并不具备人类同理心、伦理道德观念等,一旦遇到涉及人类伦理道德的特殊案件,ChatGPT技术可能无法适用法律框架内的自由裁量权。质言之,ChatGPT技术在司法审判中只能作为法官审理案件、检察官审判监督、公安执法、律师执业等法律职业辅助工具。笔者认为,随着生成式人工智能技术不断革新,ChatGPT技术将很快到达强人工智能或具备人类基本思维阶段,法官审判案件、检察官法律监督、公安执法、律师执业等法律活动会频繁利用或参照ChatGPT技术提供的相关法律适用辅助决策。而具体案件法律适用是建立在事实认定、法律抉择、利益衡量、价值判断等基础上的,并非单一的理性计算结果。若法律职业群体长期依赖或沉溺于生成式人工智能所带来的各种高效便捷服务就可能形成“路径依赖20,阻碍或限制法律职业群体主观能动性发挥,甚至逐渐影响或改变法律职业群体的价值观或行为,弱化法律职业群体在司法审判中的主观能动性。

(三)ChatGPT技术嵌入法律职业领域的法律风险

人工智能技术是一把双刃剑,给人类社会发展带来诸多便利的同时也容易产生各种未知风险。随着ChatGPT技术在法律职业领域应用的深化,如智慧司法、智慧警务、智慧检务、数字法治建设等,其同样给法律职业领域带来诸多法律风险,如数据合法性风险、数字歧视风险、公众对法律公平正义质疑风险等。
第一,数据合法性风险。ChatGPT技术具有存储数据体量大、算法先进、算力强大等优势,其在法律职业领域的应用中,检索信息更快速、法律文书制作更便捷、类案对比推送更精准、公共法律服务更智能,可极大提高法律职业群体的工作效率。技术角度上,ChatGPT大型语言处理模型可有效促进合成数据产业发展,通过技术化手段模拟网络用户数据,进行有目的性的训练并借助自身强大推理学习能力查找背后真实数据,最终服务于特定群体。例如,法律职业群体工作中利用ChatGPT技术进行立法、司法、执法、法律监督或法律服务时,若需利用合成数据形成真实数据特殊场景,一旦用户输入的基础数据涉及个人隐私、商业秘密、国家机密,通过技术化处理手段就可能生成虚假信息、错误信息、违法信息或不良信息等,或存在数据泄露问题,那么在法律适用中就可能带来数据合法性风险21,侵害数据主体的合法权益。
第二,算法歧视风险。ChatGPT技术运行逻辑基础是统计学,得出的结论是机械化逻辑呈现。结合ChatGPT技术运行原理,其本身并不产生数据信息,所形成的数据信息都是利用自身统计学模型并利用算法技术对其存储数据信息加工处理的结果。如大数据杀熟现象在商业领域已变得较为普遍。本质上讲,大数据杀熟现象即算法价格歧视的结果,并随着海量数据处理和算法技术革新会进一步严重侵害网络用户及其他消费者合法权益22。若ChatGPT技术应用过程中使用的数据存在某种歧视或偏见,那么算法反馈的结果必然有所体现,并随着该技术在特定领域的进一步使用或进一步延续,不断放大此类负面效果23。可见,ChatGPT技术应用于法律职业领域可明显提高法律职业群体工作效率,但也存在算法歧视法律风险。例如,司法审判或执法过程中借助智能搜索设备可精准查找到适用法律文本、可准确掌握当事人详细情况信息,包括其犯罪记录信息、征信不良记录信息、失信信息等可对当事人未来发展产生严重影响的负面信息。基于此,ChatGPT技术结合当事人情况和法律文本,并借助其先进算法和强大算力可以得出司法或执法结果。虽然智能审判结果目前只能作为司法、执法等法律活动的辅助手段,但特定案件中法官、检察官、公安执法人员等有可能结合智能审判结果作出不利于当事人的法律结果认定,并存在相信算法不存在偏见或侵害其他自然人合法权益的心理预期。从这个角度讲,如果法官、检察官、公安民警等针对特殊群体的司法、执法活动结果受到智能裁判结果的影响,那么就属于法律领域中算法歧视的体现。
第三,公众质疑法律公平正义风险。《汉谟拉比法典》序言中提到,法是为了实现公众之正义24。亚当·斯密认为,公平正义就像支撑人类社会大厦的主要支柱,如果这一主要支柱松动,那么人类社会构筑的大厦就会顷刻间彻底崩溃25。习近平总书记指出,公平正义是中国特色社会主义的内在要求26。可见,无论任何时期、地域,公平正义都是一个国家、民族乃至整个人类社会文明进步重要体现。法律公平正义的实现、维护和发展都离不开法律的精准适用和施行。质言之,法律领域公平正义要求实体权利得以维护、程序利益得以保障、责任分配得以合理,还要做到平等、公开、不歧视。ChatGPT技术运行原理在于利用算法对存储的海量数据进行处理,核心是算法技术。虽然算法本身并无价值观不同、社会偏见、性别歧视、政治立场等主观倾向,但由于算法程序设计研发者在程序设定、数据输入、数据选择等方面可能存在偏差,法律适用中和司法、执法辅助决策中容易被引导生成违反人类伦理道德、社会公序良俗或其他违反法律规定的内容。在此场景中,人工智能算法决策在法律职业领域应用容易造成无法逆转、持续性,或合法但不合理的司法判决结果,还可能因不同主体或其他因素导致出现“同案不同判”现象,严重时可能削弱法律公平正义理念,诱发社会公众对法律公平正义产生怀疑的法律风险。如司法审判应用中,有关部门和人员虽然可以做到根据既定法律规范并依“法”审判,但可否做到宽严相济,尤其涉及婚姻家庭事务,能否兼顾仁爱、情感、民本、正义等理念,都是需要深入研究的问题,如果解决不好,法律职业领域或将陷入死板、机械化套用法律规范的风险。

三、ChatGPT技术嵌入法律职业领域的应对举措

ChatGPT技术嵌入法律职业领域会带来技术风险、伦理风险和法律风险等。面向法律职业智能化、高新技术化大趋势,有关部门应在法律框架内提出应对举措27,具体包括牢固树立“以人为中心”法治伦理理念、注重规范生成式人工智能类法律制度同人类社会伦理道德相贯通、智能科技企业技术部门自我规制同外部监督相结合等手段,实现ChatGPT技术和法律职业的契合发展。

(一)理念:牢固树立“以人为中心”法治伦理理念

马克思主义经典理论关于第一次工业革命和机器大工业批判的研究成果为高新智能科技发展和应用提供了“以人为中心”法治伦理理念线索28 。马克思指出:自然科学通过工业日益在实践上进入人的生活,改造人的生活,并为人的解放作准备,尽管它不得不直接地使非人化充分发展29。《中共中央关于坚持和完善中国特色社会主义制度、推进国家治理体系和治理能力现代化若干重大问题的决定》将“完善科技创新体制机制”作为坚持和完善社会主义基本经济制度、推动经济高质量发展规定的要义,并进一步指出科技发展应改进科技评价体系,健全科技伦理治理体制。生成式人工智能时代,ChatGPT技术嵌入法律职业领域应始终将“以人为中心”作为法治伦理理念,坚持将人类社会伦理作为总纲性要求,并在此基础上衍生出求真务实、基本权利保障、社会和谐等法伦理向度30。“以人为中心”即尊重人之为人,将人的尊严作为法律伦理总纲、基本原则和指导思想31
第一,构建“以人为中心”法治伦理原则。当下,人工智能科技已然对人类社会生产生活领域产生重大影响,人类与人工智能“机器人”将长期共存已是事实,追求人类与人工智能“机器人”和谐共处应是“人工智能时代的终极价值追求”32。人类设计研发并不断促进人工智能科技发展的同时,智能科技产品也在不自知地挑战人类伦理道德底线。因此,构建“以人为中心”法治伦理原则不仅要求智能科技发展为了人类,还在于人类作为现代科技和现代新型企业的创设者,无论科技型企业或产品发展到何种程度,其本质都脱离不了人性价值,都应以追求人类更长远发展为目标,维护人类各项基本权利,具有“固根本、利长远”重要价值33。质言之,ChatGPT技术应以“人”为中心,以尊重人类权利、人格尊严、人类伦理道德为基础。遵从人类基本权利不仅可以激发人类新的、具体的监管措施,还能为人工智能系统的研发、使用和实施提供基本原理指导。ChatGPT技术价值在于提高法律服务效率和精准度等,以满足人类需求为目标,确保人类各项权利得到维护而不受到非法侵害。
总体而言,笔者认为,构建“以人为中心”法治伦理原则应满足以下条件。一是“以人为中心”法治伦理原则同法律所追求的公平正义观相统一。“以人为中心”注重人文关怀,以有利于人的全面发展为旨要,而对于法律职业适用中侵害人类各项基本权利的情形应当禁止,最终促进ChatGPT技术嵌入法律职业场景中“以人为中心”目标的实现。二是“以人为中心”法治伦理原则同法律公平正义观相结合。“以人为中心”法治伦理原则要求ChatGPT技术的发展能给法律职业群体带来诸多便捷,提高法律适用精准度,人民群众在每一个司法案件中对公平正义理念能有更真切感受。三是“以人为中心”法治伦理原则同人类社会整体发展相结合。司法案件中,“以人为中心”法治伦理原则既要维护当事人合法权益,又要从社会整体发展利益考量,注重二者结合。四是ChatGPT技术为人类提供法律服务所需数据资料收集、存储、使用过程中不能违背人类伦理道德。
第二,明确智能科技产品在法律职业领域客体定位。智能科技发展过程中,如何框定人工智能产品法律定位是人工智能时代人类面临的重大法律问题34,劳伦斯·索伦关于智能科技产品法律地位问题给出自己答案:一则定位于受托人,二则使其拥有宪法人格权。但立法、学界和实务部门关于ChatGPT技术的工具性质而不具法律主体资格已达成共识。(1)ChatGPT技术在法律上定位是物,是人类支配的客体,不属于法律主体探讨范围。(2)ChatGPT技术只能限定在工具性范畴讨论。(3)ChatGPT技术若是被赋予法律主体地位会对现行法律形成挑战,甚至威胁人类生存空间。笔者认为,ChatGPT技术在法律职业领域应以服务人类为中心,无论其发展处于何种阶段始终不能摆脱其工具性或物的窠臼,其法律客体属性不容突破。结合ChatGPT技术自身工具性属性,从人类设计研发智能科技产品价值取向自然可得出智能科技产品为人类服务的意旨,进一步明确智能科技产品在法律职业领域客体定位。如ChatGPT技术在司法审判应用中,应始终贯彻法官主体地位、ChatGPT技术在司法审判程序过程中的工具性辅助作用,以防止出现对于智能工具的过度依赖和锚定效应35。质言之,ChatGPT技术在人类法律领域应用上,应坚持法律职业群体定性为主、ChatGPT技术为辅理念。

(二)思路:法律制度同人类社会伦理道德的贯通

法律法规等制度规范并非仅是调整人工智能相关活动唯一且有效手段,仅靠法律法规等制度规范这类“硬”法的“控制”或“命令”,不利于人工智能安全、健康、长远发展,需做到法律法规等制度规范同人类社会伦理道德融会贯通、共同调整人工智能相关活动。对此,欧盟出台了《人工智能法案》《人工智能责任指令》《产品责任指令》等法律法规,英国、日本、澳大利亚、新加坡等国家和地区也正在制定各自的生成式人工智能治理框架,并将人类伦理道德规范作为调整人工智能活动的重要准则。2021年9月25日,我国新一代人工智能治理专业委员会颁布的《新一代人工智能伦理规范》规定了新一代人工智能活动伦理规范,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。2023年8月1日施行的《生成式人工智能服务管理暂行办法》第4条规定:提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,进一步明确了人类社会伦理道德在人工智能设计、研发、使用等过程中的重要价值。由此,ChatGPT在法律领域应用的思路上需要将法律制度同人类社会伦理道德相贯通,可通过细化算法伦理准则、落实主体责任伦理法治化等路径优化。
第一,细化算法伦理制度。智能科技伦理需要致力于通过事前审查设计符合人类价值观和伦理道德的ChatGPT技术产品。ChatGPT技术作为生成式系统训练与算法技术相结合的大型语言处理模型系统,算法是ChatGPT模型按照设计、研发或使用者意图得出所需结果的技术支撑。目前,ChatGPT技术仍处于算法黑箱阶段,算法技术应用所需数据来源是否合法尚存疑问。ChatGPT技术嵌入法律职业领域,要不断细化算法伦理准则。一是要建立专门性、系统性算法伦理审查制度。ChatGPT技术无论适用于司法、执法、法律监督或法律服务等活动都必须经过严格伦理审查,并结合法律职业具体适用领域进行专门性、系统性算法伦理审核,严防危害人类社会伦理道德或人类法律主体地位的算法技术应用。二是要增强算法技术应用透明度。ChatGPT问世后,人们更焦虑于人工智能算法黑箱化所可能造成的不良后果,担心出现人工智能产品失去控制等风险36。ChatGPT技术在法律职业领域应用中,要增强数据收集、处理等过程透明度,避免生成带有偏见的数据、歧视类数据或其他有害数据,避免算法黑箱在法律领域的适用。三是从伦理角度确立算法设计、研发者行为准则。算法设计、研发者不仅应遵从国家法律等既定规范,还应将人类社会伦理道德嵌入其中,保证ChatGPT技术在法律职业领域应用中算法结果的实质正义,保证法律适用中算法结果不出现非法侵权等不良结果。
第二,明确主体责任伦理法治化。人工智能伦理原则包括透明度、公正公平、非恶意、责任等具体原则,而责任原则应是人工智能伦理原则兜底性规定,即人工智能行为活动过程中无论任何环节发生侵权或其他侵害他人并产生损害的后果,都应从法律角度明确责任承担者,这同民法基本原理的“权利—义务—责任”逻辑相契合。ChatGPT技术在法律职业领域应用可按照《新一代人工智能伦理规范》规定的“强化责任担当”,并将其作为责任主体基本伦理法治化规范。一是从法律上确立问责机制。ChatGPT技术在法律职业领域应用,需借助海量数据、高频度训练并依靠算法技术满足用户所需。在此过程中,可以从法律上确立不同阶段性问责机制,即从生成式人工智能技术设计者、研发者、供应商、终端使用者等各个阶段相关人确立法治伦理责任,规制人工智能科技产品全生命周期在法律和人类伦理道德框架下发展,提升智能科技产品服务效能,避免对人类造成伤害或将伤害降至最低。二是强化科技伦理在主体责任方面的渗入。智能科技时代,科技伦理已然成为规制人工智能健康发展的重要指南。ChatGPT技术在法律职业领域应用可有效提升法官、检察官、公安等司法、执法工作效率,旨在维护法律公平正义。为此,强化科技伦理在主体责任方面的渗入,将科技伦理、人类社会道德等“软法”同国家法律等强制性规范“硬法”相融通,加强ChatGPT技术在法律职业领域科技伦理治理,明确相关主体伦理和责任边界,可以有效降低人工智能技术法律适用中可能引发的伦理风险。

(三)手段:自我规制与外部监管机制相结合

智能科技时代,生成式人工智能科技迅猛发展,但其应用领域存在各种未知风险。世界各国要从立法等角度加强生成式人工智能治理,进行有效监管是保障该技术健康、可持续发展的关键步骤。中国、美国等国家和地区已制定相关文件加强生成式人工智能科技领域监管。另外,欧盟一直较为注重人工智能科技监管,已颁布实施的《通用数据保护条例》《算法问责及透明度监管框架》《可信人工智能伦理指南》《人工智能法》等都尝试建立全球统一适用的生成式人工智能监管治理方案。英美国家同欧盟有所不同,前者注重行业自律和自我监管等较为分散型治理策略,但也加强生成式人工智能监管举措。2023年3月29日,英国颁布的《促进人工智能创新的一个监管路径》提出生成式人工智能监管举措37。2023年4月11日,美国发布《人工智能问责政策(征求意见稿)》,提出ChatGPT技术监管问题。我国一直注重人工智能科技监管治理问题。2017年7月8日,国务院发布的《新一代人工智能发展规划》提出建立健全人工智能监管体系方案。2021年9月17日,国家互联网信息办公室等9部门联合发布《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《指导意见》)。《指导意见》指出,要打造形成政府监管、企业履责、行业自律、社会监督的算法安全多元共治局面。2023年7月10日,国家互联网信息办公室发布《生成式人工智能服务管理办法》,主要针对生成式人工智能规范治理问题作出规定,并首次详细规定人工智能技术全流程监管治理问题38
综上,世界各国都在加强生成式人工智能监管治理,以应对其带来的各种挑战。ChatGPT技术在法律职业领域存在技术风险、伦理风险、法律风险,并给法律职业领域人工智能治理带来多重挑战,有必要倡导并践行“可信负责人工智能”理念,设定灵活多变且不失安全的监管治理方案,实施自我规制和加强外部监管相结合等多元化举措,推动生成式人工智能科技创新发展和行业应用,建立安全、以人为本、合乎人类社会伦理道德、可信、适用法律职业领域的生成式人工智能生态体系。
具体而言,结合我国立法既有监管方案,有关部门还应加强行业自我规制和外部监管结合力度,注重二者合力监管。一是智能科技企业要以效益为出发点和落脚点,行业自我规制上要依靠技术治理模式,讲求高效率、低成本。具体可通过专门设计的程序软件作为智能科技产品监督管理者,定期或满足一定条件下不定期进行系统升级更新。二是ChatGPT技术在法律职业领域应用过程中,有关部门要根据法律职业群体用户需求,通过外部有针对性的安全防范措施弥补智能科技产品自身存在的不足。如ChatGPT技术在法律职业应用中,不仅需海量法律文本数据,还需定期或不定期进行人类伦理模型训练,通过反复模型训练排除同法律公平正义理念相悖的思路或结论,使其更符合法律职业群体辅助工具效能。三是要注重ChatGPT技术自我规制同外部监管的合力效用。ChatGPT技术同法律职业属不同领域,二者侧重点不同,前者注重技术效能,后者注重社会效能。ChatGPT技术嵌入法律职业过程中,设计研发者定期或不定期对智能科技产品进行风险评估,并在法律职业应用中不断检视其实际效能,并将二者监管结果进行比对,提取适合法律职业领域的算法模型。

未来展望:生成式人工智能技术背景下法律职业发展前景

(一)法律职业群体应积极拥抱人工智能发展

智能时代背景下,智能科技在法律职业领域应用已较为普遍,如智慧法院、智慧检务系统、智慧警务平台等。在此背景下,法律职业技术化已不可避免。ChatGPT技术嵌入法律职业领域可能带来诸多未知风险,因此,有关部门要在国家法律和诸多科技伦理准则框架内作出有效法治应对方案。立法、司法、执法、法律监督等实务部门不能仅考虑智能法律机器人是否会取代法律职业群体等问题,更应将目光转移至人机交互问题,即如何有效适应智能科技场景下法律职业总体环境。质言之,ChatGPT技术嵌入法律职业领域趋势已不可避免,法律的人工智能化可能遍及立法人工智能化、司法人工智能化、执法人工智能化等领域39。我们应审慎认知生成式人工智能在法律职业领域应用的长期性和发展过程的艰巨性,秉持人类理性思维,将生成式人工智能同法律职业具体场景有效结合,拥抱并合理展望智能时代法律职业的未来。

(二)法律职业群体应恪守人类伦理道德

ChatGPT技术嵌入法律职业领域,在资源配置、知识更迭等各方面都在加速更新,而智能科技自身固有缺陷等不确定性因素在法律职业领域应用中可能加剧一些未知风险,尤其所涉伦理风险。基于此,法律职业群体在法律活动中不仅要以更开放态度积极拥抱ChatGPT技术应用,更要严格恪守人类伦理道德在法律活动中价值理念,否则可能跨越人类社会伦理道德底线、冲击国家法律法规等制度规范红线。ChatGPT技术嵌入法律职业领域需“从上到下”进行“穿透式”整治。此处所述“上”,即国家法律法规等制度规范,“下”体现为“以人为中心”伦理道德理念。结合我国现代化司法公正理念的要求,立法、司法、执法、法律监督等法律活动都应体现公平正义,实现法律效果和社会效果的统一。若单纯强调法律职业技术化,而忽视人类伦理道德在其中的融会贯通,就可能加剧法律公平正义观同法律职业技术化嫌隙,不但不能达致法律公平正义,还可能引发伦理风险。
总之,在法律职业技术化大趋势下,法律职业群体既要积极拥抱人工智能技术成果、强化法律技术化,还要重视立法过程时代背景、司法案件背后公序良俗和伦理道德等感知能力。质言之,ChatGPT技术嵌入法律职业领域场景,法律职业群体要恪守伦理道德,始终坚守人类法律群体主体性地位,兼顾法律效果和社会效果相统一等原则,提升法律职业群体职业综合素养,构建符合中国式现代化和生成式人工智能时代双重背景的法律公平正义观。

五、结束语

随着以ChatGPT为代表的生成式人工智能技术不断成熟,社会生产力水平得到有效提高,为人类社会生产生活带来诸多便利。同时,以ChatGPT为代表的生成式人工智能技术也可能给人类社会带来未知风险和挑战。生成式人工智能时代,ChatGPT技术嵌入法律职业领域已不可避免,其可以进一步提高执法和司法效率、法律本文适用精准度等,为法律职业活动提供各种便捷。但我们更应关注ChatGPT技术给法律职业领域可能带来的未知风险和挑战,包括技术风险、伦理风险、法律风险等。法律职业更多涉及人文社会学,包括法学、伦理学、哲学、心理学等社会学科,主要解决人类社会实践问题,维护社会公平正义,促进社会和谐稳定发展。本文以上述目的为导向并结合ChatGPT技术给法律职业领域可能带来的未知风险和挑战,秉持应牢固树立“以人为中心”法治伦理原则,注重规范生成式人工智能类法律法规制度同人类社会伦理道德相贯通、智能科技企业技术部门自我规制同外部监督相结合手段等,实现ChatGPT技术嵌入法律职业的契合向善发展。当前,人工智能科技发展已上升至国家战略层面,我国立法部门应紧跟时代发展潮流,做好国家相关法律法规“立、改、废”工作,将生成式人工智能科技所适用的更为复杂环境纳入立法调整范围,确保人工智能技术在安全、可信、无歧视等框架内不断增进人类福祉。

1邓建鹏朱怿成.ChatGPT模型的法律风险及应对之策[J].新疆师范大学学报(哲学社会科学版)2023445):91-101.

2张爱军.人与ChatGPT交互政治的可能性质化:风险维度与规约路径[J].学术界20234):61-71.

3王勇旗.人工智能给法律职业带来的困境及应对[J].河北经贸大学学报(综合版)2020201):44-52.

4唐林垚.具身伦理下ChatGPT的法律规制及中国路径[J].东方法学20233):34-46.

5中共中央马克思恩格斯列宁斯大林著作编译局.马克思恩格斯选集:第2卷[M].北京人民出版社201294.

6贝克.风险社会[M].何博闻,译.南京译林出版社200413.

7汪行福.后人类纪文明的到来与ChatGPT的终极之问[J].探索与争鸣20235):5-9.

8BLITZ M JLies, line drawing, and deep fake news[J].Okla. l. rev, 2018, 7159): 113-115.

9迪克.连接:社交媒体批评史[M].晏青,陈光凤,译.北京中国人民大学出版社202139.

10支振锋.生成式人工智能大模型的信息内容治理[J].政法论坛2023414):34-48.

11蔡士林杨磊.ChatGPT智能机器人应用的风险与协同治理研究[J].情报理论与实践2023465):14-22.

12王勇旗.人工智能在司法审判领域的融合应用:现状、难题与应对[J].法理——法哲学、法学方法论与人工智能202171):179-195.

13舍恩伯格库克耶.大数据时代:生活、工作与思维的大变革[M].盛杨燕,周涛,译. 杭州浙江人民出版社2013208.

14扎卡达基斯.人类的终极命运:从旧石器时代到人工智能的未来[M].陈朝,译.北京中信出版社2017296.

15王静.ChatGPT技术嵌入智慧司法的伦理风险及其法治应对[J].上海政法学院学报(法治论丛)2023384):43-62.

16许为葛列众高在峰.人-AI交互:实现“以人为中心AI”理念的跨学科新领域[J].智能系统学报2021164):605-621.

17法官使用ChatGPT做出法庭裁决[EB/OL].(2023-02-06)[2023-07-12].https://www.sohu.com/a/637616588_121124365.

18令小雄王鼎民 袁健.ChatGPT爆火后关于科技伦理及学术伦理的冷思考[J].新疆师范大学学报(哲学社会科学版)2023444):123-136.

19中国社会科学研究历史研究所宋辽金元史研究室.名公书判清明集[M].北京中华书局1987311.

20徐亚文陈路易.论人工智能辅助地方立法的法律风险及其规制[J].大连海事大学学报(社会科学版)2022214):41-50.

21王勇旗.论个人信息处理的正当性基础:以合法公开的个人信息为视角[J].中国人民警察大学学报20233911):47-54.

22张雅俊.数字平台算法歧视定价:私利性与公共性冲突及其监管因应[J].价格理论与实践2023 3):65-68.

23毕文轩.生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角[J].比较法研究20233):155-172.

24《世界著名法典汉译丛书》编委会.汉谟拉比法典[M].北京法律出版社20003.

25斯密.道德情操论[M].蒋自强,等译,北京商务印书馆1997106.

26习近平关于社会主义社会建设论述摘编[M].北京中央文献出版社201730.

27王永宝党俊琦胡晓晖.出入境人工智能法治应用之技治主义研究[J].武警学院学报202137 11):10-16.

28潘恩荣孙宗岭.人工智能“以人为本”伦理准则反思:一种马克思主义哲学的分析思路[J].云南社会科学20226):30-39.

29中共中央马克思恩格斯列宁斯大林著作编译局.马克思恩格斯全集:第3卷[M].北京人民出版社2002307.

30何士青.现代科技发展的法伦理思考[J].求索20202):78-85.

31胡玉鸿.人的尊严的法律属性辨析[J].中国社会科学20165):101-119.

32吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报) 2017355):128-136.

33寇建波.以人为本视域下的人工智能警务伦理[J].中国人民警察大学学报2023394):31-40.

34孙伟平.关于人工智能的价值反思[J].哲学研究201710):120-126.

35朱体正.人工智能辅助刑事裁判的不确定性风险及其防范:美国威斯康星州诉卢米斯案的启示[J].浙江社会科学20186):76-85.

36福田雅树林秀弥成原慧.AI联结的社会:人工智能网络化时代的伦理与法律[M].北京社会科学文献出版社202044-46 .

37曹建峰.迈向可信AI:ChatGPT类生成式人工智能的治理挑战及应对[J].上海政法学院学报(法治论丛)2023384):28-42.

38龙柯宇.生成式人工智能应用失范的法律规制研究:以ChatGPT和社交机器人为视角[J].东方法学20234):44-55.

39张清张蓉.“人工智能+法律”发展的两个面向[J].求是学刊2018454):97-106.


Risks and Countermeasures of Integrating ChatGPT into the Legal Profession

WANG Yongqi

Basic Teaching Department of Public Security Major, Henan Police College, Zhengzhou, Henan Province   450046, China

Abstract: The integration of generative artificial intelligence like ChatGPT into the legal profession can bring a lot of convenience, but more attention should be paid to its risks, such as technical risks, ethical risks and legal risks. Facing such risks, efforts should be made to firmly establish the “human-centered” rule of law ethics in terms of concept with “human-centered”, and intelligent technology products as tools in the field of legal profession. In terms of realization path, the normative generative artificial intelligence laws should be in line with human social ethics and morals with the algorithm ethics system refined and the legalization of subject responsibility ethics clarified. In terms of means, the technical departments of intelligent technology enterprises should combine self-regulation with external supervision, establish a rigid provisions with flexible clauses to produce generative artificial intelligence technologies with fast and agile response in the field of legal profession, so as to realize the development of generative artificial intelligence technologies for good in human legal profession.
Key words: generative artificial intelligenceChatGPTthe legal professionethical risk

引用本文:王勇旗.ChatGPT技术嵌入法律职业领域的风险及应对[J].中国人民警察大学学报,2025,41(3):65-74.

作者简介:王勇旗(1983—    ),男,河南郑州人,副教授,法学博士,清华大学访问学者,研究方向为人工智能法、网络数据法。

基金项目:河南省教育科学规划2024年度一般课题“生成式人工智能在高等教育中应用问题研究”(2024YB0309)

责任编辑:杜彬

转载本文,请注明出处!

END

声明

本文仅作分享交流之用,版权归原作者,仅代表作者观点,不代表本公众号立场。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与我们联系,我们将及时更正,联系方式:claudia.cao@everlaw.com.cn



Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/181559
 
8 次点击