在众多新风险与新挑战中,对企业而言,数据安全风险尤为突出。据2023年红杉中国数字化报告显示,在生成式人工智能应用领域,除人才短缺风险议题外,风险性最高的三个领域分别是数据安全、隐私保护和法律法规风险。因此,对于律所和律师而言,帮助生成式人工智能产业上下游的企业构建数据合规管理制度和操作规程,在出海业务中合法合规地进行跨境数据传输,以及企业在上市过程中的数据合规全面布局,或将产生更多的增量业务机会。
作为“大数据+大算力+强算法”结合的产物,大模型算法训练离不开数据。在整个生成式人工智能的产业链里,不论是产业的上游算法模型类企业、中游数据服务类企业,还是下游应用拓展类企业,数据贯穿始终,是AIGC企业技术开发和产品应用的基础。在数据采集、数据标注、数据训练、数据生成的过程中,每个数据应用环节对应不同的安全风险。
数据采集阶段,因生成式人工智能的高智能性,其会间接收集到大量高度敏感的隐私信息乃至保密信息;数据标注阶段,因对原始数据的标注,目前主要是通过人工来完成,难免会有人工出错的可能;数据训练与生成阶段,若采集的训练数据不够充分或客观,或将导致对某些特定群体的偏见,生成结果可能产生歧视行为。同时,训练数据遭到恶意攻击者的篡改与利用,如利用AI换脸技术或将引发诈骗、涉黄、侵犯公民个人信息等刑事犯罪。
对于专业的法律服务提供者而言,生成式人工智能数据应用合规业务是新的蓝海。这是因为生成式人工智能正迈入数据合规的关键期。
为应对生成式人工智能带来的全新的数据合规挑战,促进生成式人工智能产业高质量健康发展,帮助企业更好地在研发和经营中应用数据,确保数据全生命周期的安全运行,数据应用合规问题亟需解决。为此,国家工业信息安全发展研究中心(工业和信息化部电子第一研究所)牵头《生成式人工智能数据应用合规指南》团体标准的研制,以期通过联合行业力量,共同探索生成式人工智能数据应用全环节合规发展路径,保障数据安全,指导落地应用,促进产业高质量健康发展。