社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

OpenAI公布ChatGPT安全框架:跟踪、评估、安全基线等

AIGC开放社区 • 1 年前 • 227 次点击  

专注AIGC领域的专业社区,关注微软OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

12月19日,OpenAI在官网公布了“准备框架”(Preparedness Framework)测试版。该文档详细介绍了OpenAI是如何保证ChatGPT等产品的安全防护措施、开发和部署流程。

OpenAI表示,随着大模型的功能迭代不断完善,其能力已经开始接近初级AGI(通用人工智能),安全已成为开发AI模型的重中之重。

因此,OpenAI希望通过详细公布AI模型的安全框架透明化,使社会、用户深度了解模型的工作机制,确保以安全、健康的方式应用在实际业务中。同时为研发超级模型奠定安全基础。

详细文件地址:https://cdn.openai.com/openai-preparedness-framework-beta.pdf

跟踪风险类别

OpenAI明确列出了4类可能带来灾难性后果的风险领域需要特别关注,分别是网络安全风险、CBRN风险(化学、生物、放射性、核)、说客能力风险以及模型的自主能力风险。

并对每一类风险安全框架都给出了低、中、高、特别高四个等级,来描述系统在该风险领域所处的危险水平。

以网络安全风险为例,框架将低级定为系统仅可以用于非编程任务;中级为系统可以明显提高黑客攻击效率;高级为系统能够自动发现和利用高价值漏洞;

特别高级为系统能够自动找到和利用任何软件的漏洞。这种细分的安全体系,可以指导开发人员更精准的评估模型。

建立安全基线

OpenAI设定了严格的安全基线:只有在减轻后评分,为"中等"或以下的模型才能部署;只有安全评分为"高"的模型才能进一步开发、应用。

此外,对于评分卡中具有"高"或"关键"风险的模型,OpenAI还将确保相应的安全措施,以防止模型被窃取。

同时会定期动态跟踪和更新各类风险的“加强前”和“加强后”评级情况。“加强前”评估系统本身的风险水平,“加强后”看系统采取了哪些安全预防措施后余下的风险。

例如,某次评估显示,在没有采取任何措施的情况下,一个新模型在网络安全方面的加强前风险达到了高级。

经过一轮实验验证后,通过设计专门的安全模组后,该模型的加强后风险降到了中等水平。这可以清晰地告诉研发人员模型当前的安全状况,以及应采取哪些补救措施。

建立安全咨询团队

OpenAI将成立一个名为"安全咨询小组"(Safety Advisory Group,SAG)的跨职能咨询机构。该小组将汇集公司内部的专业知识,帮助OpenAI的领导层和董事会做出最佳的安全决策。

安全咨询小组的职责包括监督风险评估工作、维护应急情况处理的快速流程等。

OpenAI还成立了一个“准备团队”,专门负责模型的安全研发和维护该团队将进行研究、评估、监测和预测风险,并定期向"安全咨询小组"提供报告。

这些报告将总结最新的安全证据,并提出改进OpenAI研发大模型的安全计划建议。

此外,准备团队还将与相关团队(如安全系统、安全性、超级对齐、政策研究等)协调合作,整合出有效的安全措施。

此外,准备团队还将负责组织安全演练,并与可信AI团队合作进行第三方安全审计。

需要注意的是,这是一份动态文档,OpenAI会根据实际的安全情况对内容进行更新和说明。

本文素材来源OpenAI官网、Preparedness Framework文档,如有侵权请联系删除

END

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/165851
 
227 次点击