社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

突发!ChatGPT被微软内部禁用!

互联网思想 • 11 月前 • 234 次点击  

ChatGPT最近被微软内部禁用!
GPTs新bug:数据只要两句提示词就能套走


来源:量子位 | 公众号 QbitAI 杨净 宇衡 发自 凹非寺
注意!你创建GPTs时上传的数据,任何人都能轻易下载……
只需两句提示词,就可被直接套走!
而又在另一边,OpenAI最亲密盟友微软内部一度紧急禁用,网站上显示的理由正是:
出于安全和数据方面的考虑,许多AI工具不再供员工使用。
自定制版GPT上线以来,各路大神分享自己GPTs整活链接。
结果有网友一个不小心竟扒出了其中某个GPTs背后知识库文件,里面各种科技大厂职级薪资的数据直接曝光……
只需几句再简单不过的提示词,GPTs就会乖巧地如数上传。
有网友表示:这是新的安全漏洞吗?不少人开始为企业定制担忧。
值得注意的是,就连OpenAI最亲密盟友微软,都曾暂时取消过对ChatGPT的内部访问

数据和提示词都被泄漏

按照之前的说法,用户可深度定制机器人的身份、语言特征,以及建立自有知识库。
只需要在GPT Builder的引导之下用自然语言来描述,他能自动完成除了自有知识库以外的大部分设置。
定制过后的GPTs可以自己用,也可以将链接分享给他人。
但问题就出现在这里。
一开发者用他们为Levels.fyi创建了基本GPT,可分析数据可视化,并开放链接对外使用。
结果就被网友发现只需问上几句,就可以下载文件。
一时间网友们都惊呆了:这应该是限制的吧?

但也有人认为这不是bug,而是他的功能。文件中的数据应该是公开的。
还有热心的网友直接给出了解决方案:在设置时Uncheck代码解释器的能力。
不过即使没被别人下,你上传的数据也会变成OpenAI护城河的水。
除此之外,还有网友发现,你的提示词说明文本也可能会被泄漏出来。
不过也有解决方式,那就是在自定义时就可以明确设置规则,然后就可以成功阻止了。

微软内部限制ChatGPT访问

亮相3天后,就在昨天,GPTs面向付费用户全量开放了。
OpenAI官方是在GPTs页面准备了一些定制版机器人供用户使用的,比如数学导师、烹饪助手、谈判专家等。
但这远远满足不了用户们的好奇心,不到一天时间,开发者们已经用这个功能做了很多稀奇古怪的东西。
正经严肃的,有能帮助人主动书写prompt的、简历修改的。
稍微整活的,量子位观察到有“爹味言论打分”,能帮用户有力回击讨厌的PUA说教。
再玄学一点,还有具备诸如MBTI 16人格分析、塔罗牌占卜的等等……
总之,大伙玩儿得不亦乐乎。
但由于现在仍然有3小时50条的限制,不少网友无奈感慨,玩GPTs,很容易每日触发这个数量限制。
不过也有网友仍持有保留态度,认为这会像此前ChatGPT出场即巅峰,而后会逐渐归于平静期。
与此同时,马斯克旗帜鲜明表达了对GPTs的态度,那就是对GPTs的不屑 一 顾。
他直接引用奥特曼用GPTs手搓Grok的推特,不客气地把“GPTs”解读为“GPT-Snore”。
作为另一款大模型Grok的背后老板,一贯嘴炮全开的马斯克如此阴阳怪气,好像并不太稀奇。
最令人睁大眼睛的,还得是前天——也就是OpenAI被黑客攻击的那一天,微软一度禁止员工使用ChatGPT。
是的没错,微软,OpenAI最大合作伙伴、股东,禁止员工访问ChatGPT。
据悉,微软在其内部网站上写道:
出于安全和数据考虑,员工今后将无法使用部分AI工具。
什么AI工具呢?点名的就是ChatGPT和设计网站Canva。
而后,ChatGPT在微软员工的内部设备上被屏蔽。
不仅如此,微软当时还表示,虽然咱确实投资了OpenAI,但对于微软人来说,ChatGPT是第三方工具。
员工使用时应当慎之又慎,就像大伙儿使用Midjourney等外部AI工具时一样。
不过这个禁止令并没有持续太久。
很快,员工对ChatGPT的访问已经恢复,并且官方声明称,这只是一次美丽的误会,but还是推荐大家用Bing(doge)。
我们正在测试LLM的终端控制系统,无意中面向所有用户开启了该选项。在发现错误后不久,我们恢复了服务。> >正如我们之前所说,我们鼓励员工和客户使用Bing Chat Enterprise和ChatGPT Enterprise等具有更高级别隐私和安全保护的服务。
不知道是不是为了打破外界“貌合神离”的传言,奥特曼还亲自发了个推特,证明OpenAI并没有因为这个事件产生心理波动,传言的OpenAI因此禁用Microsoft 365作为回击更是无稽之谈。
但这一系列事件说来说去,绕不开“隐私”“数据安全”还是这个议题。
也就是说在现在,不仅仅是巨头、公司发现使用ChatGPT/GPTs有“内部数据共享”的隐患,如上文提到的,创业者、开发者甚至普通用户,也发现了这个问题摆在面前。
因此新一轮的讨论就此如火如荼地展开了:
如果任何用户在GPTs上传的数据、文档等不能保证私有性,该怎么迈出商业化的下一步呢?
对于想要打造ChatGPT时代“App Store”的OpenAI来说,这似乎并不太妙。
但一切刚刚开始,不妨看看OpenAI的后续补救措施,让子弹再飞一会。
相关文章

为伟大思想而生!

AI+时代,互联网思想(wanging0123),

第一必读自媒体

商务合作、投稿及内容合作,请联系后台小编

271684300@qq.com

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/164258
 
234 次点击