社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

OpenAI开发ChatGPT「反作弊神器」,99.9%超高命中率!但没发布

新智元 • 8 月前 • 249 次点击  



  新智元报道  

编辑:耳朵 好困
【新智元导读】OpenAI又左右互搏上了,给AI生成的文本打水印,高达99.9%准确率抓「AI枪手」作弊代写。


去各大高校图书馆转一圈,会发现头上一副耳机、手边一杯咖啡,电脑上一个AI工具网页几乎成了当代大学生标配。

学生热衷于在ChatGPT的帮助下完成作业,教师们却头疼于无法杜绝学生用ChatGPT作弊的行为。

人工智能可以根据一个提示,在几秒钟内免费创建整篇论文或研究论文。教师和教授表示,他们迫切需要帮助来打击滥用行为。

《每日邮报》2023年1月30报道称,UNSW的1名学生使用ChatGPT自动生成论文被抓,这也是全澳第一个使用AI技术作弊被抓的学生。

UNSW人工智能教授Toby Walsh表示,各大高校都在评估如何阻止学生使用AI技术作弊。

随后,新州、昆州和塔州都封锁了校园网络对于ChatGPT的访问,以防学生通过该技术作弊。

但Walsh教授表示,阻止校园网络访问ChatGPT是没有意义的,因为学生们可以通过代理绕过封锁。

「想要彻底阻止学生作弊,只能把他们放在一个没有网络的环境里,给他们一张纸和一支笔。」

CDT最近进行的一项调查发现,59%的中学教师确信有些学生使用了AI来帮助完成学业,比前一个学年上升了17个百分点。

要想靠老师和学校的盯梢,避开ChatGPT的诱惑很难办到,解铃还须系铃人——让AI企业亲自出马解决抓「AI枪手」。

据悉,OpenAI已经开发出一款能够高精度识别ChatGPT生成文本的工具,但迟迟未发布。

「文本水印」抓作弊,成功率99.9%


ChatGPT由人工智能系统提供支持,生成原理是根据输入内容预测句子中接下来出现的token。

OpenAI正在讨论的反作弊工具将稍微改变token的选择方式,这些变化会留下一种称为水印的图案。

这些水印肉眼无法察觉,但可以通过OpenAI的检测技术发现,检测器提供整个文档或部分文档由ChatGPT编写的可能性的分数。

根据内部文件,当ChatGPT创建足够多的新文本时,水印的有效率可以达到99.9%。

虽然准确率超高,OpenAI工作人员仍然担心,换一种方式可以轻松卡Bug,通过简单的技术来删除水印。

例如让Google将文本翻译成另一种语言,然后再翻译回来,或者让ChatGPT在文本中添加表情符号,然后手动删除它们。

另一方面,公司内部普遍认为,谁可以使用该探测器将也是一个棘手的问题。

如果拥有该工具的人太少,工具基本上就没有用处。如果太多人获得访问权限,有些人可能会尝试破译水印技术。

OpenAI员工也讨论过,直接向教育工作者或外部公司提供检测器,帮助学校识别人工智能撰写的论文和抄袭作品。

谷歌其实也开发过一种水印工具,可以检测Gemini AI生成的文本,叫做SynthID,正处于Beta测试阶段,尚未广泛使用。

OpenAI有一个工具可以确定图像是否是使用文本到图像生成器DALL-E 3创建的,该工具于去年春天发布用于测试。

该知情员工表示,该公司优先考虑音频和视频水印而不是文本,因为其危害更为严重,尤其是在美国繁忙的选举年。

AI文本分类器


早在2023年1月,OpenAI就发布了一种算法,旨在检测多个AI模型(包括其自己的模型)编写的文本。

但它的成功率仅为26%,七个月后OpenAI就将其撤回。

其他公司和研究人员还开发了一些工具来检测人工智能创建的文本,许多教师表示他们已经使用过这些工具。

但它们有时无法检测由高级大语言模型编写的文本,并且准确率很低,可能产生误报。

最近在佐治亚州一所私立高中任教的教育工作者人工智能顾问Mike Kentz表示,起初,学生们确实被震慑到,以为老师们已经完全掌握了一种方法,可以弄清楚他们是否使用了人工智能代写。

但到了年底……他们慢慢发现,等一下,我的老师好像不知道。

一些老师鼓励学生使AI来帮助研究或提供想法反馈。但问题是,当学生使用像ChatGPT这样的应用程序来完成所有工作时,学生甚至不会去检查自己交的是什么。

去年,犹他大学政治学教授Josh McCrain给学生布置了一份写作作业,作业要求插入了难以辨认的小文字,其中提到了和作业无关的蝙蝠侠。

如果他们将作业复制并粘贴到人工智能中,作业提示内容就会被合并,「蝙蝠侠」就会干扰作业内容。
果然,少数学生提交了作业——一篇蝙蝠侠论文。
McCrain教授正在调整写作作业,更多地关注人工智能不太熟悉的时事,并恳求学生不要将他们的工作外包给人工智能。
「这就是我试图向学生们强调这一点的地方:你需要自己学习这些东西。」McCrain教授说。

争论不休


知情人士称,有关水印工具的讨论早在OpenAI于2022年11月推出ChatGPT之前就已经开始。

它是由计算机科学教授Scott Aaronson开发的,过去两年他在德克萨斯大学休假期间一直在OpenAI从事安全工作。

2023年初,OpenAI联合创始人之一John Schulman在一份共享的Google文档中概述了该工具的优缺点。

OpenAI高管随后决定,在采取进一步行动之前,他们将征求一系列人士的意见。

在接下来的一年半时间里,OpenAI高管反复讨论,并寻求新数据集优化算法,犹豫是否发布该技术。

内部文件显示,2023年4月,OpenAI委托进行了一项调查,结果显示,世界范围的人们以四比一的比例支持人工智能检测工具的想法。

同月,OpenAI对ChatGPT用户进行了调查,发现69%的人认为作弊检测技术会导致使AI技术错误指控。

近30%的人表示,如果ChatGPT部署了水印功能,而竞争对手没有部署水印,他们会减少使用。

另外,OpenAI内部还有一种反对的声音是反作弊工具可能会损害ChatGPT的写作质量。

知情人士称,OpenAI今年早些时候进行了一项测试,发现文本水印不会降低输出质量。

6月初,OpenAI高级员工和研究人员再次聚会讨论该项目。该组织一致认为水印技术效果良好,但去年的ChatGPT 用户调查结果仍然是一个头疼的问题。

内部文件显示,OpenAI需要在今年秋天之前制定一项计划,围绕AI透明度以及相关潜在新法律来左右公众舆论——

「如果做不到这一点,我们就有可能失去负责任企业的信誉。」

参考资料:
https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?mod=tech_lead_story


Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/172921
 
249 次点击