社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  aigc

AIGC生成图像检测:全面分析与比较主流方案

我爱计算机视觉 • 1 年前 • 559 次点击  



关注公众号,发现CV技术之美




随着 AIGC 技术的发展,由 AI 所生成的虚假图像的检测问题正成为一个新的研究热点。但是现有检测方法的实验条件与测试数据集不完全相同,无法直接横向对比检测性能。为此,我们针对目前现有主流AIGC图像检测方案进行全面分析与比较。在保证相同训练集与实验条件的情况下,分析测试目前检测算法的检测准确率与泛化性等性能指标,为AIGC生成图像检测领域提供一项基准的实验对比平台(Benchmark),同时整合并开源了多种现有AIGC生成图像的检测算法。

  • 项目介绍:https://fdmas.github.io/AIGCDetect/
  • 代码链接:https://github.com/Ekko-zn/AIGCDetectBenchmark

引言

近年来,AI生成图像在视觉质量、语义复杂度、运行时间效率等方面都有了显著提升。生成虚假图像所需的专业知识和成本也都有了明显下降,各大生成图像平台纷纷涌现,人人都可以使用在线工具(如Midjourney,DALL·E等),根据自己的需求生成虚假图像。

Midjourney是近年来最火爆的在线图像生成平台,目前已经更新到了第5.2代,用户可以付费使用。

DALL·E由OpenAI公司研发,用户可以付费后将DALL·E 3模型和ChatGPT Plu版、企业版结合使用。微软公司还将DALL·E模型整合到了Bing聊天功能中,在Microsoft Edge浏览器中向用户提供服务。

Stability AI公司研发的Stable Diffusion已经开源了Stable Diffusion v2.0, v2.1等多个版本的预训练模型。用户可以使用在线接口或者使用开源模型在本地计算。这些都是强大的text-to-image工具,根据用户输入的文字生成相应内容的高质量图像。

除此之外,Pixeling、wukong等等在线平台还支持中文输入的text-to-image功能。

这前所未有的可访问性引发了人们对虚假信息普遍传播的担忧。

右滑看答案

猜一猜:上面六张图像中,哪一张是由AI模型生成的?

根据Lago等人的研究 [1] ,受访者将StyleGAN生成图像中的68%标记为“真实的”,却将真实图像中的48%标记为“虚假的”。可见生成图像已经能够“欺骗”人类的眼睛,开发有效的检测工具迫在眉睫。

目前,已有许多针对AI生成虚假图像的检测工作 [2-9] ,但是,它们在性能分析实验中存在着一定的不一致性和不足。

训练集的不一致

在实际应用中,由于待检测的AI生成图像的生成模型是不可知的,因此检测器的泛化性,即检测器对在训练阶段未见过的数据的检测性能,是评估检测器的一个重要标准。为了保证比较的公平性,所有检测器都应在同一训练集上训练而得。然而目前SOTA检测方法所提供的预训练模型普遍使用了不同的训练集,无法公平地对比泛化性。

测试集的多样性不足

大部分检测方法都致力于准确、高效地区分GAN生成图像和真实图像,却忽视了扩散模型的强大能力,并没有测试在扩散模型生成图像数据集上的准确率。因此无法评估这些方法在扩散生成模型上的泛化性。

上述问题对后续的研究工作产生了一定的阻碍。相关研究人员需要花费大量的时间、精力和计算资源来复现现有检测方法,来进一步补充验证实验。为了解决这一问题,我们使用同一训练集来训练各种不同的AI生成图像检测器,并进行了一系列针对现有方法的基准测试,来评估现有方法在泛化性、鲁棒性上的能力。我们共选取了9个SOTA检测方法 [2-10] ,在16个生成图像数据集上进行了大量测试。旨在提供一种标准化的方式来比较不同方法的性能,以便发现现有方法存在的优缺点,为后续工作的开展提供方便的基准分析框架,以及有价值的参考指标和改进方向。此外,我们还整合了现有SOTA方法的测试接口,并开源了所有检测器的预训练模型。

实验

我们进行了一系列的实验来分析这些检测方法在各类GAN、Diffusion Model生成图像上的泛化性和鲁棒性。

表1 测试数据集概览

我们采用的训练数据集是由Wang 等人 [2] 提供的ProGAN生成图像数据集。测试数据集的构建则使用了各种生成模型,包括一些先进的商用生成器(如 Midjourney,DALL·E 2),以更全面地评估和比较每种检测器的泛化性。测试集包含 Wang 等人 [2] 和 Zhu [11] 等人提供的数据集、以及我们自己构造的生成图像数据集,共计16个。

部分实验结果如下所示:

图1 各检测方法在不同数据集上的检测准确率

图1中,各雷达图的中心表示检测准确率为0%,最内侧的圆环表示检测准确率为20%,以此类推,最外侧的圆环表示检测准确率为100%。最外侧标记了16个数据集,每个数据点表示该检测方法在对应数据集上的检测准确率。数据点越靠外侧圆环,说明在该数据集上的准确率越高。从整体上来说,一个更靠外的十六边形(更接近圆的图形)表示该检测方法具有更好的泛化性能。

实验中我们用到的检测方法

[CNNSpot] Wang等人 [2] 提出了使用ResNet50模型训练用于分辨真实图像和生成图像的二分类器,并在训练过程中加入了对图像的随机预处理(JPEG压缩、高斯模糊、图像大小调整等)来提升模型的泛化能力。

[FreDect] Frank等人 [3] 分析了多种流行的GAN模型生成的虚假图像在频域上的特征,并发现这些虚假图像在频域上都存在着类似的,由上采样操作留下的伪影。基于这个发现,提出了基于频域特征的二分类器。

[Gram-Net] Liu等人 [4] 把检测重心放在GAN生成的虚假人脸上。发现合成人脸在纹理统计上与真实人脸图像有着明显的区别,并且,全局纹理信息可以有效提升检测器的泛化性和对各种图像失真的鲁棒性。在CNN模型的基础上,引入了Gram模块来提取图像的全局纹理信息,构成了Gram-Net。

[Fusing] Ju等人 [5] 使用双分支框架,将全局图像特征与信息丰富的局部块特征相结合,以增强合成图像检测的泛化能力。此外,借助基于注意力机制的块选择模块,能够自动选择多个块,无需手动标注即可有效提取局部微小伪造特征。

[UnivFD] Ojha等人 [8] 分析了CNNSpot分类器学习到的决策边界具有不对称性,虽然可以有效区分出GAN生成的虚假图像,但是真实图像的特征空间并不具有独立性,即所有非GAN生成的图像(真实图像、Diffusion生成图像)都被归为了一类。因此,Ojha等人认为,要提升检测器的泛化性,使其合理区分真实图像和虚假图像,即学习到平衡的决策边界,需要一个合适的特征空间。Ojha等人使用了预训练的CLIP:ViT模型来提取特征空间。

[LGrad] Tan等人 [7] 在开始训练分类器之前,使用一个预训练CNN模型(如VGG16, ResNet50, ProGAN的鉴别器等等)将图像转换成梯度图,并归一化到[0,255]。在梯度图数据集上训练得到一个区分真实图像和生成图像的二分类器。

[LNP] Liu等人 [6] 对真实图像的噪声模式进行了频域分析,发现在真实图像之间,这种噪声模式存在着一致性,而生成图像之间的噪声模式则差距很大,因此可以根据图像的噪声模式来分类。噪声模式是原始图像减去去噪图像后,得到的没有语义干扰的模式。

[DIRE] Wang等人 [9] 注意到了现有生成图像检测方法在扩散模型上的性能有明显下降,因此提出了一个新的检测方法。他们发现与真实图像相比,通过预先训练的扩散模型可以更准确地重建扩散过程产生的图像。在此预设基础上,提出了扩散重构错误(DIffusion REconstruction Error, DIRE),用于检测基于扩散模型的生成图像。

[RPTC] Zhong等人 [10] 利用了图像内丰富和贫乏纹理区域之间的像素间相关性对比度来检测AI生成图像。他们发现纹理复杂区域中的像素表现出比纹理平坦区域中更显著的波动。基于这一原理,他将图像划分为多个块,并将其重建为两个图像,分别包括复杂纹理块和平坦纹理块。随后,提取了复杂纹理区域和平坦纹理区域之间的像素间相关性差异特征,作为一种通用“指纹”,用于不同生成模型中的生成图像取证。

参考资料

[1]Lago F, Pasquini C, Böhme R, et al. More real than real: A study on human visual perception of synthetic faces [applications corner][J]. IEEE Signal Processing Magazine, 2021, 39(1): 109-116.
[2]Wang S Y, Wang O, Zhang R, et al. CNN-generated images are surprisingly easy to spot... for now[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 8695-8704.
[3]Frank J, Eisenhofer T, Schönherr L, et al. Leveraging frequency analysis for deep fake image recognition[C]//International conference on machine learning. PMLR, 2020: 3247-3258.
[4]Liu Z, Qi X, Torr P H S. Global texture enhancement for fake face detection in the wild[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 8060-8069.
[5]Ju Y, Jia S, Ke L, et al. Fusing global and local features for generalized ai-synthesized image detection[C]//2022 IEEE International Conference on Image Processing (ICIP). IEEE, 2022: 3465-3469.
[6]Liu B, Yang F, Bi X, et al. Detecting generated images by real images[C]//European Conference on Computer Vision. Cham: Springer Nature Switzerland, 2022: 95-110.
[7]Tan C, Zhao Y, Wei S, et al. Learning on Gradients: Generalized Artifacts Representation for GAN-Generated Images Detection[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023: 12105-12114.
[8]Ojha U, Li Y, Lee Y J. Towards universal fake image detectors that generalize across generative models[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023: 24480-24489.
[9]Wang Z, Bao J, Zhou W, et al. DIRE for Diffusion-Generated Image Detection[J]. arXiv preprint arXiv:2303.09295, 2023.
[10]Zhong N, Xu Y, Qian Z, et al. Rich and Poor Texture Contrast: A Simple yet Effective Approach for AI-generated Image Detection[J]. arXiv preprint arXiv:2311.12397, 2023.
[11]Zhu M, Chen H, Yan Q, et al. GenImage: A Million-Scale Benchmark for Detecting AI-Generated Image[J]. arXiv preprint arXiv:2306.08571, 2023.

作者:钟楠,徐怡然,复旦大学计算机科学技术学院多媒体智能安全实验室。

实验室简介:多媒体智能安全实验室(MAS Lab)现有教师3位(张新鹏教授、钱振兴教授、李晟副教授)、在站博士后2位、在读博士生19位、在读硕士生30位,主要研究多媒体与人工智能安全,包括信息隐藏、多媒体取证、人工智能安全、虚拟机器人、多媒体应用等五个方向。实验室团队已发表学术论文400余篇,多篇论文发表在IEEE TIFS、TIP、TDSC、TCSVT、TMM、TCYB、TCC、TNNLS、TPAMI、AAAI、IJCAI、NeurIPS、ACM MM、ICCV等顶刊顶会上。欢迎青年才俊加入复旦多媒体智能安全实验室!

⭐复旦大学多媒体智能安全实验室主页:https://fdmas.github.io/
⭐神经网络模型研究资源: https://fdmas.github.io/research/Neural_Network_Watermarking.html
⭐虚假新闻检测研究资源:https://fdmas.github.io/research/fake-news-detection.html
⭐AIGC取证主页:https://fdmas.github.io/AIGCDetect/

END




欢迎加入「AIGC交流群👇备注:AIGC




Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/165012
 
559 次点击