面向强后处理场景的图像篡改定位模型

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

面向强后处理场景的图像篡改定位模型
谭舜泉;廖桂樱;彭荣煊;黄继武
【期刊名称】《通信学报》
【年(卷),期】2024(45)4
【摘要】针对微信、微博等社交平台对图像进行的压缩、尺度拉伸等有损操作带
来的篡改痕迹模糊或被破坏的挑战,提出了一种对抗强后处理的图像篡改定位模型。

该模型选用了基于Transformer的金字塔视觉转换器作为编码器,用于提取图像的篡改特征。

同时,设计了一个类UNet结构的端到端编码器-解码器架构。

金字塔视觉转换器的金字塔结构和注意力机制可以灵活关注图像的各个区块,结合类UNet
结构能够多尺度地提取图像上下文间的关联信息,对强后处理的图像有着较好的鲁
棒性。

实验结果表明,所提模型在对抗JPEG压缩、高斯模糊等常见的后处理操作
以及在不同社交媒体传播场景的数据集上的定位性能上明显优于目前主流的篡改定位模型,展现出了优异的鲁棒性。

【总页数】14页(P146-159)
【作者】谭舜泉;廖桂樱;彭荣煊;黄继武
【作者单位】深圳大学计算机与软件学院;深圳市媒体信息内容安全重点实验室;广
东省智能信息处理实验室;深圳大学电子与信息工程学院;深圳北理莫斯科大学工程
系智能感知与计算广东省重点实验室
【正文语种】中文
【中图分类】TN391
【相关文献】
1.面向复杂场景图像的文本定位新方法
2.HRDA-Net:面向真实场景的图像多篡改检测与定位算法
3.基于Convnext-Upernet的图像篡改检测定位模型
4.基于强化样本的伪孪生网络图像篡改定位模型
5.结合自注意力与卷积的真实场景图像篡改定位
因版权原因,仅展示原文概要,查看原文内容请购买。

相关文档
最新文档