2024/6/23 本周总结

news/2024/9/23 15:27:38

DemoFusion: Democratising High-Resolution Image Generation With No $$$

2024/5/11

任意尺度超分

生成一个\(K\)倍大小的图像,需要边长扩大为\(\sqrt{K}\),就是从潜在空间(latent sapce)\(\mathbb{R}^{c\times h\times w}\)到目标空间\(\mathbb{R}^{c\times{H}\times W}\),其中\(H=Sh\)\(W=Sw.\)

整个流程是进行\(S\)次“上采样-扩散-去噪”的过程,第一次开始流程的时候是进行“初始化-去噪”过程(Q:这里初始化是在干嘛?去噪的模型用的什么?)。

“上采样-扩散-去噪”过程,可以看为:

\[p_\theta(\mathbf{z}_0^S|\mathbf{z}_T^1)=p_\theta(\mathbf{z}_0^1|\mathbf{z}_T^1)\prod_{s=2}^S(q(\mathbf{z}_T^{\prime s}|\mathbf{z}_0^{\prime s})p_\theta(\mathbf{z}_0^s|\mathbf{z}_T^{\prime s})),\\\text{(3)} \]

其中$$\mathbf{z}_{0}^{\prime s}$$是通过上采样得到\(\mathbf{z^{\prime}}_0^s=inter(\mathbf{z}_0^{s-1})\)\(inter(\cdot)\)是任意一种插值算法(例如,双三次插值)。本质上是首先运行一个常规的潜在扩散模型,作为\(p_\theta(\mathbf{z}_0^1|\mathbf{z}_T^1)\),然后对每个尺度进行:

(i) 低分辨率\(\mathbf{z}_0^{s-1}\)上采样到\(\mathbf{z}'_0\)

(ii) 通过扩散过程重新引入噪声以获得\(\mathbf{z}_{T}^{\prime s}\)

(iii) 去噪以获得\(\mathbf{z}_0^s\)

这篇论文中的扩散卷积核部分的使用没看懂用在哪里,感觉这篇是在现有的一些应用模型Md上进行一些操作进行的,可以下下来看下效果好不好。

CycleINR: Cycle Implicit Neural Representation for Arbitrary-Scale Volumetric Super-Resolution of Medical Data

2024/5/22

任意尺度MRI超分

使用到的东西:1.隐式神经表示(任意上采样) 2.局部注意力机制(增强网格采样) 3.循环一致性损失(减轻过度平滑)

自创:1.层面间噪声水平不一致性SNLI(定量评估层面间噪声水平的不一致性)

比对着图判断实验流程:

首先是基础的LR三维图片通过LAM-enhanced INR Model生成HR图片,

LAM-enhanced INR Model中基础LR图片通过一个残差网络Encoder[11]提取语义特征,编码器的输入是\(I_{\mathrm{lr}}\in\mathbb{R}^{h\times w\times d}\),产生一个特征图\(Z_\text{lr}\in\mathbb{R}^{h\times w\times d\times|z|}\)称为潜在编码。其中\(|z|\)表示LR的每个体素都被转换为长度\(|z|\)的潜在编码(这里文中说是为了促进解码网络无缝整合局部图像强度信息)。得到潜在编码后,将潜在编码输入ALCGS模块,编码后获得的潜在代码对应于低分辨率体积中的体素。要获得高分辨率体积中\(x\)处体素潜在代码\(Z^{hr}\)需要进行网格采样的操作。之前工作采用三线性插值单元解码[5, 48]技术进行网格采样得到\(\hat{Z}_{\mathrm{hr}}^x\)(文中使用的是三线性插值)。后面选择\(N\)个围绕\(\hat{Z}_{\mathrm{hr}}^x\)最近的邻近潜在代码\(Z_{\mathrm{lr}}^i\)进行聚合。将\(\hat{Z}_{\mathrm{hr}}^x\)通过线性层\(W_{V}\)映射到查询空间,\(N\)个附近的潜在代码\(Z_{\mathrm{lr}}^i\)通过\(W_{Q}\)\(W_{K}\)映射到空间,接着计算查询向量与每个键向量之间的相似度(我看图和公式中的样子是K和Q直接相乘)然后输入到softmax中转换为权重系数。最后通过加权求和得到改进的潜在代码\(\tilde{Z}_{\mathrm{hr}}\)(我看图中的操作是用softmax得到的权重系数与V相乘,最后将这N个计算得到的数据加起来)这个模块是为了简历像素之间的关系,类似于双边滤波的功能。然后得到的\(\tilde{Z}_{\mathrm{hr}}^{x}\)和体素坐标\(x\)作为输入输入进解码器网络中,解码器是使用的[48]中的网络,得到最终的HR图像。

通过LAM-enhanced INR Model生成HR图片后,计算生成的高清图和GT之间的损失,公式为:

\[\mathcal{L}_{INR}=||\mathbf{\hat{I}}_j^{hr}-\mathbf{I}_j^{hr}||_1. \]

后面将新生成的图像\(\hat{I}_{\mathrm{hr}}^{j}\)联合原始低分辨率图像的坐标\(C_{\mathrm{lr}}^j\)再次输入到INR模型中,生成对低分辨率的图像的估计。然后使用\(L_1\)损失将估计的低分辨率推昂与原始低分辨率图像\(I_{\mathrm{lr}}^j\)进行相似性比较,构成循环一致性损失。

训练总损失如下:

\(L_{\mathrm{CycleINR}}=L_{\mathrm{INR}}+\lambda\cdot L_{\mathrm{Cycle}}\)

感觉这一片最主要还是使用了INR然后结合了CycleGAN的东西,加入了一些能增强模型效果的组件进来做的。
需要思考为什么使用同一个模型Cycle,原始的Cycle GAN是用了两个模型进行的。

Rethinking Diffusion Model for Multi-Contrast MRI Super-Resolution

2024/5/23

MRI超分

使用的东西:1.diffusion model 2.transformer

模型整体的训练分为两个阶段,第一阶段的目的是联合训练先导提取(PE)PLWformer以获得更可靠的先验知识\(Z\)

训练的第一阶段使用了PEPLWformer模块,将高分辨率图片\(I_{HR}\)执行PixelUnshuffle操作,然后将高分辨率对应的低分辨率图\(I_{LR}\)沿通道维度连接起来,输入到PE中生成先验知识\(Z\)

\[Z=PE(Concat(PixelUnshuffle(I_{HR}),I_{LR})) \]

文中说,这样处理后的数据\(Z\)是高度紧凑,这会有效减少后续DM计算。这里PixelUnshuffle只需要调用torch的包就能实现,是PixelShuffle的逆操作,PixelShuffle是将形状为\((∗, C\times r^2, H, W)\)的张量重新排列转换为形状为\((∗, C, H\times r, W\times r)\)的张量。

使用像素嵌入和交叉注意力变换器层(CATL)[18,23]来融合目标低分辨率图像\(I_{LR}\in\mathbb{R}^{H\times W\times2}\)和参考高分辨率图像\(I_{Ref}\in\mathbb{R}^{Hs\times{W}s\times2}\)获得\(\mathcal{F}_{f}\)输入PLWformer

PLWformer由两个组件组成,先导引导大窗口多头自注意力(PL-MSA)和先导引导前馈网络(PG-FFN)。通过PE获得先验知识\(Z\)后,将其输入PL-MSAPG-FFN作为动态调制参数以指导重建:

image-20240527172700696

公式形式为:

\[\mathcal{F}_{f}^{\prime}=\mathbb{L}(Z)\odot\mathbb{N}(\mathcal{F}_f)+\mathbb{L}(Z),\\\mathcal{F}_{p}^{\prime}=\mathbb{L}(Z)\odot\mathbb{N}(\mathcal{F}_p)+\mathbb{L}(Z), \]

其中\(F_{f}^{\prime}\in\mathbb{R}^{H\times W\times C}\), \(F_{p}^{\prime}\in\mathbb{R}^{H\times W\times C}\), \(C\)表示特征图的通道维度,\(⊙\)表示逐元素乘法,\(\mathbb{N}\)表示层归一化,\(\mathbb{L}\)表示线性层。

SinSR: Diffusion-Based Image Super-Resolution in a Single Step

2024/6/15

2024 CVPR

1.想要解决什么问题?

扩散模型的计算效率问题,现在需要大量的推理步骤才能达到令人满意的性能。

现在的有些方法需要明确的图像退化过程公式。如果减少推理步骤,则会出现明显的伪影和性能下降。

2.现有方法的瓶颈,为什么令人不满意?

现有的方法面临计算效率问题,这些扩散模型的初始状态是纯高斯噪声,没有利LR图像的先验知识。创新的技术开始在图像恢复任务中重新定义扩散过程,但是仍存在局限性,[46]论文中的方法仍需要15次推理步骤,并且如果减少推理步骤数,则会出现明显的伪影和性能下降。

3.我们针对这个难点提出的解决方案是啥?这个方案为啥可以解决

论文中直接从教师扩散模型中学习输入随机噪声与生成的HR图像之间的双向确定性映射。为了加速生成匹配良好的训练数据,论文从[46]论文中推导出确定性采样策略,这种策略旨在加速基于扩散的SR,并从其原始随机公式中进行调整。

文中还提出了一种新颖的一致性保持损失,以利用真实图像,通过最小化GT图像与预测初始化状态生成的图像之间的误差,进一步提升生成HR图像的感知质量。

image-20240616210226592

4.这个解决方案的创新

首次将基于扩散的超分模型加速到单次推理步骤,同时保持甚至超越现有方法的性能。提出了一种简单但有效的方法,直接将确定性生成函数提炼到学生网络中。

从最新的[46]中推导出一个确定性采样策略,用于加速SR任务,从而高效生成匹配良好的训练对。

提出了一种新颖的一致性保持损失,在训练时利用真实图像,防止学生模型仅关注拟合教室扩散模型的确定性映射,从而提升整体性能。

感觉这个方法是使用教师督导模型对diffusion model进行了蒸馏来减少模型的推理步骤。

Self-Adaptive Reality-Guided Diffusion for Artifact-Free Super-Resolution

2024/6/15

CVPR 2024

  • 补充阅读:去噪分数匹配[31],[36]的一个调查结果

1.想要解决什么问题?

传统的基于扩散的SR技术在增强图像细节方面表现出色,但在迭代过程中容易引入伪影。

2.现有方法的瓶颈,为什么令人不满意?

传统的深度学习SR方法利用了如挤压层【49】、转置卷积【38】和子像素卷积【29】等技术,但这些方法受限于固定的上采样尺度,限制了输出分辨率的调整,除非进行架构上的变更。这在现实应用中导致了不灵活性。

为了解决SR中固有的一对多逆问题,将解空间设想为一个分布是直观的。然而,这一视角常常促使生成模型引入偏离原始低分辨率图像真实内容的细节。

当代基于扩散的StableSR模型不可避免地会在图像的特定区域生成不可信内容,常常导致感知伪影。这些伪影通常源于现代扩散模型中基本使用的去噪扩散概率模型(DDPMs)。

它们可以通过整合非线性项来增强边缘和纹理特征的保留,从而改进图像细节。然而,尽管有这些进展,引入的非线性有时会在具有复杂纹理或噪声模式的区域产生意外结果。这种意外后果可能导致细节的丢失和基本图像元素如边缘和纹理的退化,特别是当扩散过程过于激进或约束不足时。此外,模型架构或参数设置中的任何不足都可能在扩散过程中被放大,加剧伪影问题,产生偏离期望逼真质量的结果【36】。

3.我们针对这个难点提出的解决方案是啥?这个方案为啥可以解决

论文提出了一种创新的无训练方法,自适应显示引导扩散(SARGD)。该扩散分为两个阶段运行:

    1. 实现引导细化(RGR)以减少伪影,使用伪影检测器在每个推理步骤中识别潜在空间中的不真实像素,生成二值伪影掩码。该掩码与从放大后的LR图像中提取的真实潜在引导相结合,以细化伪影并增强内在细节。然而,依赖放大后的LR输入进行引导可能导致图像过度平滑,因为它可能忽略了对于SR至关重要的高频细节。
    2. 自适应引导(SAG)提升保真度。SAG阶段引入了一个“现实得分”来自我调整潜在引导的真实性,显著提升细节和纹理表示的准确性。

    两个阶段交替进行,逐步实现高保真度的超分辨率,有效消除扩散过程中的伪影。

    image-20240616210254729

4.这个解决方案的创新

引入现实引导细化(RGR)策略:该策略旨在借助现实引导机制识别并纠正扩散过程中的伪影,有效消除这些伪影。

提出自适应引导(SAG)机制:该机制迭代地增强真实潜在引导,解决过度平滑问题,提升参考潜在引导的保真度和真实性。

首次开发自适应现实引导扩散(SARGD):这是一种无训练的方法,通过有效处理伪影和过度平滑问题设立了新的基准。此外,它在图像质量上优于StableSR,同时将超分辨率任务的推理时间减少了2倍。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.ryyt.cn/news/46776.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈,一经查实,立即删除!

相关文章

zotero的同步设置问题

zotero作为阅读文献的神器,同步是非常重要的一个功能。结果,今天打开zotero发现笔记不见了,这可是我将近两个月的笔记啊。先是换成了最新版的zotero7bete版本,然后试了下文件同步,还是没有看到笔记,最后还设置了下本机的文件夹,后来还是在文库的未分类条目下找到了笔记,…

pkg-config

一、pkg-config pkg-config是一个命令行工具,主要用于帮助开发者在编译依赖于特定库的软件时,自动获取和设置正确的编译器选项和链接器选项。它的主要作用在于简化编译过程,确保程序能够正确地找到所需的头文件和库文件,尤其是在库文件可能安装在非标准位置的情况下。 pkg-…

2024年6月计算机视觉论文推荐:扩散模型、视觉语言模型、视频生成等

6月还有一周就要结束了,我们今天来总结2024年6月上半月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展。 Diffusion Models 1、Autoregressive Model Beats Diffusion: Llama for Scalable Image GenerationLlamaGen,是一个新的图像生成模型,它将原始的大型…

COLA架构初始化DDD项目

使用COLA脚手架初始化项目 实战代码:https://gitee.com/XuXiaoCong/cola-springboot-demo COLA项目地址:https://github.com/alibaba/COLA BiliBili视频创建项目使用COLA脚手架(Maven)创建COLA项目DgroupId: 公司/组织名称 DartifactId:项目名称 Dversion:版本号 Dpackage:…

试用了下WPS定制版,真香!

告别广告和弹窗!告别广告和弹窗! 前言 现在办公/日常使用基本上都是离不开 office 三件套的了。我个人也曾购买过微软的 office 三件套,WPS 会员版: ​ ‍ ‍ ​ ‍ ‍ 随着消费降级, 使用一段时间后,我发现我根本用不上什么高级的功能,感觉不划算,几百块钱下馆子不香吗…

HarmonyOS应用开发——Hello World

下载 HUAWEI DevEco Studio: https://developer.harmonyos.com/cn/develop/deveco-studio/#download同意,进入配置页面:配置下载源以及本地存放路径,包括nodejs和ohpm:配置鸿蒙SDK路径:接受协议:确认无误后,点击下一步,开始自动下载有关环境以及依赖:全部下载完成,点击…

发文指南 | 生信植物科学类期刊近五年影响因子分享

前几天(2024.6.20)科睿唯安发布了《期刊引证报告》,公开2023年期刊最新影响因子。本号对植物科学领域和农林科学领域期刊做了及时分享:重磅出炉!2024植物科学领域&农林科学领域期刊影响因子 参与本号运营的小伙伴们基本都是生物信息、植物科学类的背景,因此我们对这类…

Grab 基于 Apache Hudi 实现近乎实时的数据分析

介绍 在数据处理领域,数据分析师在数据湖上运行其即席查询。数据湖充当分析和生产环境之间的接口,可防止下游查询影响上游数据引入管道。为了确保数据湖中的数据处理效率,选择合适的存储格式至关重要。 Vanilla数据湖解决方案构建在具有 Hive 元存储的云对象存储之上,其中数…