2022-12-19 23:20:41    124    0    0

报错如下:

  1. /bin/sh: 1: :/usr/local/cuda/bin/nvcc: not found
  2. ninja: build stopped: subcommand failed.
  • 经过检查,安装了 nvcc,且添加了 PATH 和 LD_LIBRARY_PATH 对cuda的引用。
  • 并且检查了 /usr/local/cuda/bin/nvcc 文件是64位的且不是一个链接。
  • 且检查了 CUDA_HOME 变量已配置,最后下面一句话后,发现就可以编译了
  1. export CUDA_HOME=/usr/local/cuda
  • 仔细检查发现原来 CUDA_HOME 配置错误为 :/usr/local/cuda (是的就是多了个:),配置错误原因为 /etc/.profile 里写的是 export CUDA_HOME=$CUDA_HOME:/usr/local/cuda
  • CUDA_HOME 变量不支持 : 分隔符,只能是一个固定的路径地址。
2022-12-07 14:48:15    127    0    0

NOVEL VIEW SYNTHESIS WITH DIFFUSION MODELS

  • 数据集与训练+单图像三维复原
  • title
  • title
  • title
2022-12-06 15:48:26    387    0    0

SinGRAF: Learning a 3D Generative Radiance Field for a Single Scene

  • 和我之前做 SinRGAN 的思路类似,但setting不一样。
  • 给定一组图片(100张),训练生成模型生成多种符合条件的场景。
  • title
  • 结构很简单,StyleGAN + tri-plane + patch discriminator。
  • title

RenderDiffusion: Image Diffusion for 3D Reconstruction, Inpainting and Generation

  • 去噪方式为把有噪音的图像先映射到三维空间,再渲染出来去噪。
  • title
  • 其中第一步为把 M×M×3 的2D图像通过一个Unet到 N×N×3×nf 的 triplane,然后调用 triplane 的可微渲染。
  • title
  • 效果看起来持平 PixelNeRF,低于ED3D(基于Triplane的pi-gan)
  • 数值化指标只有重建
  • title
  • 2D-3D直接用Unet也太粗糙了一点吧,或许可以试试把学好的表征的triplane用来diffuse

DiffRF: Rendering-Guided 3D Radiance Field Diffusion

  • 纯 voxel 的 diffusion,且缺少量化指标。而且point-voxel diffusion 那篇已经把这个作为baseline干过了。
  • title

LADIS: Language Disentanglement for 3D Shape Editing

  • 基于文字控制的三维编辑,但是效果不咋地,只在椅子上做了实验,我怀疑它中不了CVPR
  • title

Peekaboo: Text to Image Diffusion Models are Zero-Shot Segmentors

2022-12-04 22:23:03    230    0    0

Prompt-to-Prompt Image Editing with Cross-Attention Control

  • 完全文字驱动的图像编辑
  • title
  • 利用 attention 来对编辑区域加权
  • title
  • 看起来比别的编辑方法效果好一些
  • title

SKETCHKNITTER: VECTORIZED SKETCH GENERATION WITH DIFFUSION MODELS

  • 画简笔画
  • title
  • title

Diffusion-GAN: Training GANs with Diffusion

  • 结合GAN和 Diffusion 的优劣。分为三块: diffusion 过程、结合了diffusion 时间的discriminator、generator。
  • diffusion过程种,discriminator判断是真的图片加噪音,还是generator 去噪后的结果。
  • title
  • title

DIFFUSION PROBABILISTIC FIELDS

  • 很有意义的工作,虽然图像质量不咋地。ICLR评分 8,8,6,6.
  • 直接在域上进行diffusion, 相当于是把原来离散的diffusion变成连续的了,而且通用性更强。
  • title
  • title

View Synthesis with Sculpted Neural Points

  • 又是一个点云+NeRF 的工作,可惜作者似乎没看过Point-NeRF,没有直接的对比。
  • 方法上是先用MVS或者别的方法生成一个粗糙的深度估计,从而得到一个noisy的点云。然后经过一轮删除Outlier(例如不同视角该点距离的一致性),和一轮贪心加点(即填补当前视角的空白,同时不影响别的视角的可视化结果),得到纠正后的点云。
  • 最后给基于这个固定的点云结构进行可微渲染染色。
  • title
  • 最终重建质量和NeRF五五开,也就是低于 Point-NeRF。

SWITCH-NERF: LEARNING SCENE DECOMPOSITION WITH MIXTURE OF EXPERTS FOR LARGE-SCALE NEURAL RADIANCE FIELDS

  • 大场景 NeRF,本文提出了一种新的NeRF组合方式(比如block-NeRF就是按照地理位置
2022-12-04 16:37:37    495    0    0
  • 关于卷积神经网络的零知识证明
  • 看起来很有意思

摘要

  • 本文提供了一种方法允许向他人证明,对于样本的预测结果是由当前CNN推理得到,并且不会泄露关于CNN的模型参数数据。方案也可以被推广,用于证明秘密CNN模型在公共数据集上的准确性。
  • zkCNN的基础是一个新的sumcheck协议,用于线性时间证明快速傅里叶变换和卷积,这甚至比直接计算结果要快。我们还介绍了关于CNN预测的交互式证明的几个改进和推广,包括验证卷积层、ReLU的激活函数和最大池化。
  • zkCNN可以支持具有15M参数和16层的VGG16的大型CNN。只需要88.3秒就能生成证明,比现有方案快1264倍。证明的大小为341KB,验证者的时间仅为59.3毫秒。方案可以进一步扩展,以证明相同的CNN在20张图像上的准确性。

前置知识

神经网络

  • 本文仅针对含有 Conv, Act, ReLU, Pooling 的线性神经网络,针对 VGG16。

交互式证明

  • 交互式证明就是有一个证明者(Prover) 和一个验证者(Validator),通过证明者和验证者多轮交流,让验证者相信,证明者以接近于1的概率是真的。

多项式承诺

  • 为了使得证明者不能再交互过程中,根据交互内容而修改自己操作,所以对于需要用到的一些多项式先做一些承诺(Commitment)。
  • 最直观的方案就是把多项式的多个点的取值通过默克尔树Hash起来,这样就不可以再次更改这个多项式了。但是这个极为简单的方案不隐藏多项式的任何部分,证明起来也费时费力。
  • Kate多项式承诺又称KZG承诺,利用椭圆曲线可以构造非常短的证明,而且验证起来也非常快,并且可以在多项式的任意一个点验证多项式的值。
  • 下图是另一种利用全0多项式的方案,参考自这里
  • title

Sumcheck 协议

  • 用于让验证者相信,证明者正确的计算了 title
  • 流程如下
  • title

Multilinear Extension

  • Multilinear Extension 是把任意离散映射转化为多项式的方式。
  • 我们可以构造一个等于函数 β(x,y)
2022-11-29 19:35:11    198    0    0
  • 选了部分ICLR个人感兴趣的文章,主要包含 NeRF 方向,生成方向,及个别高质量的文章。

Natural Language Descriptions of Deep Visual Features(Oral)

  • 可解释性方向的工作
  • 对于每个神经元还是找到图像中相应最大的部分,但是得到相应区域后,进一步使用图像文本描述模型进行了对于神经元的文字可解释性描述。

Non-Transferable Learning: A New Approach for Model Ownership Verification and Applicability Authorization

  • 利用Domain Generalization / Adaptation的反概念, 通过限制神经网络的跨域泛化性能来保护模型的知识版权

MIDI-DDSP: Detailed Control of Musical Performance via Hierarchical Modeling

  • 可控性更强的音乐生成。

Fine-Tuning can Distort Pretrained Features and Underperform Out-of-Distribution

  • Finetune 会使得 OOD 数据表现更差。作者提出应该先只学习最后一层FC,然后再 Finetune 以在 ID 和 OOD 上取得更好的效果。

StyleAlign: Analysis and Applications of Aligned StyleGAN Models

  • 如果模型A是模型B在另一个Domain上finetune的结果,本文发现他们表征上很大程度是对齐的。比如人脸数据集finetune另一个人脸数据集,会发现表情基本是对齐的。具体实验是把finetune后的模型的一部分子网络还原回finetune前初始值(例如mapping network in styleGANv2)。一些换发色操作在对齐的模型上效果接近一致。

Frame Averaging for Invariant and Equivariant Network Desig

2022-11-26 14:46:55    810    0    0
  • 其实是 Siggraph2022 所有文章,但与 NeRF 和三维生成无关的,只会说一下这篇是干啥的。
  • 如果看到一大段连续文字,那大概率就是DeepL 翻译的Abstract(里面会有很多的 title)。
  • 文章列表来源于 https://kesen.realtimerendering.com/sig2022.html

Ecoclimates: Climate-Response Modeling of Vegetation

  • 模拟气候对植被的影响与生态循环。

DSG-Net: Learning Disentangled Structure and Geometry for 3D Shape Generation

  • 虽然与NeRF 无关,但是与三维生成相关。
  • title
  • 把几何与结构分开学习生成。
  • title

A Fast Unsmoothed Aggregation Algebraic Multigrid Framework for the Large-Scale Simulation of Incompressible Flow

  • 不可压缩的流体仿真
  • title

A Practical Model for Realistic Butterfly Flight Simulation

  • 蝴蝶(黄油)模拟
  • title

Dev2PQ: Planar Quadrilateral Strip Remeshing of Developable Surfaces

  • 传统Mesh 用的三角形或者四边形,本文尝试使用平行四边形。

DiffCloth: Differentiable Cloth Simulation with Dry Frictional Contact

  • 可微的布料模拟。这样给定一个起始状态和一个终止状态,就可以通过迭代优化实现寻路,从而实现例如穿袜子这种操作。以及对于一段视频,可以通过拟合视频,从而计算出布料本身的系数(如摩擦系数等)
  • title

DiffusionNet: Discretization Agnostic Learning on Surfaces

  • 一种新的基于 Mesh的学习方法,之前的方法接近于Graph NN。本文
2022-11-25 13:34:40    240    0    0

翻译自 https://markboss.me/post/nerf_at_neurips22/

  • 这边开始偷懒,只会点开部分我感兴趣的文章。不感兴趣的就只是翻译一下。

Neural Transmitted Radiance Fields

  • 针对性优化了折射和反射
  • title
  • title
  • title
  • title

Polynomial Neural Fields for Subband Decomposition and Manipulation

  • 在隐式表征中引入了多项式,提升了可解释性,性能提升不明显
  • title
  • title

Implicit Neural Representations with Levels-of-Experts

  • 对空间依赖的MLP的分级细化,没做三维的
  • title

Generalised Implicit Neural Representations

  • 本文大胆地超越了欧几里得坐标系的范畴,提出将连续的高维信号观察为离散图,并对每个节点进行光谱嵌入,以建立神经场的输入。
  • title

HF-NeuS: Improved Surface Reconstruction Using High-Frequency Details

  • 对形状的高低频分离,用的SDF,或许在去噪三维生成上会一定启发
  • title
  • title

Geo-Neus: Geometry-Consistent Neural Implicit Surfaces Learning for Multi-view Reconstruction

  • title
  • Geo-Neus引入了明确的多视图几何约束,以生成几何上一致的表面重建。这些损失包括来自稀疏运动结构(SFM)点云的有符号距离函数(SDF)和光度测量一致性的损失。
  • title
  • title

HSDF: Hybrid Sign and Distance Field for Modeling Surfaces with Arbitrary Topologies

  • SDF 只能建模封闭表面,本文采用混合符号函数处理复杂几何
  • title

INRAS

  • INRAS使用神经场在任意位置存储高保真时域脉冲响应。这允许对一个场景的空间声学进行有效的建模。
  • title

NAF

  • NAF遵循与INR
2022-11-23 16:11:33    234    0    0

Streamable Neural Fields

  • title
  • title
  • title
  • title
  • 有意思的工作,可以用于 NeRF 的模糊图预览。

Conditional-Flow NeRF

  • title
  • title
  • title
  • 估计每一部分重建的 Uncertanty.

R2L

  • title
  • title
  • 把 NeRF 转成 LightFeild 加速渲染。

AdaNeRF

  • 降低采样数量来加速渲染。
  • title

Intrinsic Neural Fields

  • NeualTexture 的竞争对手,提出了一种新的Basis。
  • title
  • title

Beyond Periodicity

  • 测试了不同的NeRF 的激活函数
  • title
  • title
  • title
  • title

NeDDF

  • 优化具有不确定边界的物体(烟雾、毛球、玻璃等)的距离场
  • title

BungeeNeRF: Progressive Neural Radiance Field for Extreme Multi-scale Scene Rendering

  • 咋这么眼熟呢,这不是 city NeRF 的图?
  • 查了一下是 CityNeRF 改名重投了。
  • title
  • title

SNeS: Learning Probably Symmetric Neural Surfaces from Incomplete Data

  • 根据物体本身的对称性增加的正则化。但这篇文章一共就做了一个数据集???
  • title
  • title
  • title

HDR-Plenoxels: Self-Calibrating High Dynamic Range Radiance Fields

  • 多个 LDR 图像合成 HDR 图像
  • title

MINER: Multiscale Implicit Neural Representation

  • 多个 Scale 的MLP
  • title
  • title
  • title

ShAPO: Implicit Representations for Multi-Object Shape, Appearance, and Pose Optimization

  • 尝试单RGBD图像复原三维。但需要先预定义好一些三维形状。
  • title
  • title

Keypoint

2022-11-19 11:10:38    181    0    0
  • 这里是所有 cite 了 clip-nerf 的工作

HairCLIP: Design Your Hair by Text and Reference Image

title

  • 可惜是一个基于StyleGAN 的二维工作。而且相比 StyleCLIP 的创新性不是很多。
  • title

Neural Feature Fusion Fields: 3D Distillation of Self-Supervised 2D Image Representations

  • 应该是投稿 CVPR2023 的文章。
  • 似乎9月初,仲凡提过这么一个idea。但物体删除后桌面如此光滑,不得不表示怀疑。
  • title
  • title

EpiGRAF: Rethinking training of 3D GANs

  • 使用了一个 tri-plane backbone 的NeRF 作为生成器(这和Pi-GAN 有啥区别)
  • title
  • title
  • emmm,可复现性存疑

CLIP-Actor: Text-Driven Recommendation and Stylization for Animating Human Meshes

  • ECCV2022 的文章
  • title
  • title
  • 可惜是 match 的mesh动作+ CLIP-NeRF based 人体外观染色。

AvatarCLIP: Zero-Shot Text-Driven Generation and Animation of 3D Avatars

  • 南阳理工 SIGGRAPH 2022 的工作
  • title
  • title
  • title
  • title
  • 用 CLIP 给 SDF 染色,用 CLIP 匹配最合适的姿态,用 Motion VAE 对运动插值。
  • 感觉不够优雅啊

TANGO: Text-driven Photorealistic and Robust 3D Stylization via Lighting Decomposition

  • 还是染色的工作,只是做了下渲染分解
  • title
  • title
  • 但感觉高光学的不对

Generative Deformable Radiance Fields for Disentangled Image Synthesis of Topology-Varying