网络建站优化科技郑州制作网站推荐
2025/12/31 10:57:23 网站建设 项目流程
网络建站优化科技,郑州制作网站推荐,seo关键词如何布局,公司形象墙效果图点云中的卷积大总结#xff1a;PointCNN, PointConv, RSCNN, PAConv, KPConv, KPConvX 博主导读#xff1a;   关于点云卷积具体论文的讲解在本专栏其他博客中已基本完成#xff0c;现做一个总结。   本文将带你盘点点云卷积领域的六大里程碑#xff0c;并一览各种流派…点云中的卷积大总结PointCNN, PointConv, RSCNN, PAConv, KPConv, KPConvX博主导读关于点云卷积具体论文的讲解在本专栏其他博客中已基本完成现做一个总结。本文将带你盘点点云卷积领域的六大里程碑并一览各种流派的优劣。1. 为什么点云卷积这么难2D 卷积之所以好用是因为图像像素排列在规则的网格Grid上。左上角的像素一定对应卷积核的W 0 , 0 W_{0,0}W0,0​。但 3D 点云具备以下特性使得卷积定义变得异常困难无序性 (Unordered)点的存储顺序不代表空间位置输入[ A , B , C ] [A, B, C][A,B,C]和[ C , A , B ] [C, A, B][C,A,B]应当代表同一个物体。非均匀性 (Irregular)有的地方密如激光雷达近处有的地方疏如远处密度不一致。非结构化 (Unstructured)没有固定的网格邻居。因此所有点云卷积的核心使命就是找到一种方法把离散、无序的邻居点映射到固定的卷积核权重上。2. 五大经典卷积流派详解① PointCNN试图把“无序”变为“有序”核心痛点点云没有顺序导致卷积核没法对号入座。解决方案 (X-Transform)PointCNN 并没有去适应点云的无序而是试图改变它。它设计了一个X-Conv算子通过一个 MLP 从邻居点的坐标中学习一个K × K K \times KK×K的X XX变换矩阵。这个矩阵有两个关键作用对特征进行加权Weighting。重排列 (Permutation)试图将无序的邻居点“整理”成一种潜在的规范顺序 (Canonical Order)。一句话评价思路非常大胆试图强行制造秩序但X XX矩阵的可解释性较弱且计算代价较高。② PointConv连续权重的离散化逼近核心痛点点云分布不均匀直接卷积会导致密集区域权重过大。解决方案 (Continuous Function)它认为卷积本质上是 3D 空间的连续积分。既然不能像 2D 那样存固定的权重矩阵那就用一个MLP来拟合连续的权重函数W ( x , y , z ) W(x, y, z)W(x,y,z)。同时它引入了逆密度加权 (Inverse Density Scale)根据局部点的疏密程度动态调整权重保证了对稀疏和密集区域的一视同仁。一句话评价数学理论最严谨完美推广了 2D 卷积定义对非均匀采样非常鲁棒。③ RSCNN从几何关系中学习核心痛点只看相对坐标不够点与点之间的几何关系拓扑才是形状的关键。解决方案 (Geometric Priors)RSCNN (Relation-Shape CNN) 的卷积权重不是直接学习的参数而是由几何先验生成的。它提取中心点和邻居之间的几何关系向量h i j h_{ij}hij​如欧氏距离、法线夹角等然后通过一个映射函数M \mathcal{M}M生成卷积权重。一句话评价归纳偏置 (Inductive Bias) 很强显式利用几何关系让它收敛更快鲁棒性更好。④ PAConv动态核组装 (CVPR 2021)核心痛点直接预测大卷积核参数量太大如 PointConv容易过拟合且慢。解决方案 (Weight Bank)采用**“乐高积木”思想。预先定义一组固定的基础权重矩阵Weight Bank对于每个位置只需要预测一组简单的组合系数 (Score)**。最终的核是这些基础矩阵的线性组合。一句话评价效率与灵活性的平衡大师模块化设计使得它可以作为即插即用的模块嵌入现有网络。⑤ KPConv空间中的锚点 (ICCV 2019)核心痛点上述方法都要依赖输入点能不能像 2D 卷积核一样定义在固定的空间位置解决方案 (Kernel Points)KPConv 在空间中撒了一把**“核点”**Kernel Points带权重的锚点。对于任意邻居点计算它离哪个核点近线性插值就受哪个核点的影响。它还推出了Deformable版本让核点学会“跑”到几何特征明显的地方如墙角、边缘。一句话评价大场景分割的王者完全脱离点云排列仅依赖欧氏空间位置稳定性极佳。3. 巅峰对决KPConvX 的现代化改造 (CVPR 2024)随着 Point Transformer 和 PointNeXt 的崛起传统 KPConv 显得“又重又慢”。CVPR 2024 的KPConvX对 KPConv 进行了彻底的现代化改造使其重回 SOTA。瘦身 (Depthwise)将全通道卷积改为深度可分离卷积参数量指数级下降。加速 (Nearest Strategy)放弃复杂的插值邻居点只找最近的一个核点 (k ∗ k^*k∗)计算速度起飞。附魔 (Kernel Attention)引入了基于几何的注意力机制。核心公式如下( F ∗ g ) ( x ) ∑ i H h i k ∗ ( m k ∗ ⏟ 动态意图 ⊗ w k ∗ ⏟ 静态技能 ) ⊙ f i (\mathcal{F}*g)(x) \sum_{iH} h_{ik^*} (\underbrace{m_{k^*}}_{\text{动态意图}} \otimes \underbrace{w_{k^*}}_{\text{静态技能}}) \odot f_i(F∗g)(x)iH∑​hik∗​(动态意图mk∗​​​⊗静态技能wk∗​​​)⊙fi​w ww(静态权重)网络学到的固定技能如提取边缘。m mm(动态注意力)中心点根据自身特征现场决定关注哪个方位的核点。结果在 ScanNetv2 上超越了 Point Transformer V2证明了显式几何结构依然是点云处理的王道。4. 总结核心方法横向对比表 点云卷积方法的深度横向评测方法 (Method)核心机制 (Strategy)数理原理 (Principle)优缺点深度评价 (Pros Cons)PointCNN(NeurIPS 2018)学习无序到有序的变换认为点云难处理是因为没顺序所以试图学习一个X XX变换矩阵把乱序的点“排列”成潜在的规范顺序。X-Conv 算子F Conv ( K , X × P ) F \text{Conv}(K, X \times P)FConv(K,X×P)先用 MLP 从坐标学出X XX矩阵对邻居特征P PP进行加权和重排再卷积。 优点通用性强不依赖特定的几何先验。 缺点X XX矩阵难以解释黑盒且计算量大缺乏明确的几何归纳偏置收敛较慢。PointConv(CVPR 2019)连续函数的蒙特卡洛逼近将卷积视为 3D 连续积分。既然不能存离散核就用 MLP 拟合连续权重函数并引入密度校正。密度重加权连续卷积W ( x ) MLP ( Δ x , Δ y ) W(x) \text{MLP}(\Delta x, \Delta y)W(x)MLP(Δx,Δy)F ∑ W ( x ) ⋅ 1 density ⋅ P F \sum W(x) \cdot \frac{1}{\text{density}} \cdot PF∑W(x)⋅density1​⋅P权重由相对坐标生成并除以局部密度。 优点数学理论最严谨扩展了 2D 卷积定义对非均匀采样疏密不均极具鲁棒性。 缺点内存占用巨大每个点都要存一个生成的核推理速度较慢。RSCNN(CVPR 2019)几何先验驱动认为“相对坐标”不足以描述形状必须显式利用点与点的几何关系如距离、角度来生成权重。RS-Conv 算子w i j M ( h i j ) w_{ij} \mathcal{M}(h_{ij})wij​M(hij​)h i j h_{ij}hij​是预定义的几何向量距离、法线夹角等M \mathcal{M}M是映射函数。 优点归纳偏置 (Inductive Bias) 极强对旋转和刚体变换有很好的鲁棒性捕捉形状能力强。 缺点过分依赖手工设计的几何关系h i j h_{ij}hij​可能限制了网络的上限。PAConv(CVPR 2021)动态权重组装 (积木思想)拒绝直接预测大矩阵改为预定义一组基础矩阵 (Weight Bank)只预测组合系数。ScoreNet WeightBankK ∑ Score ( x ) ⋅ B i K \sum \text{Score}(x) \cdot B_iK∑Score(x)⋅Bi​核 ∑ \sum∑(位置系数× \times×基础矩阵)。 优点效率之王。参数量极低计算速度快模块化设计可无缝插入现有网络。 缺点需要精细调节 Weight Bank 的大小和 Softmax 温度否则容易产生冗余。KPConv(ICCV 2019)空间核点插值完全脱离输入点的依赖在欧氏空间中撒一组带权重的“核点” (Kernel Points)通过距离插值定义卷积。线性相关度插值g ( x ) ∑ h i k W k g(x) \sum h_{ik} W_kg(x)∑hik​Wk​邻居点离哪个核点近就受哪个W k W_kWk​影响。支持可变形 (Deformable)。 优点稳定性标杆。解耦了卷积核位置和点云分布Deformable 版本在大场景分割中表现统治级。 缺点计算量偏大全通道卷积插值过程繁琐。KPConvX(CVPR 2024)几何注意力机制引入 Depthwise 卷积瘦身并增加 Kernel Attention让中心点动态决定关注哪个方位的核点。最近邻 几何注意力F ∑ ( m k ∗ ⊗ w k ∗ ) ⊙ f i F \sum (m_{k^*} \otimes w_{k^*}) \odot f_iF∑(mk∗​⊗wk∗​)⊙fi​只找最近核点k ∗ k^*k∗并用动态系数m mm缩放静态权重w ww。 优点SOTA 方案。兼顾了速度最近邻策略和精度注意力机制解决了老版 KPConv 重和慢的问题。 缺点最近邻策略在极度稀疏的点云上可能不如插值平滑但通过多层堆叠可缓解。博主后记点云卷积的发展史本质上就是一部**“如何更高效、更优雅地利用几何信息”的历史。从 PointCNN 的强行排序到 KPConv 的空间锚点再到 KPConvX 的几何注意力我们看到显式的几何结构**Explicit Geometry始终是点云处理的灵魂。 附录点云网络系列导航本专栏致力于用“人话”解读 3D 点云领域的硬核论文从原理到代码逐行拆解。欢迎订阅专栏【点云特征分析_顶会论文代码硬核拆解】持续更新中…本文为 CSDN 专栏【点云特征分析_顶会论文代码硬核拆解】原创内容转载请注明出处。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询