You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Point Transformer V2: Grouped Vector Attention and Partition-based Pooling
@article{wu2022point title={Point transformer v2: Grouped vector attention and partition-based pooling}, author={Wu, Xiaoyang and Lao, Yixing and Jiang, Li and Liu, Xihui and Zhao, Hengshuang}, journal={Advances in Neural Information Processing Systems}, volume={35}, pages={33330--33342}, year={2022}
1.沿用PTv1所使用的相邻注意力机制。2.向量注意力机制的主要摸底使用权重编码函数将query和Key的关系编码到向量中去。在VA中,还另外使用了一个hadamard函数在channel聚合前为每个权重计算注意力。3.GVA其实是向量注意力+多尺度注意力。收到多尺度注意力的权重嵌入函数启发,提出了一个组线性层,即输入向量不同的组贝单独投影。--减少权重嵌入时的参数,最终GVA的组成为:linear(composition)act(composition)norm(group linear layer(r))。r表示的是相关点。4.位置嵌入乘法器。原来的位置嵌入是把相对位置作为一个偏执加到上述的GVA中,但是相对位置乘法器对提出了一个乘法模块致力于学习复杂点云的位置关系,作为一个权重去和r进形hadamard计算。4.分区池化策略:将输入分成不重叠统一的网格,在网格内进行池化操作,对特征先进性线性投影在进行最大池化,对位置信息直接进行平均池化。在解池化中不对位置进行处理,只对特征采用相同的池化操作进行映射。整个网络框架采用的是unet-skip connections ,4个编-解码器。