基于Transformer的点云几何有损压缩方法 |
| |
引用本文: | 刘舸昕,章骏腾,丁丹丹.基于Transformer的点云几何有损压缩方法[J].北京航空航天大学学报,2024(2):634-642. |
| |
作者姓名: | 刘舸昕 章骏腾 丁丹丹 |
| |
作者单位: | 杭州师范大学信息科学与技术学院 |
| |
基金项目: | 国家自然科学基金(6217010731);;浙江省自然基金(LY20F010013)~~; |
| |
摘 要: | 点云被广泛地用于三维物体表达,不过真实世界采集到的点云往往数据庞大,不利于传输与储存,针对点云数据冗余性问题,引入基于注意力机制的Transformer模块,提出一种基于Transformer的端到端多尺度点云几何压缩方法。将点云进行体素化,在编码端利用稀疏卷积提取特征,进行多尺度的逐步下采样,结合Transformer模块加强点空间特征感知与提取;在解码端进行对应的多尺度上采样重建,同样采用Transformer模块对有用特征进行加强与恢复,逐步细化并重建点云。与2种点云标准编码方法对比,所提方法平均获得80%和75%的BD-Rate增益;与基于深度学习的点云压缩方法对比,平均获得16%的BD-Rate增益,在相同码率点有约0.6的PSNR提升。实验结果表明:Transformer在点云压缩领域的可行性与有效性;在主观质量方面,所提方法也有明显的主观效果提升,重建的点云更接近原始点云。
|
关 键 词: | 点云几何压缩 Transformer 注意力机制 深度学习 稀疏卷积 |
|
|