首页 | 本学科首页   官方微博 | 高级检索  
     检索      

基于Transformer的点云几何有损压缩方法
引用本文:刘舸昕,章骏腾,丁丹丹.基于Transformer的点云几何有损压缩方法[J].北京航空航天大学学报,2024(2):634-642.
作者姓名:刘舸昕  章骏腾  丁丹丹
作者单位:杭州师范大学信息科学与技术学院
基金项目:国家自然科学基金(6217010731);;浙江省自然基金(LY20F010013)~~;
摘    要:点云被广泛地用于三维物体表达,不过真实世界采集到的点云往往数据庞大,不利于传输与储存,针对点云数据冗余性问题,引入基于注意力机制的Transformer模块,提出一种基于Transformer的端到端多尺度点云几何压缩方法。将点云进行体素化,在编码端利用稀疏卷积提取特征,进行多尺度的逐步下采样,结合Transformer模块加强点空间特征感知与提取;在解码端进行对应的多尺度上采样重建,同样采用Transformer模块对有用特征进行加强与恢复,逐步细化并重建点云。与2种点云标准编码方法对比,所提方法平均获得80%和75%的BD-Rate增益;与基于深度学习的点云压缩方法对比,平均获得16%的BD-Rate增益,在相同码率点有约0.6的PSNR提升。实验结果表明:Transformer在点云压缩领域的可行性与有效性;在主观质量方面,所提方法也有明显的主观效果提升,重建的点云更接近原始点云。

关 键 词:点云几何压缩  Transformer  注意力机制  深度学习  稀疏卷积
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号