共查询到10条相似文献,搜索用时 218 毫秒
1.
为实现可压缩流问题的大规模高效数值求解,开展基于图形处理单元(GPU)的并行计算研究。在NVIDIA GTX 1070上建立了基于消息传递接口+统一计算设备架构(MPI+CUDA)的多GPU并行可压缩流求解器,该求解器基于结构网格有限体积法,空间离散采用AUSM+UP格式。采用一维区域分解法对计算网格进行划分,使得各GPU之间达到负载平衡。针对超声速进气道算例,对算法单GPU并行性能和多GPU可扩展性能进行分析。数值结果显示,单GPU并行计算可以获得37~46倍的加速比,极大地提高了计算效率;4块GPU并行计算加速比从47倍增加到143倍,并行效率维持在70%以上,说明并行算法具有良好的可扩展性。 相似文献
2.
GPU平台上的叶轮机械CFD加速计算 总被引:2,自引:1,他引:1
通过数据并行的方式对一个成熟的叶轮机多块网格气动计算程序(MAP)进行了并行化处理,利用计算统一设备架构(CUDA)技术实现了在图形处理单元(GPU)上的并行计算.保留了原程序中的2阶空间迎风格式和隐式时间离散格式,并采用了隐式迭代对线性系统进行求解.经过2个叶轮机械算例的测试,与在传统的中央处理器(CPU)上运行的原程序相比,在计算结果完全一致的前提下,单GPU的计算速度最高可达单CPU计算速度的8.89倍,与四核并行的CPU计算相比可以得到2.39倍的加速. 相似文献
3.
基于GPU和隐式格式的CFD并行计算方法 总被引:1,自引:0,他引:1
从图形处理器(GPU)架构特点出发,提出了基于数据并行的隐式计算流体力学(CFD)求解方法,空间离散格式采用迎风Roe格式,计算网格适用于结构和非结构网格。采用统一计算设备架构(CUDA)技术实现了GPU上的隐式CFD并行计算。分别在Intel Core2 Quad3.0GHzCPU和NVIDIAGTX280 GPU上进行了计算,结果表明隐式格式计算速度是显式格式6倍以上,采用显式格式的计算加速比达到28倍,采用隐式格式计算加速比达到了28.7倍,同时计算加速比随计算规模的增加而增加。计算结果和实验结果较为吻合。 相似文献
4.
5.
6.
以圆管构型的声传播为分析对象,研究了基于图形处理器GPU的计算气动声学(Computational Aeroacous-tics,CAA)高阶有限差分算法的并行实现,并与CPU串行及MPI并行实现作了对比分析。首先介绍了管道简化模型的2.5维线化欧拉方程和GPU的编程模式以及调优参考准则,然后给出了相关物理量的空间离散方法的GPU实现。数值实验的结果表明,与CPU串行及MPI并行程序的结果相比,使用GPU的程序实现在达到与MPI并行同样的计算效率时,可以使用更少的计算资源。较之cluster上串行算法,工作站上GPU并行算法在使用不同网格规模的情况下可达到的3倍多的加速比。 相似文献
7.
8.
9.
针对可编程GPU模型,提出了基于CPU-GPU的并行边缘强度加权融合算法,利用CPU和GPU协同工作模式达到图像融合的目的,其中CPU负责串行任务,而GPU负责并行任务。实验结果表明,并行边缘强度加权融合算法得到的融合图像有着较好的视觉效果,信息熵和QAB/F这两个评价指标均高于文中对比算法的相应指标;从运行时间上分析,基于CPU-GPU的融合方法所需要的运行时间远低于基于CPU方法所需要的运行时间,并且图像尺寸越大,加速比越高。 相似文献
10.
《载人航天》2020,(4)
针对天宫一号目标飞行器无控飞行轨道衰降数值预报需要快速确定轨道积分高精度计算模型中的空气动力,在发展基于修正Boettcher/Legge非对称桥函数的天宫一号空气动力特性当地化算法基础上,对当地化算法的运算流程及对应程序代码进行了整体分析,根据原程序热点代码集中、数据独立性强及传输需求少等特点,发展了多核处理单元的并行优化方法。引入CUDA架构的GPU设备同时,开展了系统、算法以及语句三个层次的并行优化,设计了GPU内存对齐访问方案,使用数据传输函数,将算法求解部分内循环经过展开与合并,整理为整体移植入核函数的一个循环,利用GPU较强的并行计算能力提升运算效率,对函数、循环、指令等代码语句进行级别优化。使用设计的并行计算方案对类天宫飞行器空气动力特性当地化串行算法程序进行CPU+GPU移植优化,达到了近5倍的并行加速比,且使单次求解中GPU数据传输时间缩减为原来的23%,证实了并行方案和优化设计手段的高效实用性。在类天宫飞行器空气动力特性GPU并行算法程序验证基础上,使用GPU并行程序对天宫飞行器轨道衰降飞行340~120 km过程的气动特性进行了不同迎角、侧滑角等飞行姿态计算分析,提供了大量可供轨道飞行力学数值预报的空气动力计算数据。 相似文献