智能卫星技术对卫星时间序列数据挖掘提出了越来越多的需求。通常卫星数据计算量都非常大,若串行执行则需要较长时间。以卫星异变过程多类型特征分析过程为典型代表,针对窗口划分与向量相似度计算、特征提取、傅里叶变换、聚类等常见数据挖掘操作,探讨了在多核CPU和GPU的典型异构计算节点中对时序数据挖掘过程进行并行优化的多种策略,包括向量化方法、多进程方法、GPU计算等方法。对这几种优化策略的适用情况进行了实验分析对比。结果表明,针对不同任务情况综合使用多种优化策略具有显著提升效果。 相似文献
2.
蚁群算法是一种具有高度并行特征的群智能算法,串行实现过程中具有收敛速度慢的特点,在将其应用到相依任务序列的单机调度问题中时,以任务在不同作业序下的完成时间为基础,建立了单机调度问题的TSP模型。以任务完成时间最优化为目的,实现了一种求解相依任务单机调度的改进蚁群算法,并基于GPU对其进行了并行化设计。实验表明该算法能够完成相依任务的调度处理,通过并行化得到了较高的加速比。 相似文献
3.
利用实时遥测飞行信息生成三维虚拟地形场景,旨在飞机试飞时,增强地面指挥人员对飞机实时位置地面场景的感知能力,帮助飞行员在试飞时处理复杂多变的飞行状况。为了逼真且流畅地生成三维地形场景,首先使用固定网格映射(PGM)的方法生成地形采样网格,接着利用几何着色器为三角形面片分配连续的与视点相关的细节等级(LOD),对缓存在纹理数组中的各等级高程数据和卫星照片进行混合采样。由于细节等级是连续的,因此各级纹理和高程之间能够平滑的过渡,增加了场景的真实性。最后,考虑到显存的容量限制,引入了一种内存与显存之间的纹理调度方法。整个算法都是面向图形处理单元(GPU)实现的,能够较好地兼顾实时性和真实性,实现多分辨率大规模地形场景的实时虚拟显示。根据本文算法实现的实时监控系统在支线飞机的飞行试验中取得了较好的效果。 相似文献
4.
大规模场景的沉浸式投影系统大都以环幕作为显示设备,而由环幕造成的几何失真使系统真实感大大降低。从环幕产生失真的几何原理出发,通过建立投影平面和成像面之间的坐标映射关系,生成了一种几何失真校正的理论模型。同时,研究了一种适于通用加速计算的图形硬件架构CUDA,基于其多线程的硬件执行机制,通过将几何失真的校正矩阵组织成纹理进行多重纹理贴图映射,设计了预失真校正的硬件加速算法,该算法还利用基于权值的超采样技术对加速中的走样进行了设计。最后,对该方法的校正效率和效果进行了实验验证,证明该方法具有更高的场景交互速度和很好的校正效果。 相似文献
5.
GPU平台上的叶轮机械CFD加速计算 总被引:2,自引:1,他引:1
通过数据并行的方式对一个成熟的叶轮机多块网格气动计算程序(MAP)进行了并行化处理,利用计算统一设备架构(CUDA)技术实现了在图形处理单元(GPU)上的并行计算.保留了原程序中的2阶空间迎风格式和隐式时间离散格式,并采用了隐式迭代对线性系统进行求解.经过2个叶轮机械算例的测试,与在传统的中央处理器(CPU)上运行的原程序相比,在计算结果完全一致的前提下,单GPU的计算速度最高可达单CPU计算速度的8.89倍,与四核并行的CPU计算相比可以得到2.39倍的加速. 相似文献
6.
针对集群系统的多节点多GPU环境,提出一种新型虚拟化GPU计算平台。该平台实现对集群系统所有节点上GPU资源的统一抽象与管理,构建公共GPU资源池。原有GPU应用程序可以不经任何修改而迁移到虚拟化GPU计算平台,并具备访问资源池内任何GPU的能力,编程人员无需显式针对多节点多GPU应用展开MPI编程。应用程序摆脱了单个节点上GPU资源的限制,并具备无差别地访问集群系统中任何可用GPU资源的能力,能有效提高系统总体资源利用率以及吞吐量。采用流水化通信技术,实现对虚拟化GPU计算平台的运行时开销以及节点间数据传输延迟的隐藏。实验表明:与非流水化通信相比,系统总体数据传输延迟降低了50%~70%,具备与节点机本地数据传输等同的通信性能。 相似文献
7.
三维磁流体力学(MHD)数值模拟是用来研究日冕和太阳风最常用的方法之一, 其中将计算得到的日冕电子数密度转化为日冕偏振亮度(Polarization Brightness, PB)是与观测对比的重要方法. 由于待转换电子数据网格密度、PB数据网格密度和计算模型的复杂度, 使得日冕偏振亮度的计算比较耗时, 利用单CPU计算无法达到近实时转换日冕偏振亮度的要求, 从而影响了数值模拟的验证效率. 本文在CPU/GPU环境下, 利用CUDA编程技术, 提出了一个日冕偏振亮度并行计算模型. 实验结果表明, 该模型比CPU上的串行模型计算速度提高了31.86倍, 达到了近实时模拟与观测数据比对的计算要求. 相似文献
8.
基于GPU的脉冲压缩并行化研究 总被引:1,自引:0,他引:1
在雷达数字脉冲压缩实时信号处理中,常需要每秒完成几亿甚至几百亿次的运算,采用能够专注于执行高度线程化并行任务的GPU实现脉冲压缩具有重要意义.根据线性调频信号和匹配滤波器理论基础,提出了基于GPU的脉冲压缩并行化实现方法.测试结果表明,基于GPU的脉冲压缩并行化方法相对于CPU有百倍以上的加速比. 相似文献
9.
10.