首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   20篇
  免费   1篇
  国内免费   2篇
航空   13篇
航天技术   3篇
综合类   1篇
航天   6篇
  2020年   3篇
  2019年   1篇
  2017年   1篇
  2016年   2篇
  2015年   1篇
  2013年   1篇
  2012年   1篇
  2011年   1篇
  2010年   1篇
  2009年   1篇
  2007年   4篇
  2006年   2篇
  2005年   1篇
  2002年   2篇
  2001年   1篇
排序方式: 共有23条查询结果,搜索用时 703 毫秒
1.
王学德  伍贻兆  夏健  谭俊杰 《宇航学报》2007,28(6):1500-1505
基于PC-CLUSTER机群并行体系结构与消息传递库MPI并行环境,研究了三维非结构网格DSMC并行算法。提出一类基于结构背景网格上的非结构网格动态分区策略,保证各子区域的分子数量大致相等,实现计算进程间的动态负载平衡。利用MPI库函数构造了两类符合DSMC并行原理的通讯法:单步通讯法与多步通讯法。采用单控制多数据流(SPMD)以及Master/Slave并行模式,设计了三维非结构网格DSMC整体并行算法。给出了跟踪模拟分子在四面体网格间迁移运动的详细计算过程。最后对全尺寸航天飞机高超声速绕流进行了并行模拟,验证并行算法的有效性。  相似文献   
2.
基于集群系统(CLUSTER),在Linux和MPI并行环境下,研究了带制退器的复杂膛口流场三维数值模拟并行算法。计算网格是三维多区结构化网格,数值格式采用Jameson格式及LU隐式分解方法。针对流场的复杂拓扑结构,建立分区信息文件记录各分区的相关信息,并提出了通过合并相邻网格分区的方法均衡各个进程的负载,提高程序的并行效率。在处理需要通讯的信息时,设计了自定义数据类型和"设置中间参数"相结合的方法,并通过动态分配内存减少了程序对计算机系统资源的占用。数值实验表明,本文设计的算法可以适应拓扑结构较复杂的流场,并能取得理想的并行效率,将有助于制退器性能的研究。  相似文献   
3.
王年华  常兴华  赵钟  张来平 《航空学报》2020,41(10):123859-123859
常规工程应用中,非定常数值模拟(如多体分离)的计算量十分巨大,如果为了达到更高的计算精度,加密网格或者采用高精度方法将会使得计算量进一步增大,导致非定常数值模拟在CFD工程应用中成为十分耗时和昂贵的工作,因此,提高非定常数值模拟的可扩展性和计算效率十分必要。为充分发挥既有分布内存又有共享内存的多核处理器的性能和效率优势,对作者团队开发的非结构网格二阶精度有限体积CFD软件(HyperFLOW)进行了混合并行改造,在计算节点间采用MPI消息传递机制,在节点内采用OpenMP共享内存的MPI+OpenMP混合并行策略。首先分别实现了两种粒度(粗粒度和细粒度)的混合并行,并基于国产in-house集群采用CRM标模(约4 000万网格单元)定常湍流算例对两种混合并行模式进行了测试和比较。结果表明,粗粒度在进程数和分区数较少的小规模并行时具有效率优势,16线程时效率较高;而细粒度混合并行在大规模并行计算时具有优势,8线程时效率较高。其次,验证了混合并行在非定常计算情况下的可扩展性,采用机翼外挂物投放标模算例,分别生成3.6亿和28.8亿非结构重叠网格,采用对等的(P2P)网格读入模式和优化的重叠网格隐式装配策略,网格读入和重叠网格装配耗时仅需数十秒;采用3.6亿网格,完成了非定常状态效率测试及非定常分离过程的湍流流场计算,在in-house集群上12 288核并行效率达到90%(以768核为基准),在天河2号上12 288核并行效率达到70%(以384核为基准),数值模拟结果与试验结果符合良好。最后,在in-house集群上采用28.8亿非结构重叠网格进行了4.9万核的并行效率测试,结果显示,4.9万核并行效率达到55.3%(以4 096核为基准)。  相似文献   
4.
基于MPI的大规模变量结构优化技术研究   总被引:1,自引:0,他引:1  
针对大规模变量结构优化问题,研究了基于虚载荷法的位移敏度求解理论,提出了惩罚函数随优化迭代次数自适应变化的二次扩展内罚函数法,并结合牛顿法作为优化算法.采用MPI并行技术实现了敏度求解的局部并行计算,解决了大规模变量结构优化技术中的规模和效率问题.采用FORTRAN语言在HAJIF2013系统上对上述方法编程实现,实例表明,优化方法能够快速、稳定收敛到最优解,以及基于虚载荷法的位移敏度解析求解理论的高效性和准确性.  相似文献   
5.
介绍了MPI的基本概念,列举了提高并行计算效率的一些措施,并实现了基于MPI消息传递机制的弹道仿真计算模型的并行编程,最后对并行计算和串行计算的结果进行了比较。研究结果表明,将并行计算技术应用于弹道仿真中是可行的,并获得了较高的加速比和计算效率;与单机运行相比,计算机机群可以大大缩短计算时间,提高计算效率,而且可以扩大计算规模,系统适应性和延展性较好。  相似文献   
6.
基于MPI的卫星遥感数据实时处理平台设计   总被引:2,自引:1,他引:1  
刘莉 《航天器工程》2013,22(3):130-134
针对高速率卫星遥感数据实时处理的要求,设计了一种卫星遥感数据实时处理平台。该平台采用分层设计思想,自上而下分为表现与控制层、业务处理层、基础服务层和应用支持层。结合消息传递接口(MPI)技术,构建了分布式实时并行处理平台框架。原型系统验证结果表明,该平台能处理下传码速率达450Mbit/s的双通道数据,单通道处理速率高达6Gbit/s。文章提出的平台设计应用于遥感卫星的地面检测系统,具有处理速度快、运行稳定的优点。  相似文献   
7.
基于CLUSTER集群并行体系结构与消息传递库MPI并行环境,开展了超声速流场的并行数值算 法研究。计算网格采用多块对接粘性结构网格,控制方程为积分形式的Navier\|Stoke s(N-S)方程,空间离散采用基于Van Leer+AUSM混合格式的有限体积法,粘性项采用中心 格式离散并利用格林定理计算粘性通量中的导数项,时间推进采用五步R-K法,应用一方程S -A模型计算湍流的粘性。并行计算采用 分区并行的思想,设计了满足负载平衡要求的区域分解和通讯方法,编程上采用单控制流多 数据流(SPMD)模型以及Master/Slave并行模式。最后,通过对某弹丸和某制导火箭弹超声 速流动的数值模拟, 验证了并行算法的准确性、高效性和处理复杂几何外形的能力。
  相似文献   
8.
基于PC-CLUSTER群机并行体系结构与消息传递库MPI并行环境,研究了二维非结构网格DSMC并行算法。提出一类非结构网格动态分区策略,保证各子区域的分子数量大致相等,实现计算进程间的动态负载平衡。利用MPI库函数构造了符合DSMC并行原理的单步通讯法。采用单控制多数据流(SPMD)以及Master/Slave并行模式,设计了二维非结构网格DSMC整体并行算法。在程序的编制过程中,充分展现了Fortran90高级语言的主要特性,引人动态数组、指针、链表及派生类型数据。最后对过渡流域高超声速绕流进行了并行计算,数值试验的结果表明本文设计的并行算法可以取得较为理想的加速比。  相似文献   
9.
MPI+OpenMP算法在三维可压缩流场计算中的应用   总被引:1,自引:0,他引:1  
在多核CPU集群并行体系结构下,采用MPI+OpenMP的混合并行算法,对可压缩流场进行数值模拟,并在计算时间上与MPI算法进行比较。流场计算的控制方程为Euler方程,空间离散采用Jameson中心差分格式,时间离散采用R-K法,并行模式采用Master/Slave模式。通过对M6机翼和某弹丸采用多种并行方法进行流场的数值模拟,得出MPI+OpenMP混合算法在一定条件下具有高效性的结论。  相似文献   
10.
格子Boltzmann方法(Lattice Boltzmann Method,LBM)是计算流体力学中的一种常用方法.由于LBM中的格点仅与相邻的格点间存在数据传递,因此具有良好的并行性.LBM并行算法中的数值通信部分通常采用的是格点上的微观量——分布函数.每次传递的分布函数具有多个不同的速度方向,为了进一步减少LBM并行算法的通信开销,从格子 Boltzmann方法的物理特性以及相应的串行程序为切入点,深层次地挖掘可并行的因子,设计了专门用于通信面的类,使用数量较少的宏观量进行通信,降低了通信所占的比重,缩短了通信时间,提高了加速比和效率.实验表明,在4 096个计算核上依然有良好的加速比和效率.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号