首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   735篇
  免费   56篇
  国内免费   37篇
航空   258篇
航天技术   129篇
综合类   29篇
航天   412篇
  2024年   6篇
  2023年   23篇
  2022年   23篇
  2021年   32篇
  2020年   30篇
  2019年   21篇
  2018年   8篇
  2017年   11篇
  2016年   15篇
  2015年   18篇
  2014年   28篇
  2013年   26篇
  2012年   46篇
  2011年   30篇
  2010年   38篇
  2009年   47篇
  2008年   33篇
  2007年   42篇
  2006年   25篇
  2005年   44篇
  2004年   29篇
  2003年   30篇
  2002年   23篇
  2001年   29篇
  2000年   21篇
  1999年   26篇
  1998年   14篇
  1997年   10篇
  1996年   18篇
  1995年   8篇
  1994年   6篇
  1993年   12篇
  1992年   16篇
  1991年   11篇
  1990年   8篇
  1989年   7篇
  1988年   8篇
  1987年   3篇
  1986年   1篇
  1985年   1篇
  1983年   1篇
排序方式: 共有828条查询结果,搜索用时 15 毫秒
811.
针对传统高功率微波测试方法的固有缺陷,介绍了一种基于微波光子学的高功率微波测试方法。基于这种方法设计了一套光电式高功率微波测试系统,这套测试系统具备低扰动、瞬时动态范围大、抗干扰能力强且能同时采集高功率微波时/频域信号特征等优点。使用高功率微波脉冲信号对这套系统进行了试验验证,测得的数据完整的表现了高微波脉冲时/频域的信号特征,验证了这套测试系统和方法的可行性和有效性。  相似文献   
812.
随着城市智能化的发展, 基于WiFi接收信号强度(RSS)的指纹室内定位服务受到社会的广泛关注。深度学习技术是利用RSS信号获得高室内定位性能的一种重要手段, 但其易遭受对抗样本攻击, 给定位系统带来严重安全隐患。为此, 提出了一种抵御对抗样本攻击的基于深度学习的RSS指纹室内定位方法(AdvILoc)。该方法基于图像识别领域对抗样本防御方法的研究和分析, 结合室内RSS指纹数据特征单一且高维的特点, 通过在RSS指纹室内定位深度学习模型中添加池化层、全连接层, 以及满足差分隐私的噪声层来抵御对抗样本攻击, 解决了基于深度学习的室内定位模型易过拟合且泛化能力不高的问题。通过添加Dropout层, 以及设计模型参数正则化方法, 提高模型抵御对抗样本攻击的鲁棒性。在2个真实RSS指纹室内定位数据集上的实验结果表明:与已有基于多层感知机(MLP)、卷积神经网络(CNN)的RSS指纹室内定位方法相比, 所提方法在保证时间开销和基本不影响定位模型性能的情况下, 提高了模型抵御对抗样本攻击的鲁棒性;在满足l2范式规范的C&W攻击下, 随着攻击大小不断增大, 模型的定位准确率下降也更平稳。   相似文献   
813.
针对深度卷积生成式对抗网络(DCGAN)模型高维文本输入表示的稀疏性导致以文本为条件生成的图像结构缺失和图像不真实的问题,提出了一种改进深度卷积生成式对抗网络模型CA-DCGAN。采用深度卷积网络和循环文本编码器对输入的文本进行编码,得到文本的特征向量表示。引入条件增强(CA)模型,通过文本特征向量的均值和协方差矩阵产生附加的条件变量,代替原来的高维文本特征向量。将条件变量与随机噪声结合作为生成器的输入,并在生成器的损失中额外加入KL损失正则化项,避免模型训练过拟合,使模型可以更好的收敛,在判别器中使用谱约束(SN)层,防止其梯度下降太快造成生成器与判别器不平衡训练而发生模式崩溃的问题。实验验证结果表明:所提模型在Oxford-102-flowers和CUB-200数据集上生成的图像质量较alignDRAW、GAN-CLS、GAN-INT-CLS、StackGAN(64×64)、StackGAN-v1(64×64)模型更好且接近于真实样本,初始得分值最低分别提高了10.9%和5.6%,最高分别提高了41.4%和37.5%,FID值最低分别降低了11.4%和8.4%,最高分别降低了43....  相似文献   
814.
针对空间站为代表的空间活动驻留宇航员上镜时的妆容美化需求和空间环境资源限制等问题,通过图像处理的方法为宇航员进行虚拟上妆,优化航天员个人形象。对妆容迁移技术现状和载人航天中的问题进行了初步的探索和讨论,进一步提出虚拟上妆的优化设想,设计了基于生成对抗网络的妆容迁移模型。通过该模型可以对宇航员图像或视频的关键帧进行自动美颜,实现宇航员面部的虚拟上妆。实验结果表明,在不会改变宇航员的身份信息的基础上,通过优化后的循环一致性生成对抗网络对宇航员图像面部、眼部及唇部都可以进行迁移上妆,且不需要额外的手动交互。电子上妆技术解决了太空中宇航员个人形象维护难的问题,对进一步提升航天员形象有一定的参考价值。  相似文献   
815.
学院简介北京航空航天大学仪器科学与光电工程学院源于1952年北航建校伊始成立的飞机设备教研室,1958年为满足“两弹一星”惯性制导的急需,由钱学森先生提议我国惯性技术的奠基人之一林士谴先生创建了“航空陀螺及惯性导航”研究室,以此为基础发展起来的航空陀螺及惯性导航专业,1981年获批全国首批博士点,1988年获批全国首批重点学科,1997年改称“精密仪器及机械学科”。  相似文献   
816.
在分析总结网络化航空搜潜体系的基本构成以及基于网络化航空搜潜体系的搜索方法的基础上,对基于网络化航空搜潜体系的声纳浮标作战使用问题进行了系统研究,提出了以“统一指挥、整体布设、集中监听”为核心的作战方法,并通过建立模型,对所提出的作战使用方法的作战能力进行了分析计算,通过与平台反潜作战条件下作战能力的比较,验证了所提出的作战使用方法的合理性。  相似文献   
817.
超声速燃烧室受限空间内复杂流场波系结构的获取受到光学测量装置精度的制约。为提升流场时空分辨率特征,本文应用中国空气动力研究与发展中心地面脉冲燃烧风洞获取的试验数据,在发动机入口马赫数2.5的条件下,构建了6种不同当量比下基于压力数据重构的燃烧室流场低分辨率图像数据集,研究了三种提高图像分辨率的方法来提升超燃冲压发动机燃烧室流场重构图像的分辨率。结果表明,本文所提出的流场超分辨率稠密网络(Flow-field Super-Resolution Dense Network, FSRDN)、流场超分辨率生成对抗网络(Flow-field Super-Resolution Generative Adversarial Network, FSRGAN)、传统的双三次插值法(Bicubic interpolation,Bicubic)对流场图像分辨率都提高了42倍。FSRDN网络所得流场图像结果的峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)、相关性系数(Correlation coefficient,CORR)、感知指数(Perceptual Index,PI)指标...  相似文献   
818.
未来远程对空导弹发展思考   总被引:2,自引:0,他引:2       下载免费PDF全文
针对未来远程对空导弹的发展趋势,本文分析了未来空战场的3种重要目标,对远程对空导弹拦截3类目标的重要性进行了分析,进一步从远程打击"侦-控-打-评"体系出发,分析了远距作战对于预警探测、指挥控制与通讯、火力打击以及效能评估的四点需求.最后分析了未来远程对空导弹的3种能力特征:防区外拦截能力、弱信息支援下的自主作战能力和...  相似文献   
819.
为了快速侦察未知区域的地貌信息,遥感卫星可对特定区域进行扫描以获取遥感卫星影像。当卫星经过国外未知区域时,部分卫星无法针对某特定区域进行长时间的驻留扫描,本文提出一种基于条件生成对抗网络模型(Conditional Generative Adversarial Network,CGAN)进行网络训练,前期将某方法获取的区域轮廓地形信息作为CGAN网络的生成网络和鉴别网络中的条件约束信息,通过网络生成器与判别器在训练过程中互相博弈产生特定的输出集,有效地实现由单张电子轮廓图像到对应卫星遥感图像的端到端的非线性映射。本文通过原真实卫星遥感图像与生成卫星遥感图像进行四种对比误差计算,平均误差、均方误差与结构相似度均高于99%,峰值信噪比高于30 dB,生成的图像与原图像之间具备高相似度,实现了在获取坐标定位轮廓信息的先验条件下,对特定区域进行遥感卫星影像内容重建技术。  相似文献   
820.
基于高频光电导衰减法半导体少数载流子寿命测量基本原理,设计了半导体少子寿命测量系统,并在二极管检波电路的基础上,对信号处理系统进行了改进。该信号处理系统采用反馈式检波电路,相比于传统二极管检波电路,运用运算放大器的反馈原理减小了检波二极管压降产生的误差,同时结合二极管嵌位作用,减小了运算放大器压摆率带来的影响,提高了测量系统的检波能力。通过实验,验证了该检波电路的可行性,测试结果表明,有效提升了测量系统的准确性。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号