首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3篇
  免费   0篇
综合类   3篇
  2023年   1篇
  2021年   1篇
  2019年   1篇
排序方式: 共有3条查询结果,搜索用时 0 毫秒
1
1.
非平衡学习吸引了许多研究者的关注。一般情况下,少数类是更值得关注的,并且其误分类代价要远高于多数类。由于非平衡数据分布的非均衡性,标准的分类算法将难以适用。为了解决非平衡数据分类问题,给出了基于欠采样的零阶优化算法。首先,为了降低数据非平衡分布的影响,针对不同非平衡比的数据集给出了不同的两种采样策略。然后,采用了一种引入间隔均值项的支持向量机(Support vector machine,SVM)优化模型进行分类,并使用带有方差减小的零阶随机梯度下降算法进行求解,提高了算法的精度。在非平衡数据上进行了对比实验,实验证明提出的方法有效提高了非平衡数据的分类效果。  相似文献   
2.
基于自编码器的特征提取技术广泛应用于图像聚类分析,在较简单的图像集上取得了令人满意的聚类结果,但自编码器的特征表示能力有限,很难捕捉到复杂低质图像的局部特征。本文提出一种基于非对称结构卷积自编码器(Convolutional auto-encoder with an asymmetric structure, ASCAE)的学习视觉特征的深度聚类方法,其中非对称结构的卷积自编码器用于学习特征表示,然后使用K-means算法对特征数据进行聚类分析。为进一步提高特征表示能力,ASCAE方法的网络采用变步长的卷积层和全连接的重构误差正则约束网络的重构误差。在7个公开图像集上的实验结果表明该网络有很好的特征表示能力,并且使得K-means算法能提供很好的聚类结果。在COIL-20和MNIST图像集上,聚类方法ASCAE的聚类精度分别为0.754和0.918,优于同类型的4种深度聚类方法(AEC、IEC、DEC和DEN)。  相似文献   
3.
针对非平衡数据分类问题,提出了一种基于代价敏感的惩罚AdaBoost算法。在惩罚Adaboost算法中,引入一种新的自适应代价敏感函数,赋予少数类样本及分错的少数类样本更高的代价值,并通过引入惩罚机制增大了样本的平均间隔。选择加权支持向量机(Support vector machine,SVM)优化模型作为基分类器,采用带有方差减小的随机梯度下降方法(Stochastic variance reduced gradient,SVRG)对优化模型进行求解。对比实验表明,本文提出的算法不但在几何均值(G-mean)和ROC曲线下的面积(Area under ROC curve,AUC)上明显优于其他算法,而且获得了较大的平均间隔,显示了本文算法在处理非平衡数据分类问题上的有效性。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号