首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1篇
  免费   0篇
综合类   1篇
  2009年   1篇
排序方式: 共有1条查询结果,搜索用时 0 毫秒
1
1.
少数类的集成学习   总被引:1,自引:0,他引:1  
传统机器学习中研究的分类问题通常假定各类别是平衡的,但在很多场合各类别的出现概率相差很大,而且很多应用中需要区分重要而稀少的少数类.本文比较了3种基于AdaBoost集成学习方法,并推导出他们的精度几何平均(GMA)的下界.分析表明:类别越不平衡,这3种方法越难以通过提高基分类器准确率来提高GMA.在此结论的基础上,以Bagging为基础提出了单边Bagging算法,该算法只对多数类抽样,而保留所有少数类,因而每轮的训练集是类别平衡的,并通过UCI数据集验证了其有效性.  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号