当前位置:首页 » 操作系统 » 分类器算法

分类器算法

发布时间: 2022-01-09 04:30:01

A. 稀疏表示分类是一种分类器还是一中将为算法

准确地说,是一种分类器算法。


稀疏表示分类器


稀疏表示可作为基础理论用于构建稀疏表示分类器(Sparse Representation Classifier, SRC)。SRC 假定当测试样本所在类的训练样本数足够多时,测试样本可由这些训练样本进行线性表示,而其它类的样本对重构该测试样本的贡献为 0,从而将一般信号的分类问题转化为了一种稀疏表示问题。大量实验证明,这类分类器能够较好地应用于图像分类和目标跟踪问题。Wright 指出 SRC 对数据缺损不敏感,当所求系数足够稀疏时,特征空间的选取变得不再重要;这些优势使得 SRC成为一种非常优秀的分类算法。虽然大量实验证明基于SRC是一种具有潜力的图像分类器,但近期一些文献[20][21]指出,对于小样本分类问题,系数的稀疏性对分类准确率并没有实质的帮助。针对此题,Huang等在文献[4]中指出结合线性判别分析技术能够提升类间的区分度,提升稀疏分类效果。Shenghua等在文献[22]中成功将核函数(Kernel)技巧与稀疏分类结合在了一起,此文献提出了基于Feature-Sign Search(FSS)的核函数稀疏分类(KSRC)算法并将其成功应用于人脸识别问题中。然而,Cuicui Kang等在文献[6]中指出使用FSS方法求取KSRC中凸优化问题的效率较低,此文献提出了核函数坐标下降法(KCD)用以求解凸优化问题,并结合LBP特征构建了人脸识别系统。

B. 什么是分类算法

分类(Categorization or Classification)就是按照某种标准给对象贴标签(label),再根据标签来区分归类。

分类是事先定义好类别 ,类别数不变 。分类器需要由人工标注的分类训练语料训练得到,属于有指导学习范畴。

最常用的分类算法就是贝叶斯分类算法,(贝叶斯分类器)
用到的知识就是概率的东西

谢谢采纳

C. java 分类器算法问题!!急。。。。

判断一个次的极性是要根据它的属性来判断的,所以你要先确定用那些属性来表示一个词,一条记录包括对词描述的属性和一般属性(词的长度,包括的音标,后缀,词根等)和分类属性(正面和负面的),这样才能形成一个数据集,提供给算法进行分类,所以第一步是形成数据集。
然后可以有特征选择之类的预处理步骤,再根据分类算法进行分类(分类的算法网络上都有代码,自己找下),用算法的模型对要分类的词进行分类,最后做个界面什么的,好看点。
算法的话很多啊,象决策树,kNN之类的就比较简单,你是做本科毕业设计吗?如果是的话,反正要求不高,算法不重要,找现成的代码就行。
可以找些资料看,知道分类是怎么回事就好。svm要证明的话需要数学功底,只是要用的话,呵呵,就下现成代码好了。
不知道你是不是要问这个,希望能帮到你。

D. 数据包分类算法需要自己实现吗

有十大经典算法: 我是看谭磊的那本书学的。。。

下面是网站给出的答案:
1. C4.5
C4.5算法是机器学习算法中的一种分类决策树算法,其核心算法是ID3算法. C4.5算法继承了ID3算法的优点,并在以下几方面对ID3算法进行了改进:
1) 用信息增益率来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足;
2) 在树构造过程中进行剪枝;
3) 能够完成对连续属性的离散化处理;
4) 能够对不完整数据进行处理。
C4.5算法有如下优点:产生的分类规则易于理解,准确率较高。其缺点是:在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效。

2. The k-means algorithm 即K-Means算法
k-means algorithm算法是一个聚类算法,把n的对象根据他们的属性分为k个分割,k < n。它与处理混合正态分布的最大期望算法很相似,因为他们都试图找到数据中自然聚类的中心。它假设对象属性来自于空间向量,并且目标是使各个群组内部的均 方误差总和最小。

3. Support vector machines
支持向量机,英文为Support Vector Machine,简称SV机(论文中一般简称SVM)。它是一种监督式学习的方法,它广泛的应用于统计分类以及回归分析中。支持向量机将向量映射到一个更 高维的空间里,在这个空间里建立有一个最大间隔超平面。在分开数据的超平面的两边建有两个互相平行的超平面。分隔超平面使两个平行超平面的距离最大化。假 定平行超平面间的距离或差距越大,分类器的总误差越小。一个极好的指南是C.J.C Burges的《模式识别支持向量机指南》。van der Walt 和 Barnard 将支持向量机和其他分类器进行了比较。

4. The Apriori algorithm
Apriori算法是一种最有影响的挖掘布尔关联规则频繁项集的算法。其核心是基于两阶段频集思想的递推算法。该关联规则在分类上属于单维、单层、布尔关联规则。在这里,所有支持度大于最小支持度的项集称为频繁项集,简称频集。

5. 最大期望(EM)算法
在统计计算中,最大期望(EM,Expectation–Maximization)算法是在概率(probabilistic)模型中寻找参数最大似然 估计的算法,其中概率模型依赖于无法观测的隐藏变量(Latent Variabl)。最大期望经常用在机器学习和计算机视觉的数据集聚(Data Clustering)领域。

6. PageRank
PageRank是Google算法的重要内容。2001年9月被授予美国专利,专利人是Google创始人之一拉里·佩奇(Larry Page)。因此,PageRank里的page不是指网页,而是指佩奇,即这个等级方法是以佩奇来命名的。
PageRank根据网站的外部链接和内部链接的数量和质量俩衡量网站的价值。PageRank背后的概念是,每个到页面的链接都是对该页面的一次投票, 被链接的越多,就意味着被其他网站投票越多。这个就是所谓的“链接流行度”——衡量多少人愿意将他们的网站和你的网站挂钩。PageRank这个概念引自 学术中一篇论文的被引述的频度——即被别人引述的次数越多,一般判断这篇论文的权威性就越高。

7. AdaBoost
Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器 (强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权 值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。

8. kNN: k-nearest neighbor classification
K最近邻(k-Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。

9. Naive Bayes
在众多的分类模型中,应用最为广泛的两种分类模型是决策树模型(Decision Tree Model)和朴素贝叶斯模型(Naive Bayesian Model,NBC)。 朴素贝叶斯模型发源于古典数学理论,有着坚实的数学基础,以 及稳定的分类效率。同时,NBC模型所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。理论上,NBC模型与其他分类方法相比具有最小的误差率。 但是实际上并非总是如此,这是因为NBC模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,这给NBC模型的正确分类带来了一定影响。在属 性个数比较多或者属性之间相关性较大时,NBC模型的分类效率比不上决策树模型。而在属性相关性较小时,NBC模型的性能最为良好。

10. CART: 分类与回归树
CART, Classification and Regression Trees。 在分类树下面有两个关键的思想。第一个是关于递归地划分自变量空间的想法;第二个想法是用验证数据进行剪枝。

E. 常见的分类算法有哪些

决策树 贝叶斯 人工神经网络 k-近邻 支持向量机 基于关联规则的分类 集成学习

F. 人工智能的分类算法是什么

人工智能的分类是两大类中之一,另一个是预测,分类就是使用模型学习分类模式

G. 分类和聚类的区别及各自的常见算法

1、分类和聚类的区别:
Classification (分类),对于一个classifier,通常需要你告诉它“这个东西被分为某某类”这样一些例子,理想情况下,一个 classifier 会从它得到的训练集中进行“学习”,从而具备对未知数据进行分类的能力,这种提供训练数据的过程通常叫做supervised learning (监督学习),
Clustering (聚类),简单地说就是把相似的东西分到一组,聚类的时候,我们并不关心某一类是什么,我们需要实现的目标只是把相似的东西聚到一起。因此,一个聚类算法通常只需要知道如何计算相似度就可以开始工作了,因此 clustering 通常并不需要使用训练数据进行学习,这在Machine Learning中被称作unsupervised learning (无监督学习).
2、常见的分类与聚类算法
所谓分类,简单来说,就是根据文本的特征或属性,划分到已有的类别中。如在自然语言处理NLP中,我们经常提到的文本分类便就是一个分类问题,一般的模式分类方法都可用于文本分类研究。常用的分类算法包括:决策树分类法,朴素贝叶斯分类算法(native Bayesian classifier)、基于支持向量机(SVM)的分类器,神经网络法,k-最近邻法(k-nearestneighbor,kNN),模糊分类法等等。
分类作为一种监督学习方法,要求必须事先明确知道各个类别的信息,并且断言所有待分类项都有一个类别与之对应。但是很多时候上述条件得不到满足,尤其是在处理海量数据的时候,如果通过预处理使得数据满足分类算法的要求,则代价非常大,这时候可以考虑使用聚类算法。
而K均值(K-mensclustering)聚类则是最典型的聚类算法(当然,除此之外,还有很多诸如属于划分法K中心点(K-MEDOIDS)算法、CLARANS算法;属于层次法的BIRCH算法、CURE算法、CHAMELEON算法等;基于密度的方法:DBSCAN算法、OPTICS算法、DENCLUE算法等;基于网格的方法:STING算法、CLIQUE算法、WAVE-CLUSTER算法;基于模型的方法)。

H. 分类器的几种基本的分类器

1.决策树分类器提供一个属性集合,决策树通过在属性集的基础上作出一系列的决策,将数据分类。这个过程类似于通过一个植物的特征来辨认植物。可以应用这样的分类器来判定某人的信用程度,比如,一个决策树可能会断定“一个有家、拥有一辆价值在1.5 万到2.3 万美元之间的轿车、有两个孩子的人”拥有良好的信用。决策树生成器从一个“训练集”中生成决策树。SGI 公司的数据挖掘工具MineSet 所提供的可视化工具使用树图来显示决策树分类器的结构,在图中,每一个决策用树的一个节点来表示。图形化的表示方法可以帮助用户理解分类算法,提供对数据的有价值的观察视角。生成的分类器可用于对数据的分类。2. 选择树分类器选择树分类器使用与决策树分类器相似的技术对数据进行分类。与决策树不同的是,选择树中包含特殊的选择节点,选择节点有多个分支。比如,在一棵用于区分汽车产地的选择树中的一个选择节点可以选择马力、汽缸数目或汽车重量等作为信息属性。在决策树中,一个节点一次最多可以选取一个属性作为考虑对象。在选择树中进行分类时,可以综合考虑多种情况。选择树通常比决策树更准确,但是也大得多。选择树生成器使用与决策树生成器生成决策树同样的算法从训练集中生成选择树。MineSet 的可视化工具使用选择树图来显示选择树。树图可以帮助用户理解分类器,发现哪个属性在决定标签属性值时更重要。同样可以用于对数据进行分类。3. 证据分类器证据分类器通过检查在给定一个属性的基础上某个特定的结果发生的可能性来对数据进行分类。比如,它可能作出判断,一个拥有一辆价值在1.5 万到2.3 万美元之间的轿车的人有70 %的可能是信用良好的,而有30 %的可能是信用很差。分类器在一个简单的概率模型的基础上,使用最大的概率值来对数据进行分类预测。与决策树分类器类似,生成器从训练集中生成证据分类器。MineSet 的可视化工具使用证据图来显示分类器,证据图由一系列描述不同的概率值的饼图组成。证据图可以帮助用户理解分类算法,提供对数据的深入洞察,帮助用户回答像“如果... 怎么样 一类的问题。同样可以用于对数据进行分类。

I. 如何使用OpenCV中的AdBoost算法训练分类器

需要的工具
opencv视觉库
vs开发环境
步骤
1. 正负样本的选取
2. 样本描述文件的创建
使用dos命令和opencv中的createSamples程序创建样本描述文件
正样本描述文件的创建
1. 使用命令将当前目录切换到正样本图片的目录
2. 输入dir /b > pos.txt,此时目录中生成一个pos.txt文件,打开pos.txt文件,删除最后一行保存文件
3. 一个证样本描述文件需要包含文件名,正样本在图片中的数目,位置和大小,具体格式如下faces/00.bmp 1 0 0 20 20。因此,需要打开刚刚生成的pos.txt文件,使用查找替换功能,将‘bmp’替换成‘bmp 1 0 0 20 20’
4. 因为在使用opencv中opencv haartraining 程序训练时输入的正样本是vec文件,所以需要使用opencv中的opencv createsample程序生成pos.vec证样本描述文件
opencv haartraining 程序和opencv createsample程序opencv安装目录的bin文件目录下可以找到,找到后复制到当前目录下
5. 复制到当前目录下之后,在dos命令窗口下运行命令‘opencv_createsamples.exe -info pos.txt -vec pos.vec -num 2706 -w 20 -h 20’即可生成pos.vec正样本描述文件
1. 出现应用程序错误:应用程序无法正常启动(0xc000007b),请单击“确定”关闭应用程序
原因:x86程序在x64下运行
解决方案:用X64程序运行
2. opencv error:unknown error code -9 <> in cvSetImageROI
原因:找不到图片
解决方案:将图片文件夹往上一级目录提
负样本描述文件的创建
只需生成neg.txt文件即可,执行2.1.1和2.1.2两步
训练分类器
1. 使用命令‘opencv_haartraining.exe -data cascade -vec pos.vec -bg neg.txt -sym -npos 2706 -nneg 4300 -mem 2000 -mode ALL -w 20 -h 20’
1. opencv error:assertion failed <elements_read == 1> in
原因:每个强分类器训练过程中都会从剩下的countvec中抽样,每次训练完一个强分类器之后,都会从总样本中剔除,一直进行nstage次,如果npos设置与vec中总样本数相同时,第二个强分类器训练时必然会报错,提示样本数不足
解决方案:npos与nneg设置小一点即可

热点内容
c语言打印正方形 发布:2024-05-05 16:09:20 浏览:643
编程用箭头 发布:2024-05-05 15:54:21 浏览:793
步骤条源码 发布:2024-05-05 15:35:55 浏览:845
安卓拍光遇视频如何高清 发布:2024-05-05 15:23:20 浏览:933
linuxo文件 发布:2024-05-05 15:19:12 浏览:944
手机服务器地址或者域名 发布:2024-05-05 15:19:09 浏览:374
我的世界服务器版如何登录 发布:2024-05-05 15:17:28 浏览:795
綦江dns服务器地址 发布:2024-05-05 15:04:11 浏览:557
山东省日照市监控服务器地址 发布:2024-05-05 15:03:59 浏览:342
java提升教程 发布:2024-05-05 15:00:51 浏览:145