當前位置:首頁 » 操作系統 » 分類器演算法

分類器演算法

發布時間: 2022-01-09 04:30:01

A. 稀疏表示分類是一種分類器還是一中將為演算法

准確地說,是一種分類器演算法。


稀疏表示分類器


稀疏表示可作為基礎理論用於構建稀疏表示分類器(Sparse Representation Classifier, SRC)。SRC 假定當測試樣本所在類的訓練樣本數足夠多時,測試樣本可由這些訓練樣本進行線性表示,而其它類的樣本對重構該測試樣本的貢獻為 0,從而將一般信號的分類問題轉化為了一種稀疏表示問題。大量實驗證明,這類分類器能夠較好地應用於圖像分類和目標跟蹤問題。Wright 指出 SRC 對數據缺損不敏感,當所求系數足夠稀疏時,特徵空間的選取變得不再重要;這些優勢使得 SRC成為一種非常優秀的分類演算法。雖然大量實驗證明基於SRC是一種具有潛力的圖像分類器,但近期一些文獻[20][21]指出,對於小樣本分類問題,系數的稀疏性對分類准確率並沒有實質的幫助。針對此題,Huang等在文獻[4]中指出結合線性判別分析技術能夠提升類間的區分度,提升稀疏分類效果。Shenghua等在文獻[22]中成功將核函數(Kernel)技巧與稀疏分類結合在了一起,此文獻提出了基於Feature-Sign Search(FSS)的核函數稀疏分類(KSRC)演算法並將其成功應用於人臉識別問題中。然而,Cuicui Kang等在文獻[6]中指出使用FSS方法求取KSRC中凸優化問題的效率較低,此文獻提出了核函數坐標下降法(KCD)用以求解凸優化問題,並結合LBP特徵構建了人臉識別系統。

B. 什麼是分類演算法

分類(Categorization or Classification)就是按照某種標准給對象貼標簽(label),再根據標簽來區分歸類。

分類是事先定義好類別 ,類別數不變 。分類器需要由人工標注的分類訓練語料訓練得到,屬於有指導學習范疇。

最常用的分類演算法就是貝葉斯分類演算法,(貝葉斯分類器)
用到的知識就是概率的東西

謝謝採納

C. java 分類器演算法問題!!急。。。。

判斷一個次的極性是要根據它的屬性來判斷的,所以你要先確定用那些屬性來表示一個詞,一條記錄包括對詞描述的屬性和一般屬性(詞的長度,包括的音標,後綴,詞根等)和分類屬性(正面和負面的),這樣才能形成一個數據集,提供給演算法進行分類,所以第一步是形成數據集。
然後可以有特徵選擇之類的預處理步驟,再根據分類演算法進行分類(分類的演算法網路上都有代碼,自己找下),用演算法的模型對要分類的詞進行分類,最後做個界面什麼的,好看點。
演算法的話很多啊,象決策樹,kNN之類的就比較簡單,你是做本科畢業設計嗎?如果是的話,反正要求不高,演算法不重要,找現成的代碼就行。
可以找些資料看,知道分類是怎麼回事就好。svm要證明的話需要數學功底,只是要用的話,呵呵,就下現成代碼好了。
不知道你是不是要問這個,希望能幫到你。

D. 數據包分類演算法需要自己實現嗎

有十大經典演算法: 我是看譚磊的那本書學的。。。

下面是網站給出的答案:
1. C4.5
C4.5演算法是機器學習演算法中的一種分類決策樹演算法,其核心演算法是ID3演算法. C4.5演算法繼承了ID3演算法的優點,並在以下幾方面對ID3演算法進行了改進:
1) 用信息增益率來選擇屬性,克服了用信息增益選擇屬性時偏向選擇取值多的屬性的不足;
2) 在樹構造過程中進行剪枝;
3) 能夠完成對連續屬性的離散化處理;
4) 能夠對不完整數據進行處理。
C4.5演算法有如下優點:產生的分類規則易於理解,准確率較高。其缺點是:在構造樹的過程中,需要對數據集進行多次的順序掃描和排序,因而導致演算法的低效。

2. The k-means algorithm 即K-Means演算法
k-means algorithm演算法是一個聚類演算法,把n的對象根據他們的屬性分為k個分割,k < n。它與處理混合正態分布的最大期望演算法很相似,因為他們都試圖找到數據中自然聚類的中心。它假設對象屬性來自於空間向量,並且目標是使各個群組內部的均 方誤差總和最小。

3. Support vector machines
支持向量機,英文為Support Vector Machine,簡稱SV機(論文中一般簡稱SVM)。它是一種監督式學習的方法,它廣泛的應用於統計分類以及回歸分析中。支持向量機將向量映射到一個更 高維的空間里,在這個空間里建立有一個最大間隔超平面。在分開數據的超平面的兩邊建有兩個互相平行的超平面。分隔超平面使兩個平行超平面的距離最大化。假 定平行超平面間的距離或差距越大,分類器的總誤差越小。一個極好的指南是C.J.C Burges的《模式識別支持向量機指南》。van der Walt 和 Barnard 將支持向量機和其他分類器進行了比較。

4. The Apriori algorithm
Apriori演算法是一種最有影響的挖掘布爾關聯規則頻繁項集的演算法。其核心是基於兩階段頻集思想的遞推演算法。該關聯規則在分類上屬於單維、單層、布爾關聯規則。在這里,所有支持度大於最小支持度的項集稱為頻繁項集,簡稱頻集。

5. 最大期望(EM)演算法
在統計計算中,最大期望(EM,Expectation–Maximization)演算法是在概率(probabilistic)模型中尋找參數最大似然 估計的演算法,其中概率模型依賴於無法觀測的隱藏變數(Latent Variabl)。最大期望經常用在機器學習和計算機視覺的數據集聚(Data Clustering)領域。

6. PageRank
PageRank是Google演算法的重要內容。2001年9月被授予美國專利,專利人是Google創始人之一拉里·佩奇(Larry Page)。因此,PageRank里的page不是指網頁,而是指佩奇,即這個等級方法是以佩奇來命名的。
PageRank根據網站的外部鏈接和內部鏈接的數量和質量倆衡量網站的價值。PageRank背後的概念是,每個到頁面的鏈接都是對該頁面的一次投票, 被鏈接的越多,就意味著被其他網站投票越多。這個就是所謂的「鏈接流行度」——衡量多少人願意將他們的網站和你的網站掛鉤。PageRank這個概念引自 學術中一篇論文的被引述的頻度——即被別人引述的次數越多,一般判斷這篇論文的權威性就越高。

7. AdaBoost
Adaboost是一種迭代演算法,其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然後把這些弱分類器集合起來,構成一個更強的最終分類器 (強分類器)。其演算法本身是通過改變數據分布來實現的,它根據每次訓練集之中每個樣本的分類是否正確,以及上次的總體分類的准確率,來確定每個樣本的權 值。將修改過權值的新數據集送給下層分類器進行訓練,最後將每次訓練得到的分類器最後融合起來,作為最後的決策分類器。

8. kNN: k-nearest neighbor classification
K最近鄰(k-Nearest Neighbor,KNN)分類演算法,是一個理論上比較成熟的方法,也是最簡單的機器學習演算法之一。該方法的思路是:如果一個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某一個類別,則該樣本也屬於這個類別。

9. Naive Bayes
在眾多的分類模型中,應用最為廣泛的兩種分類模型是決策樹模型(Decision Tree Model)和樸素貝葉斯模型(Naive Bayesian Model,NBC)。 樸素貝葉斯模型發源於古典數學理論,有著堅實的數學基礎,以 及穩定的分類效率。同時,NBC模型所需估計的參數很少,對缺失數據不太敏感,演算法也比較簡單。理論上,NBC模型與其他分類方法相比具有最小的誤差率。 但是實際上並非總是如此,這是因為NBC模型假設屬性之間相互獨立,這個假設在實際應用中往往是不成立的,這給NBC模型的正確分類帶來了一定影響。在屬 性個數比較多或者屬性之間相關性較大時,NBC模型的分類效率比不上決策樹模型。而在屬性相關性較小時,NBC模型的性能最為良好。

10. CART: 分類與回歸樹
CART, Classification and Regression Trees。 在分類樹下面有兩個關鍵的思想。第一個是關於遞歸地劃分自變數空間的想法;第二個想法是用驗證數據進行剪枝。

E. 常見的分類演算法有哪些

決策樹 貝葉斯 人工神經網路 k-近鄰 支持向量機 基於關聯規則的分類 集成學習

F. 人工智慧的分類演算法是什麼

人工智慧的分類是兩大類中之一,另一個是預測,分類就是使用模型學習分類模式

G. 分類和聚類的區別及各自的常見演算法

1、分類和聚類的區別:
Classification (分類),對於一個classifier,通常需要你告訴它「這個東西被分為某某類」這樣一些例子,理想情況下,一個 classifier 會從它得到的訓練集中進行「學習」,從而具備對未知數據進行分類的能力,這種提供訓練數據的過程通常叫做supervised learning (監督學習),
Clustering (聚類),簡單地說就是把相似的東西分到一組,聚類的時候,我們並不關心某一類是什麼,我們需要實現的目標只是把相似的東西聚到一起。因此,一個聚類演算法通常只需要知道如何計算相似度就可以開始工作了,因此 clustering 通常並不需要使用訓練數據進行學習,這在Machine Learning中被稱作unsupervised learning (無監督學習).
2、常見的分類與聚類演算法
所謂分類,簡單來說,就是根據文本的特徵或屬性,劃分到已有的類別中。如在自然語言處理NLP中,我們經常提到的文本分類便就是一個分類問題,一般的模式分類方法都可用於文本分類研究。常用的分類演算法包括:決策樹分類法,樸素貝葉斯分類演算法(native Bayesian classifier)、基於支持向量機(SVM)的分類器,神經網路法,k-最近鄰法(k-nearestneighbor,kNN),模糊分類法等等。
分類作為一種監督學習方法,要求必須事先明確知道各個類別的信息,並且斷言所有待分類項都有一個類別與之對應。但是很多時候上述條件得不到滿足,尤其是在處理海量數據的時候,如果通過預處理使得數據滿足分類演算法的要求,則代價非常大,這時候可以考慮使用聚類演算法。
而K均值(K-mensclustering)聚類則是最典型的聚類演算法(當然,除此之外,還有很多諸如屬於劃分法K中心點(K-MEDOIDS)演算法、CLARANS演算法;屬於層次法的BIRCH演算法、CURE演算法、CHAMELEON演算法等;基於密度的方法:DBSCAN演算法、OPTICS演算法、DENCLUE演算法等;基於網格的方法:STING演算法、CLIQUE演算法、WAVE-CLUSTER演算法;基於模型的方法)。

H. 分類器的幾種基本的分類器

1.決策樹分類器提供一個屬性集合,決策樹通過在屬性集的基礎上作出一系列的決策,將數據分類。這個過程類似於通過一個植物的特徵來辨認植物。可以應用這樣的分類器來判定某人的信用程度,比如,一個決策樹可能會斷定「一個有家、擁有一輛價值在1.5 萬到2.3 萬美元之間的轎車、有兩個孩子的人」擁有良好的信用。決策樹生成器從一個「訓練集」中生成決策樹。SGI 公司的數據挖掘工具MineSet 所提供的可視化工具使用樹圖來顯示決策樹分類器的結構,在圖中,每一個決策用樹的一個節點來表示。圖形化的表示方法可以幫助用戶理解分類演算法,提供對數據的有價值的觀察視角。生成的分類器可用於對數據的分類。2. 選擇樹分類器選擇樹分類器使用與決策樹分類器相似的技術對數據進行分類。與決策樹不同的是,選擇樹中包含特殊的選擇節點,選擇節點有多個分支。比如,在一棵用於區分汽車產地的選擇樹中的一個選擇節點可以選擇馬力、汽缸數目或汽車重量等作為信息屬性。在決策樹中,一個節點一次最多可以選取一個屬性作為考慮對象。在選擇樹中進行分類時,可以綜合考慮多種情況。選擇樹通常比決策樹更准確,但是也大得多。選擇樹生成器使用與決策樹生成器生成決策樹同樣的演算法從訓練集中生成選擇樹。MineSet 的可視化工具使用選擇樹圖來顯示選擇樹。樹圖可以幫助用戶理解分類器,發現哪個屬性在決定標簽屬性值時更重要。同樣可以用於對數據進行分類。3. 證據分類器證據分類器通過檢查在給定一個屬性的基礎上某個特定的結果發生的可能性來對數據進行分類。比如,它可能作出判斷,一個擁有一輛價值在1.5 萬到2.3 萬美元之間的轎車的人有70 %的可能是信用良好的,而有30 %的可能是信用很差。分類器在一個簡單的概率模型的基礎上,使用最大的概率值來對數據進行分類預測。與決策樹分類器類似,生成器從訓練集中生成證據分類器。MineSet 的可視化工具使用證據圖來顯示分類器,證據圖由一系列描述不同的概率值的餅圖組成。證據圖可以幫助用戶理解分類演算法,提供對數據的深入洞察,幫助用戶回答像「如果... 怎麼樣 一類的問題。同樣可以用於對數據進行分類。

I. 如何使用OpenCV中的AdBoost演算法訓練分類器

需要的工具
opencv視覺庫
vs開發環境
步驟
1. 正負樣本的選取
2. 樣本描述文件的創建
使用dos命令和opencv中的createSamples程序創建樣本描述文件
正樣本描述文件的創建
1. 使用命令將當前目錄切換到正樣本圖片的目錄
2. 輸入dir /b > pos.txt,此時目錄中生成一個pos.txt文件,打開pos.txt文件,刪除最後一行保存文件
3. 一個證樣本描述文件需要包含文件名,正樣本在圖片中的數目,位置和大小,具體格式如下faces/00.bmp 1 0 0 20 20。因此,需要打開剛剛生成的pos.txt文件,使用查找替換功能,將『bmp』替換成『bmp 1 0 0 20 20』
4. 因為在使用opencv中opencv haartraining 程序訓練時輸入的正樣本是vec文件,所以需要使用opencv中的opencv createsample程序生成pos.vec證樣本描述文件
opencv haartraining 程序和opencv createsample程序opencv安裝目錄的bin文件目錄下可以找到,找到後復制到當前目錄下
5. 復制到當前目錄下之後,在dos命令窗口下運行命令『opencv_createsamples.exe -info pos.txt -vec pos.vec -num 2706 -w 20 -h 20』即可生成pos.vec正樣本描述文件
1. 出現應用程序錯誤:應用程序無法正常啟動(0xc000007b),請單擊「確定」關閉應用程序
原因:x86程序在x64下運行
解決方案:用X64程序運行
2. opencv error:unknown error code -9 <> in cvSetImageROI
原因:找不到圖片
解決方案:將圖片文件夾往上一級目錄提
負樣本描述文件的創建
只需生成neg.txt文件即可,執行2.1.1和2.1.2兩步
訓練分類器
1. 使用命令『opencv_haartraining.exe -data cascade -vec pos.vec -bg neg.txt -sym -npos 2706 -nneg 4300 -mem 2000 -mode ALL -w 20 -h 20』
1. opencv error:assertion failed <elements_read == 1> in
原因:每個強分類器訓練過程中都會從剩下的countvec中抽樣,每次訓練完一個強分類器之後,都會從總樣本中剔除,一直進行nstage次,如果npos設置與vec中總樣本數相同時,第二個強分類器訓練時必然會報錯,提示樣本數不足
解決方案:npos與nneg設置小一點即可

熱點內容
open函數c語言 發布:2024-04-25 21:47:42 瀏覽:406
簡訊刪除後怎麼找伺服器 發布:2024-04-25 21:15:06 瀏覽:388
查ip地址伺服器數量 發布:2024-04-25 20:49:48 瀏覽:620
安卓手機單核性能為什麼不高 發布:2024-04-25 20:48:07 瀏覽:56
群暉php 發布:2024-04-25 20:00:35 瀏覽:884
怎麼查看我的wifi密碼 發布:2024-04-25 18:54:43 瀏覽:757
fckeditorforjava 發布:2024-04-25 18:50:27 瀏覽:624
優酷上傳視頻需要多久 發布:2024-04-25 18:33:05 瀏覽:675
inf12編譯器 發布:2024-04-25 18:15:39 瀏覽:99
撲克總督3安卓哪裡下載 發布:2024-04-25 18:10:02 瀏覽:395