機器學習基本演算法
⑴ 機器學習的常見演算法
機器學習演算法如下:
機器學習(MachineLearning,ML)是一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、演算法復雜度理論等多門學科。專門研究計算機怎樣模擬或實現人類的學習行為,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的性能。
它是人工智慧的核心,是使計算機具有智能的根本途徑,其應用遍及人工智慧的各個領域,它主要使用歸納、綜合而不是演繹。
揭開神秘的機器學習演算法:
我們越來越多地看到機器學習演算法在實用和可實現的目標上的價值,例如針對數據尋找可用的模式然後進行預測的機器學習演算法。通常,這些機器學習演算法預測模型用於操作流程以優化決策過程,但同時它們也可以提供關鍵的洞察力和信息來報告戰略決策。
機器學習演算法的基本前提是演算法訓練,提供特定的輸入數據時預測某一概率區間內的輸出值。請記住機器學習演算法的技巧是歸納而非推斷——與概率相關,並非最終結論。構建這些機器學習演算法的過程被稱之為機器學習演算法預測建模。
一旦掌握了這一機器學習演算法模型,有時就可以直接對原始數據機器學習演算法進行分析,並在新數據中應用該機器學習演算法模型以預測某些重要的信息。模型的輸出可以是機器學習演算法分類、機器學習演算法可能的結果、機器學習演算法隱藏的關系、機器學習演算法屬性或者機器學習演算法估計值。
機器學習演算法技術通常預測的是絕對值,比如標簽、顏色、身份或者質量。比如,某個機器學習演算法主題是否屬於我們試圖保留的用戶?用戶會付費購買嗎?用戶會積極響應邀約嗎?
如果我們關心的是機器學習演算法估算值或者連續值,機器學習演算法預測也可以用數字表示。輸出類型決定了最佳的學習方法,並會影響我們用於判斷模型質量的尺度。
⑵ 機器學習有幾種演算法
1. 線性回歸
工作原理:該演算法可以按其權重可視化。但問題是,當你無法真正衡量它時,必須通過觀察其高度和寬度來做一些猜測。通過這種可視化的分析,可以獲取一個結果。
2. 邏輯回歸
根據一組獨立變數,估計離散值。它通過將數據匹配到logit函數來幫助預測事件。
3. 決策樹
利用監督學習演算法對問題進行分類。決策樹是一種支持工具,它使用樹狀圖來決定決策或可能的後果、機會事件結果、資源成本和實用程序。根據獨立變數,將其劃分為兩個或多個同構集。
4. 支持向量機(SVM)
基本原理(以二維數據為例):如果訓練數據是分布在二維平面上的點,它們按照其分類聚集在不同的區域。基於分類邊界的分類演算法的目標是,通過訓練,找到這些分類之間的邊界(直線的――稱為線性劃分,曲線的――稱為非線性劃分)。對於多維數據(如N維),可以將它們視為N維空間中的點,而分類邊界就是N維空間中的面,稱為超面(超面比N維空間少一維)。線性分類器使用超平面類型的邊界,非線性分類器使用超曲面。
5. 樸素貝葉斯
樸素貝葉斯認為每個特徵都是獨立於另一個特徵的。即使在計算結果的概率時,它也會考慮每一個單獨的關系。
它不僅易於使用,而且能有效地使用大量的數據集,甚至超過了高度復雜的分類系統。
6. KNN(K -最近鄰)
該演算法適用於分類和回歸問題。在數據科學行業中,它更常用來解決分類問題。
這個簡單的演算法能夠存儲所有可用的案例,並通過對其k近鄰的多數投票來對任何新事件進行分類。然後將事件分配給與之匹配最多的類。一個距離函數執行這個測量過程。
7. k – 均值
這種無監督演算法用於解決聚類問題。數據集以這樣一種方式列在一個特定數量的集群中:所有數據點都是同質的,並且與其他集群中的數據是異構的。
8. 隨機森林
利用多棵決策樹對樣本進行訓練並預測的一種分類器被稱為隨機森林。為了根據其特性來分類一個新對象,每棵決策樹都被排序和分類,然後決策樹投票給一個特定的類,那些擁有最多選票的被森林所選擇。
9. 降維演算法
在存儲和分析大量數據時,識別多個模式和變數是具有挑戰性的。維數簡化演算法,如決策樹、因子分析、缺失值比、隨機森林等,有助於尋找相關數據。
10. 梯度提高和演演算法
這些演算法是在處理大量數據,以作出准確和快速的預測時使用的boosting演算法。boosting是一種組合學習演算法,它結合了幾種基本估計量的預測能力,以提高效力和功率。
綜上所述,它將所有弱或平均預測因子組合成一個強預測器。