經典反超演算法
❶ 事業單位考試筆試面試成績6:4的比例,怎麼算反超分差
一般都是筆試成績和面試成績的總和做為最後錄取的成績,一般綜合成績的演算法為為:筆試成績×40%﹢面試成績×60%。
比例內末位考生綜合成績如出現並列,按以下順序確定進入體檢考生:筆試成績高者,烈士子女或配偶,學歷(學位)較高者,具有基層工作經歷或基層工作經歷較長者。
(1)經典反超演算法擴展閱讀:
事業單位考試算反超分差是面試分差乘以1.5系數,就是筆試分差乘以1.5等於的數,就是面試反超的出的分數。
事業單位考試又稱事業編殲塵制考試,這項工作由各用人單位的人事部門委託省級和地級市的人事廳局所屬人事考試中心(事業單位,考試中心命題和組織報名、考試並交用人單位成績名單,部分單位自行蔽改中命題組織實施)。
尚無全國和全省、市統一招考,最多縣級各個單位統一招考 ,一般規模大的採取網路報名,人數少則現場報名。
事業單位,是指國家為了社會公益目的。(《事業單位登記管理暫行條例》國務院第252、411號令),事業單位不屬於政府機構。
一般情況下國家會對這些事業單位予以財政補宏山助,分為全額撥款事業單位、差額撥款事業單位,還有一種是自主事業單位,是國家不撥款的事業單位。
事業單位是國家設置的帶有一定的公益性質的機構,但他並不是屬於政府機構,而公務員是做為政府機構的。一般情況下事業單位主要是從事醫學、教育和文化等方面工作的。
事業單位不是以盈利為主要目的,這就跟企業單位有很大的區別。企業一般是自負盈虧。事業單位的財政通常是由國家予以補助。但讓補助也分兩個方面,一是全額撥款事業單位,如學校等,二是差額撥款事業單位,如醫院等。
❷ 面試官常問十大經典演算法排序(用python實現)
演算法是一種與語言無關的東西,更確切地說就算解決問題的思路,就是一個通用的思想的問題。代碼本身不重要,演算法思想才是重中之重
我們在面試的時候總會被問到一下演算法,雖然演算法是一些基礎知識,但是難起來也會讓人非常頭疼。
排序演算法應該算是一些簡單且基礎的演算法,但是我們可以從簡單的演算法排序鍛煉我們的演算法思維。這里我就介紹經典十大演算法用python是怎麼實現的。
十大經典演算法可以分為兩大類:
比較排序: 通過對數組中的元素進行比較來實現排序。
非比較排序: 不通過比較來決定元素間的相對次序。
演算法復雜度
冒泡排序比較簡單,幾乎所有語言演算法都會涉及的冒泡演算法。
基本原理是兩兩比較待排序數據的大小 ,當兩個數據的次序不滿足順序條件時即進行交換,反之,則保持不變。
每次選擇一個最小(大)的,直到所有元素都被輸出。
將第一個元素逐個插入到前面的有序數中,直到插完所有元素為止。
從大范圍到小范圍進行比較-交換,是插入排序的一種,它是針對直接插入排序演算法的改進。先對數據進行預處理,使其基本有序,然後再用直接插入的排序演算法排序。
該演算法是採用 分治法 對集合進行排序。
把長度為n的輸入序列分成兩個長度為n/2的子序列,對這兩個子序列分別採用歸並排序,最終合並成序列。
選取一個基準值,小數在左大數在在右。
利用堆這種數據結構所設計的一種排序演算法。
堆是一個近似完全二叉樹的結構,並同時滿足堆積的性質:即子結點的鍵值或索引總是小於(或者大於)它的父節點。利用最大堆和最小堆的特性。
採用字典計數-還原的方法,找出待排序的數組中最大和最小的元素,統計數組中每個值為i的元素出現的次數,對所有的計數累加,將每個元素放在新數組依次排序。
設置一個定量的數組當作空桶;遍歷輸入數據,並且把數據一個一個放到對應的桶里去;對每個不是空的桶進行排序;從不是空的桶里把排好序的數據拼接起來。
元素分布在桶中:
然後,元素在每個桶中排序:
取得數組中的最大數,並取得位數;從最低位開始取每個位組成新的數組;然後進行計數排序。
上面就是我整理的十大排序演算法,希望能幫助大家在演算法方面知識的提升。看懂之後可以去試著自己到電腦上運行一遍。最後說一下每個排序是沒有調用數據的,大家記得實操的時候要調用。
參考地址:https://www.runoob.com/w3cnote/ten-sorting-algorithm.html
❸ 數據挖掘十大經典演算法之EM
EM(Expectation-Maximum)演算法也稱期望最大化演算法,它是最常見的隱變數估計方法,在機器學習中有極為廣泛的用途,例如常被用來學習高斯混合模型(Gaussian mixture model,簡稱GMM)的參數;隱式馬爾科夫演算法(HMM)、LDA主題模型的變分推斷等等。
EM演算法是一種迭代優化策略,由於它的計算方法中每一次迭代都分兩步,其中一個為期望步(E步),另一個為極大步(M步),一輪輪迭代更新隱含數據和模型分布參數,直到收斂,即得到我們需要的模型參數。
1. EM演算法推導過程
補充知識:Jensen不等式:
如果f是凸函數,函數的期望 大於等於 期望的函數。當且僅當下式中X是常量時,該式取等號。(應用於凹函數時,不等號方向相反)
2. EM演算法流程
3. EM演算法的其他問題
上面介紹的傳統EM演算法對初始值敏感,聚類結果隨不同的初始值而波動較大。總的來說,EM演算法收斂的優劣很大程度上取決於其初始參數。
EM演算法可以保證收斂到一個穩定點,即EM演算法是一定收斂的。
EM演算法可以保證收斂到一個穩定點,但是卻不能保證收斂到全局的極大值點,因此它是局部最優的演算法,當然,如果我們的優化目標是凸的,則EM演算法可以保證收斂到全局最大值,這點和梯度下降法這樣的迭代演算法相同。
EM演算法的簡單實例: https://zhuanlan.hu.com/p/40991784
參考:
https://zhuanlan.hu.com/p/40991784
https://blog.csdn.net/u011067360/article/details/24368085
❹ (2)非數值計算常用經典演算法
1、交換(兩量交換藉助第三者) 不藉助第三個變數
參考:
http://blog.csdn.net/hackbuteer1/article/details/6531775
2、累加
累加演算法的要領是形如「s=s+A」的累加式,此式必須出現在循環中才能被反復執行,從而實現累加功能。「A」通常是有規律變化的表達式,s在進入循環前必須獲得合適的初值,通常為0。
例如:求1+2+3+……+100的和。
sum=0;i=1;
sum=sum+i;
i++;
3、累乘
累乘演算法的要領是形如「s=s*A」的累乘式,此式必須出現在循環中才能被反復執行,從而實現累乘功能。「A」通常是有規律變化的表達式,s在進入循環前必須獲得合適的初值,通常為1。
例如:求10!
n=10;sum=1;
n>0
sum=sum*n;
n--;
也稱為「枚舉法」,即將可能出現的每一種情況一一測試,判斷是否滿足條件,一般採用循環來實現。
例如:用窮舉法輸出所有的水仙花數(即這樣的三位正整數:其每位數位上的數字的立方和與該數相等,比如:13+53+33=153)。
參考:
http://www.cnblogs.com/fanyong/archive/2012/03/23/2413559.html
http://www.cnblogs.com/kkun/archive/2011/11/23/2260312.html
冒泡排序
假設要對含有n個數的序列進行升序排列,冒泡排序演算法步驟是:
1、從存放序列的數組中的第一個元素開始到最後一個元素,依次對相鄰兩數進行比較,若前者大後者小,則交換兩數的位置;
2、第一趟結束後,最大數就存放到數組的最後一個元素里了,然後從第一個元素開始到倒數第二個元素,依次對相鄰兩數進行比較,若前者大後者小,則交換兩數的位置;
3、重復步驟1 n-1趟,每趟比前一趟少比較一次,即可完成所求。
(2)選擇法排序
選擇法排序是相對好理解的排序演算法。假設要對含有n個數的序列進行升序排列,演算法步驟是:
1、從數組存放的n個數中找出最小數的下標(演算法見下面的「求最值」),然後將最小數與第1個數交換位置;
2、除第1個數以外,再從其餘n-1個數中找出最小數(即n個數中的次小數)的下標,將此數與第2個數交換位置;
3、重復步驟1 n-1趟,即可完成所求。
(3)插入法排序
要想很好地掌握此演算法,先請了解「有序序列的插入演算法」,就是將某數據插入到一個有序序列後,該序列仍然有序。插入法排序的要領就是每讀入一個數立即插入到最終存放的數組中,每次插入都使得該數組有序。
參考:
http://www.cnblogs.com/fanyong/archive/2012/03/23/2413553.html
**(4)歸並排序 **
即將兩個都升序(或降序)排列的數據序列合並成一個仍按原序排列的序列。
例如:有一個含有6個數據的升序序列和一個含有4個數據的升序序列,將二者合並成一個含有10個數據的升序序列。
參考: http://blog.csdn.net/cwj649956781/article/details/7409635
(1)順序查找(即線性查找)
順序查找的思路是:將待查找的量與數組中的每一個元素進行比較,若有一個元素與之相等則找到;若沒有一個元素與之相等則找不到。
例如:任意讀入10個數存放到數組a中,然後讀入待查找數值,存放到x中,判斷a中有無與x等值的數。
(2)折半查找(即二分法)
順序查找的效率較低,當數據很多時,用二分法查找可以提高效率。使用二分法查找的前提是數列必須有序。
二分法查找的思路是:要查找的關鍵值同數組的中間一個元素比較,若相同則查找成功,結束;否則判別關鍵值落在數組的哪半部分,就在這半部分中按上述方法繼續比較,直到找到或數組中沒有這樣的元素值為止。
例如:任意讀入一個整數x,在升序數組a中查找是否有與x等值的元素。
參考: http://blog.csdn.net/shuilan0066/article/details/7608096
❺ 關於Multi-Armed Bandit(MAB)問題及演算法
地址: Multi-armed bandit
- A Problem in which a fixed limited set of resources must be allocated between competing (alternative) choices in a way that maximizes their expected gain, when each choice's properties are only partially known at the time of allocation, and may become better understood as time passes or by allocating resources to the choice.[1]
- 經典的強化學習演算法( Reinforcement Learning(RL) ),用於處理Exploration-Exploitation(EE) trade-off dilemma。
- 名字來源於casino中賭博機slot machine(or one armed bandit)
一個賭徒,要去搖老虎機,走進賭場一看,一排老虎機,外表一模一樣,但是每個老虎機吐錢的概率可不一樣,他不知道每個老虎機吐錢的概率分布是什麼,那麼每次該選擇哪個老虎機可以做到最大化收益呢?這就是多臂賭博機問題。[2]
- MAB問題也在 stochastic scheling 領域范疇中。Stochastic scheling problems can be classified into three broad types: problems concerning the scheling of a batch of stochastic jobs , multi-armed bandit problems , and problems concerning the scheling of queueing systems.
1. 有K台machine,每次選取其中一台pull the lever,該machine提供一個random的reward,每一台machine的reward服從特定的概率分布。
2. 一個gambler有N次lever pulls的機會,他的目標是使得回報reward最大化,那麼他要確定這N次pull 的arm的順序。顯然,作為一個聰明的賭徒,他會記錄下每一次得到的reward,試圖找出能給出最大reward的那台machine,盡量多次數的去pull這台machine 的arm。
3. 對於每一輪選擇,主要面對的問題是Exploitation-Exploration.
Exploitation: to pull the arm with Highest expected payoff OR
Exploration: to play other machines to get more information about the expected payoffs of them.
4. 得到的收益稱為reward,一般假設為伯努利分布,即0或1。得到的收益與真實的最大收益(上帝視角,假設一開始就知道哪個payoff最大,那我肯定pull那個arm)之間的差值稱為regret。
Online service that benefits from adapting the service to the indivial sequence of requests, Ad placement, website optimization, and packeting route.
1. 推薦系統領域,領域有兩個經典問題:EE問題和用戶冷啟動問題。[2]
EE問題:上面提到過的exploit-explore問題;比如已知某用戶對A產品感興趣,那麼在大多數時間要給他推送A的鏈接才能賺錢,這就是 exploit ;但是為了賺更多的錢,就需要知道他還對哪些產品感興趣,那麼在有些時候就可以嘗試一下給他推送B,C,D,E等選擇看用戶的反應,這就是 explore 。
用戶冷啟動問題:面對新用戶時如何用盡量少的次數,猜出用戶的大致興趣。[2]
2. 臨床測試場景clinical trials
假設有一批用於治療某種疾病的新葯需要進行測試,目標肯定是在盡量少的測試體上進行嘗試,找出效果最好的那一種然後應用於其他病患。由於測試需要等待並觀察,盡早找出效果最好的葯物類型也有利於救助更多的病患;同時,該方法也有助於減少承受不良葯物副作用的測試體數量/增加病患存活率。[3]
在討論演算法之前,首先要明確幾種bandit model。根據對於reward過程的不同假設,主要可以分為三種類型: Stochastic , Adversarial and Markovian。 幾種經典的策略與之對應 , UCB algorithm for the stochastic case, Exp3 randomized algorithm for theadversarial case, so-called Gittins indices for the Markovian case.[4]
本文目前主要討論Stochastic bandits problem(另外兩種待以後補充),以下為[4]對其定義:
針對MAB問題常用的基本演算法有: -greedy, Boltzmann exploration(Softmax), pursuit, reinforcement comparisonm, UCB1, UCB1-Tuned, Thompson Sampling(TS) [3]
arm 共K個arm
round 共N次機會
: The empirical mean of arm i after t rounds
: The probability of picking arm i at round t
實際操作:每一輪在[0,1]生成一個隨機數,如果小於\epsilon,則在K個arm中隨機選一個;否則選平均收益最大的那個(如果多個則隨機選一個)。
- 為了不記錄n歌reward,更高效的辦法是對均值做增量式計算,每一輪只記錄兩個變數:已經嘗試的次數和最近的平均reward。
對於constant \epsilon,regret的bound是linear的。
如果\epsilon隨著時間減小,regret的bound是poly-logarithmic的。
若搖臂獎賞的不確定性較大,比如概率分布較寬,則需要更多的explore,對應較大的\epsilon。若搖臂獎賞的不確定性較小,比如概率分布集中,則少量的嘗試就能很好的近似真實獎賞,只需要較小的\epsilon。
通常讓epsilon為一個較小的數如0.1或0.01。 不過,如果嘗試次數很大,在一段時間後各個arm的獎賞都能很好近似出來,不需要再explore,這種情況下可以讓epsilon隨時間逐漸減小,例如
隨機系數 ,稱為「溫度」。 tau越小則平均獎賞高的搖臂被選取的概況更高;趨於0的時候-〉僅利用exploit; 趨於無窮大的時候-〉僅探索explore
與Pursuit Algorithm類似,RC方法的行為也不是直接由empirical means計算而來。該方法同時還保留一個平均預期回報(average expected reward) ,將平均回報和預期回報作比較。
- 如果 empirical mean 〉average expected reward,選該arm的概率上升。
- 如果empirical mean〈 average expected reward,選該arm的概率下降。
- 對於arm i 存在偏好(preference) , 每一輪preference會根據結果進行更新:
含有參數: ( The empirical mean of arm i after t rounds
the number of times that arm i has been played after t rounds
1、初始化: 所有arm都被play一次。
2、選擇arm j(t):
3、觀察選擇結果,更新t和ni。其中加號前面是這個臂到目前的收益均值,後面的叫做bonus,本質上是均值的標准差
這個公式反映一個特點:均值越大,標准差越小,被選中的概率會越來越大。被選次數較少的臂雖然可能均值不大,但根號那一項會比較大,也會得到試驗機會。
將每個arm的variance引入了考慮
核心思想:[2]
1. 假設每個arm產生收益的概率p符合 Beta(wins,lose)分布,兩個參數wins和lose。
2. 每個arm 維護(maintain)一對beta分布的參數。每次實驗選一個arm搖一下,有收益該arm的wins+=1 , 否則 lose+=1
3. 每次選arm的方式:用每個arm的beta分布產生一個隨機數b,選擇所有arm產生的隨機書最大的那個arm去搖。
beta(a,b)有a和b兩個參數,兩個參數決定了分布形狀。
a+b的值越大,分布曲線就越集中,反之則越疏遠(兩邊大中間小)
當a/(a+b)的值越大,分布集中位置的中心越靠近1,反之越靠近0,這樣產生的隨機數位置也相應更容易靠近1或0
因此,Beta分布總體有三種情況,曲線很窄靠近1、曲線很窄靠近0、曲線很寬
由此,若把Beta分布的參數a看做推薦後得到用戶點擊的次數,把b看做未得到用戶點擊的次數,如下:
取出每一個候選對應的a和b
為每個候選用a和b作為參數,用Beta分布產生一個隨機數
按照隨機數排序,輸出最大值對應的候選
觀察用戶反饋,如果用戶點擊則將對應候選的a增加1,反之b增加1
因此在推薦系統中,為每個用戶都保存一套參數,每個用戶對應每個物品都保存一份a和b
- 為什麼有效?
如果候選被選中次數很多,那麼a+b分布變窄,換句話說這個候選的收益已經確定,用它產生隨機數,基本就在分布的中心位置附近,接近這個分布的平均收益
如果一個候選不但a+b很大,且a/(a+b)也很大,那麼就是一個好的候選項,平均收益很好,每次選擇占據優勢,就進入利用階段,反之則幾乎再無出頭之日
如果一個候選項的a+b很小,分布很寬,就是沒有給充分的探索次數,此時不能確定好壞,那麼這個較寬的分布有可能得到一個較大的隨機數,在排序時被優先輸出,給予次數做探索
[Notes]Regret Analysis of Stochastic and Nonsto... -
騰訊QQ大數據:神盾推薦——MAB演算法應用總結 | 互聯網數據資訊中心-199IT | 中文互聯網數據研究資訊中心-199IT
小白都能看懂的softmax詳解 - bitcarmanlee的博客 - CSDN博客
bandit演算法原理及Python實現 - 新顏_USTC - CSDN博客
Contextual Bandit演算法在推薦系統中的實現及應用 - 知乎 (比較詳細介紹了LinUCB的思想和實現)
這個系列太值得讀了!從整體框架到細節,還有各種資源! 比之前看到的都好多了!
[1] https://en.wikipedia.org/wiki/Multi-armed_bandit
[2] Bandit演算法與推薦系統: https://blog.csdn.net/heyc861221/article/details/80129310
[3] Kuleshov,Precup. Algorithms for the multi-armed bandit problem. Journal of Machine Learning Research.
[4] Regret Analysis of Stochastic and Nonstochastic Multi-armed Bandit
[5] https://blog.csdn.net/lyx_yuxiong/article/details/81237416
❻ 數據挖掘的十大經典演算法,總算是講清楚了,想提升自己的趕快收藏
一個優秀的數據分析師,除了要掌握基本的統計學、數據分析思維、數據分析工具之外,還需要掌握基本的數據挖掘思想,幫助我們挖掘出有價值的數據,這也是數據分析專家和一般數據分析師的差距所在。
國際權威的學術組織the IEEE International Conference on Data Mining (ICDM) 評選出了數據挖掘領域的十大經典演算法:C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, Naive Bayes, and CART.
不僅僅是選中的十大演算法,其實參加評選的18種演算法,實際上隨便拿出一種來都可以稱得上是經典演算法,它們在數據挖掘領域都產生了極為深遠的影響。今天主要分享其中10種經典演算法,內容較干,建議收藏備用學習。
1. C4.5
C4.5演算法是機器學習演算法中的一種分類決策樹演算法,其核心演算法是ID3演算法. C4.5演算法繼承了ID3演算法的優點,並在以下幾方面對ID3演算法進行了改進:
1) 用信息增益率來選擇屬性,克服了用信息增益選擇屬性時偏向選擇取值多的屬性的不足;
2) 在樹構造過程中進行剪枝;
3) 能夠完成對連續屬性的離散化處理;
4) 能夠對不完整數據進行處理。
C4.5演算法有如下優點:產生的分類規則易於理解,准確率較高。其缺點是:在構造樹的過程中,需要對數據集進行多次的順序掃描和排序,因而導致演算法的低效(相對的CART演算法只需要掃描兩次數據集,以下僅為決策樹優缺點)。
2. The k-means algorithm 即K-Means演算法
k-means algorithm演算法是一個聚類演算法,把n的對象根據他們的屬性分為k個分割,k < n。它與處理混合正態分布的最大期望演算法很相似,因為他們都試圖找到數據中自然聚類的中心。它假設對象屬性來自於空間向量,並且目標是使各個群組內部的均 方誤差總和最小。
3. Support vector machines
支持向量機,英文為Support Vector Machine,簡稱SV機(論文中一般簡稱SVM)。它是一種監督式學習的方法,它廣泛的應用於統計分類以及回歸分析中。支持向量機將向量映射到一個更 高維的空間里,在這個空間里建立有一個最大間隔超平面。在分開數據的超平面的兩邊建有兩個互相平行的超平面。分隔超平面使兩個平行超平面的距離最大化。假定平行超平面間的距離或差距越大,分類器的總誤差越小。一個極好的指南是C.J.C Burges的《模式識別支持向量機指南》。van der Walt 和 Barnard 將支持向量機和其他分類器進行了比較。
4. The Apriori algorithm
Apriori演算法是一種最有影響的挖掘布爾關聯規則頻繁項集的演算法。其核心是基於兩階段頻集思想的遞推演算法。該關聯規則在分類上屬於單維、單層、布爾關聯規則。在這里,所有支持度大於最小支持度的項集稱為頻繁項集,簡稱頻集。
5. 最大期望(EM)演算法
在統計計算中,最大期望(EM,Expectation–Maximization)演算法是在概率(probabilistic)模型中尋找參數最大似然 估計的演算法,其中概率模型依賴於無法觀測的隱藏變數(Latent Variabl)。最大期望經常用在機器學習和計算機視覺的數據集聚(Data Clustering)領域。
6. PageRank
PageRank是Google演算法的重要內容。2001年9月被授予美國專利,專利人是Google創始人之一拉里·佩奇(Larry Page)。因此,PageRank里的page不是指網頁,而是指佩奇,即這個等級方法是以佩奇來命名的。
PageRank根據網站的外部鏈接和內部鏈接的數量和質量倆衡量網站的價值。PageRank背後的概念是,每個到頁面的鏈接都是對該頁面的一次投票, 被鏈接的越多,就意味著被其他網站投票越多。這個就是所謂的「鏈接流行度」——衡量多少人願意將他們的網站和你的網站掛鉤。PageRank這個概念引自 學術中一篇論文的被引述的頻度——即被別人引述的次數越多,一般判斷這篇論文的權威性就越高。
7. AdaBoost
Adaboost是一種迭代演算法,其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然後把這些弱分類器集合起來,構成一個更強的最終分類器 (強分類器)。其演算法本身是通過改變數據分布來實現的,它根據每次訓練集之中每個樣本的分類是否正確,以及上次的總體分類的准確率,來確定每個樣本的權 值。將修改過權值的新數據集送給下層分類器進行訓練,最後將每次訓練得到的分類器最後融合起來,作為最後的決策分類器。
8. kNN: k-nearest neighbor classification
K最近鄰(k-Nearest Neighbor,KNN)分類演算法,是一個理論上比較成熟的方法,也是最簡單的機器學習演算法之一。該方法的思路是:如果一個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某一個類別,則該樣本也屬於這個類別。
9. Naive Bayes
在眾多的分類模型中,應用最為廣泛的兩種分類模型是決策樹模型(Decision Tree Model)和樸素貝葉斯模型(Naive Bayesian Model,NBC)。 樸素貝葉斯模型發源於古典數學理論,有著堅實的數學基礎,以及穩定的分類效率。
同時,NBC模型所需估計的參數很少,對缺失數據不太敏感,演算法也比較簡單。理論上,NBC模型與其他分類方法相比具有最小的誤差率。 但是實際上並非總是如此,這是因為NBC模型假設屬性之間相互獨立,這個假設在實際應用中往往是不成立的,這給NBC模型的正確分類帶來了一定影響。在屬 性個數比較多或者屬性之間相關性較大時,NBC模型的分類效率比不上決策樹模型。而在屬性相關性較小時,NBC模型的性能最為良好。
10. CART: 分類與回歸樹
CART, Classification and Regression Trees。 在分類樹下面有兩個關鍵的思想。第一個是關於遞歸地劃分自變數空間的想法(二元切分法);第二個想法是用驗證數據進行剪枝(預剪枝、後剪枝)。在回歸樹的基礎上的模型樹構建難度可能增加了,但同時其分類效果也有提升。
參考書籍:《機器學習實戰》