精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

AdaBoost分類器完全圖解 原創(chuàng)

發(fā)布于 2024-11-20 08:25
瀏覽
1收藏

本文將通過完整的源碼與圖解方式向你展示AdaBoost算法運(yùn)行邏輯,并指出其優(yōu)點(diǎn)與不足,還將其與隨機(jī)森林算法進(jìn)行對(duì)比分析。

簡(jiǎn)介

每個(gè)人都會(huì)犯錯(cuò),即使是機(jī)器學(xué)習(xí)領(lǐng)域最簡(jiǎn)單的決策樹也存在這個(gè)問題。AdaBoost(自適應(yīng)增強(qiáng))算法不會(huì)忽略這些錯(cuò)誤,而是會(huì)做一些不同的事情:它會(huì)從這些錯(cuò)誤中學(xué)習(xí)(或適應(yīng))以變得更好。

與一次生成多棵樹的隨機(jī)森林不同,AdaBoost算法從一棵簡(jiǎn)單的樹開始,并識(shí)別它錯(cuò)誤分類的實(shí)例。然后,它會(huì)構(gòu)建新的樹來修復(fù)這些錯(cuò)誤,從錯(cuò)誤中學(xué)習(xí),并在每一步中變得更好。

在本文中,我們將詳細(xì)探討AdaBoost算法是如何進(jìn)行預(yù)測(cè)的。我們將會(huì)看到AdaBoost算法能夠通過結(jié)合有針對(duì)性的弱學(xué)習(xí)器來增強(qiáng)力量,就像將有針對(duì)性的鍛煉變成全身力量的鍛煉程序一樣。

AdaBoost分類器完全圖解-AI.x社區(qū)

作者本人使用Canva Pro創(chuàng)建(針對(duì)移動(dòng)設(shè)備進(jìn)行了優(yōu)化;在桌面PC上可能顯得過大)。

定義

AdaBoost算法是一種集成機(jī)器學(xué)習(xí)模型,它能夠創(chuàng)建一系列加權(quán)決策樹,通常使用淺樹(通常只是單層“樹樁”)來實(shí)現(xiàn)。每棵樹都在整個(gè)數(shù)據(jù)集上進(jìn)行訓(xùn)練,但采用了自適應(yīng)樣本權(quán)重,使先前分類錯(cuò)誤的樣本更加重要。

對(duì)于分類任務(wù),AdaBoost通過加權(quán)投票系統(tǒng)組合樹,其中表現(xiàn)更好的樹在最終決策中具有更大的影響力。

該模型的優(yōu)勢(shì)來自其自適應(yīng)學(xué)習(xí)過程——雖然每棵簡(jiǎn)單的樹可能都是“弱學(xué)習(xí)器”,其表現(xiàn)僅略優(yōu)于隨機(jī)猜測(cè),但樹的加權(quán)組合創(chuàng)造了一個(gè)“強(qiáng)學(xué)習(xí)器”,可以逐步關(guān)注和糾正錯(cuò)誤。

AdaBoost分類器完全圖解-AI.x社區(qū)

AdaBoost是增強(qiáng)算法系列的一部分,因?yàn)樗淮螛?gòu)建一棵樹。每棵新樹都會(huì)嘗試修復(fù)先前樹所犯的錯(cuò)誤。然后,它使用加權(quán)投票來組合它們的答案并做出最終預(yù)測(cè)。

測(cè)試數(shù)據(jù)集

在本文中,我們將重點(diǎn)介紹經(jīng)典高爾夫數(shù)據(jù)集作為分類的樣本。

AdaBoost分類器完全圖解-AI.x社區(qū)

各列含義:“Outlook(展望)”——獨(dú)熱編碼為3列、“Temperature(溫度)”——華氏度、“Humidity(濕度)”——百分比、“Windy(有風(fēng))——(是/否)和“播放(Play)”——是/否,代表目標(biāo)特征。

import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
# 創(chuàng)建和準(zhǔn)備數(shù)據(jù)集
dataset_dict = {
    'Outlook': ['sunny', 'sunny', 'overcast', 'rainy', 'rainy', 'rainy', 'overcast', 
                'sunny', 'sunny', 'rainy', 'sunny', 'overcast', 'overcast', 'rainy',
                'sunny', 'overcast', 'rainy', 'sunny', 'sunny', 'rainy', 'overcast',
                'rainy', 'sunny', 'overcast', 'sunny', 'overcast', 'rainy', 'overcast'],
    'Temperature': [85.0, 80.0, 83.0, 70.0, 68.0, 65.0, 64.0, 72.0, 69.0, 75.0, 75.0,
                   72.0, 81.0, 71.0, 81.0, 74.0, 76.0, 78.0, 82.0, 67.0, 85.0, 73.0,
                   88.0, 77.0, 79.0, 80.0, 66.0, 84.0],
    'Humidity': [85.0, 90.0, 78.0, 96.0, 80.0, 70.0, 65.0, 95.0, 70.0, 80.0, 70.0,
                 90.0, 75.0, 80.0, 88.0, 92.0, 85.0, 75.0, 92.0, 90.0, 85.0, 88.0,
                 65.0, 70.0, 60.0, 95.0, 70.0, 78.0],
    'Wind': [False, True, False, False, False, True, True, False, False, False, True,
             True, False, True, True, False, False, True, False, True, True, False,
             True, False, False, True, False, False],
    'Play': ['No', 'No', 'Yes', 'Yes', 'Yes', 'No', 'Yes', 'No', 'Yes', 'Yes', 'Yes',
             'Yes', 'Yes', 'No', 'No', 'Yes', 'Yes', 'No', 'No', 'No', 'Yes', 'Yes',
             'Yes', 'Yes', 'Yes', 'Yes', 'No', 'Yes']
}
# 準(zhǔn)備數(shù)據(jù)
df = pd.DataFrame(dataset_dict)
df = pd.get_dummies(df, columns=['Outlook'], prefix='', prefix_sep='', dtype=int)
df['Wind'] = df['Wind'].astype(int)
df['Play'] = (df['Play'] == 'Yes').astype(int)

# 重新安排各列
column_order = ['sunny', 'overcast', 'rainy', 'Temperature', 'Humidity', 'Wind', 'Play']
df = df[column_order]

# 準(zhǔn)備特征和目標(biāo)
X,y = df.drop('Play', axis=1), df['Play']
X_train, X_test, y_train, y_test = train_test_split(X, y, train_size=0.5, shuffle=False)Main Mechanism

AdaBoost算法主要機(jī)制

AdaBoost算法的工作原理如下:

  • 初始化權(quán)重:為每個(gè)訓(xùn)練樣本分配相同的權(quán)重。
  • 迭代學(xué)習(xí):在每個(gè)步驟中,訓(xùn)練一個(gè)簡(jiǎn)單的決策樹并檢查其性能。錯(cuò)誤分類的樣本獲得更多權(quán)重,使其成為下一棵樹的優(yōu)先級(jí)。正確分類的樣本保持不變,所有權(quán)重都調(diào)整為總和為1。
  • 構(gòu)建弱學(xué)習(xí)器:每個(gè)新的簡(jiǎn)單樹都針對(duì)前幾棵樹的錯(cuò)誤,創(chuàng)建一系列專門的弱學(xué)習(xí)器。
  • 最終預(yù)測(cè):通過加權(quán)投票合并所有樹,其中每棵樹的投票都基于其重要性值,從而為更準(zhǔn)確的樹提供更大的影響力。

AdaBoost分類器完全圖解-AI.x社區(qū)

AdaBoost分類器使用許多簡(jiǎn)單的決策樹(通常為50~100棵)進(jìn)行預(yù)測(cè)。每棵樹稱為“樹樁”,專注于一個(gè)重要特征,如溫度或濕度。最終預(yù)測(cè)是通過合并所有樹的投票做出的,每個(gè)投票都根據(jù)該樹的重要性(“alpha”)加權(quán)。

訓(xùn)練步驟

在這里,我們將遵循SAMME(使用多類指數(shù)損失函數(shù)的分階段加性建模)算法,這是scikit-learn庫(kù)中處理二分類和多類分類的標(biāo)準(zhǔn)方法。

1.1.決定要使用的弱學(xué)習(xí)器。其中,單級(jí)決策樹(或“樹樁”)是默認(rèn)選擇。

1.2.決定要構(gòu)建多少個(gè)弱學(xué)習(xí)器(在本例中為樹的數(shù)量)(默認(rèn)值為50棵樹)。

AdaBoost分類器完全圖解-AI.x社區(qū)

我們從深度為1的決策樹(樹樁)開始作為弱學(xué)習(xí)器。每個(gè)樹樁只進(jìn)行一次分割,我們將按順序訓(xùn)練其中的50個(gè),并在此過程中調(diào)整權(quán)重。

1.3.開始時(shí),為每個(gè)訓(xùn)練樣本賦予相同的權(quán)重:

  • 每個(gè)樣本的權(quán)重=1/N(N是樣本總數(shù))
  • 所有權(quán)重加起來為1

AdaBoost分類器完全圖解-AI.x社區(qū)

所有數(shù)據(jù)點(diǎn)的權(quán)重都相同(0.0714),總權(quán)重加起來為1。這確保在訓(xùn)練開始時(shí)每個(gè)樣本都同等重要。

對(duì)于第一棵樹

2.1.在考慮樣本權(quán)重的同時(shí)構(gòu)建決策樹樁

AdaBoost分類器完全圖解-AI.x社區(qū)

在進(jìn)行第一次分割之前,算法會(huì)檢查所有數(shù)據(jù)點(diǎn)及其權(quán)重,以找到最佳分割點(diǎn)。這些權(quán)重會(huì)影響每個(gè)樣本在進(jìn)行分割決策時(shí)的重要性。

計(jì)算根節(jié)點(diǎn)的初始加權(quán)基尼不純度

AdaBoost分類器完全圖解-AI.x社區(qū)

算法計(jì)算根節(jié)點(diǎn)的基尼不純度分?jǐn)?shù),但現(xiàn)在考慮所有數(shù)據(jù)點(diǎn)的權(quán)重。

對(duì)于每個(gè)特征:

  • 按特征值對(duì)數(shù)據(jù)進(jìn)行排序(與決策樹分類器完全相同)

AdaBoost分類器完全圖解-AI.x社區(qū)

對(duì)于每個(gè)特征,算法都會(huì)對(duì)數(shù)據(jù)進(jìn)行排序并識(shí)別潛在的分割點(diǎn),與標(biāo)準(zhǔn)決策樹完全相同。

對(duì)于每個(gè)可能的分割點(diǎn):

  • 將樣本分成左組和右組
  • 計(jì)算兩個(gè)組的加權(quán)基尼不純度
  • 計(jì)算此分割的加權(quán)基尼不純度減少量

AdaBoost分類器完全圖解-AI.x社區(qū)

該算法計(jì)算每個(gè)潛在分割的加權(quán)基尼不純度并將其與父節(jié)點(diǎn)進(jìn)行比較。對(duì)于分割點(diǎn)為0.5的特征“sunny”,此不純度減少量(0.066)顯示了此分割對(duì)數(shù)據(jù)分離的改善程度。

選擇提供最大基尼不純度減少量的分割

AdaBoost分類器完全圖解-AI.x社區(qū)

在檢查所有可能的分割特征后,“overcast”列(分割點(diǎn)為0.5)提供最高的不純度減少量0.102。這意味著它是分離類別的最有效方法,使其成為第一次分割的最佳選擇。

d. 使用此決策創(chuàng)建一個(gè)簡(jiǎn)單的單分割樹

AdaBoost分類器完全圖解-AI.x社區(qū)

使用找到的最佳分割點(diǎn),算法將數(shù)據(jù)分成兩組,每組保留其原始權(quán)重。這個(gè)簡(jiǎn)單的決策樹故意保持較小和不完美,使其略優(yōu)于隨機(jī)猜測(cè)。

2.2.評(píng)估這棵樹有多好

a. 使用樹預(yù)測(cè)訓(xùn)練集的標(biāo)簽。

b. 將所有錯(cuò)誤分類的樣本的權(quán)重相加以獲得錯(cuò)誤率。

AdaBoost分類器完全圖解-AI.x社區(qū)

第一個(gè)弱學(xué)習(xí)器對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)測(cè),我們檢查它在哪里犯了錯(cuò)誤(標(biāo)記為X)。0.357的錯(cuò)誤率表明這棵簡(jiǎn)單的樹對(duì)一些預(yù)測(cè)有誤,這是預(yù)料之中的,并將有助于指導(dǎo)接下來的訓(xùn)練步驟。

c. 使用以下方法計(jì)算樹重要性(α):

α = learning_rate × log((1-error)/error)

AdaBoost分類器完全圖解-AI.x社區(qū)

我們使用錯(cuò)誤率計(jì)算樹的影響力得分(α = 0.5878)。分?jǐn)?shù)越高意味著樹越準(zhǔn)確,這棵樹因其良好的性能獲得了中等重要性。

2.3.更新樣本權(quán)重

a. 保留正確分類樣本的原始權(quán)重。

b.將錯(cuò)誤分類的樣本的權(quán)重乘以e^(α)。

c. 將每個(gè)權(quán)重除以所有權(quán)重的總和。此歸一化可確保所有權(quán)重的總和仍為1,同時(shí)保持其相對(duì)比例。

AdaBoost分類器完全圖解-AI.x社區(qū)

樹出錯(cuò)的情況(標(biāo)記為X)在下一輪中獲得更高的權(quán)重。增加這些權(quán)重后,所有權(quán)重均被歸一化為總和為1,確保錯(cuò)誤分類的樣本在下一棵樹中得到更多關(guān)注。

對(duì)于第二棵樹

2.1.構(gòu)建新的樹樁,但現(xiàn)在使用更新后的權(quán)重

a. 計(jì)算根節(jié)點(diǎn)的新加權(quán)基尼不純度:

  • 將會(huì)有所不同,因?yàn)殄e(cuò)誤分類的樣本現(xiàn)在具有更大的權(quán)重
  • 正確分類的樣本現(xiàn)在具有更小的權(quán)重

AdaBoost分類器完全圖解-AI.x社區(qū)

使用更新后的權(quán)重(其中錯(cuò)誤分類的樣本現(xiàn)在具有更高的重要性),算法計(jì)算根節(jié)點(diǎn)的加權(quán)基尼不純度。這開始了構(gòu)建第二棵決策樹的過程。

b. 對(duì)于每個(gè)特征:

  • 使用與之前相同的過程,但權(quán)重已更改。

c. 選擇具有最佳加權(quán)基尼不純度減少的分割。

  • 通常與第一棵樹的分割完全不同。
  • 關(guān)注第一棵樹錯(cuò)誤的樣本。

AdaBoost分類器完全圖解-AI.x社區(qū)

使用更新后的權(quán)重,不同的分割點(diǎn)顯示出不同的有效性。請(qǐng)注意,“overcast(陰天)”不再是最佳分割——算法現(xiàn)在發(fā)現(xiàn)溫度(84.0)可以最大程度地減少不純度,從而顯示權(quán)重變化如何影響分割選擇。

d.創(chuàng)建第二個(gè)樹樁。

AdaBoost分類器完全圖解-AI.x社區(qū)

使用溫度≤84.0作為分割點(diǎn),算法根據(jù)哪個(gè)類在該組中的總權(quán)重更大,而不是僅通過計(jì)算樣本,為每個(gè)葉子分配YES/NO。這種加權(quán)投票有助于糾正前一棵樹的錯(cuò)誤。

2.2.評(píng)估這棵新樹

a.用當(dāng)前權(quán)重計(jì)算錯(cuò)誤率。

b.使用與之前相同的公式計(jì)算其重要性(α)。

2.3.再次更新權(quán)重——相同的過程(增加錯(cuò)誤權(quán)重,然后歸一化)

AdaBoost分類器完全圖解-AI.x社區(qū)

第二棵樹的錯(cuò)誤率(0.222)和重要性得分(α=1.253)比第一棵樹低。和以前一樣,錯(cuò)誤分類的樣本在下一輪中獲得更高的權(quán)重。

對(duì)于第三棵樹及以后的所有剩余樹

重復(fù)上述步驟2.1-2.3。

AdaBoost分類器完全圖解-AI.x社區(qū)

該算法按順序構(gòu)建50棵簡(jiǎn)單決策樹,每棵都有自己的重要性得分(α)。每棵樹通過關(guān)注數(shù)據(jù)的不同方面從以前的錯(cuò)誤中學(xué)習(xí),從而創(chuàng)建一個(gè)強(qiáng)大的組合模型。請(qǐng)注意,有些樹(如樹2)在表現(xiàn)更好時(shí)會(huì)獲得更高的權(quán)重分?jǐn)?shù)。

第3步:組合到一起

3.1.保留所有樹及其重要性分?jǐn)?shù)

AdaBoost分類器完全圖解-AI.x社區(qū)

50棵簡(jiǎn)單決策樹作為一個(gè)團(tuán)隊(duì)一起工作,每棵都有自己的重要性分?jǐn)?shù)(α)。在進(jìn)行預(yù)測(cè)時(shí),具有較高α值的樹(如樹2的1.253)對(duì)最終決策的影響比分?jǐn)?shù)較低的樹更大。

from sklearn.tree import plot_tree
from sklearn.ensemble import AdaBoostClassifier
from sklearn.tree import plot_tree
import matplotlib.pyplot as plt

#訓(xùn)練AdaBoost算法
np.random.seed(42)  # 可重復(fù)性
clf = AdaBoostClassifier(algorithm='SAMME', n_estimators=50, random_state=42)
clf.fit(X_train, y_train)

# 為樹1、2和50創(chuàng)建可視化形式
trees_to_show = [0, 1, 49]
feature_names = X_train.columns.tolist()
class_names = ['No', 'Yes']

#設(shè)置繪圖
fig, axes = plt.subplots(1, 3, figsize=(14,4), dpi=300)
fig.suptitle('Decision Stumps from AdaBoost', fontsize=16)

#繪制每棵樹
for idx, tree_idx in enumerate(trees_to_show):
    plot_tree(clf.estimators_[tree_idx],
              feature_names=feature_names,
              class_names=class_names,
              filled=True,
              rounded=True,
              ax=axes[idx],
              fontsize=12)  #增加字體大小
    axes[idx].set_title(f'Tree {tree_idx + 1}', fontsize=12)

plt.tight_layout(rect=[0, 0.03, 1, 0.95])

AdaBoost分類器完全圖解-AI.x社區(qū)

每個(gè)節(jié)點(diǎn)將其“值”參數(shù)顯示為[weight_NO, weight_YES],表示該節(jié)點(diǎn)上每個(gè)類型的加權(quán)比例。這些權(quán)重來自我們?cè)谟?xùn)練期間計(jì)算的樣本權(quán)重。

測(cè)試步驟

為了預(yù)測(cè),需要:

  1. 獲取每棵樹的預(yù)測(cè)值。
  2. 將每個(gè)預(yù)測(cè)值乘以其權(quán)重得分(α)。
  3. 將它們?nèi)考悠饋怼?/span>
  4. 總權(quán)重較高的類型將是最終預(yù)測(cè)結(jié)果。

AdaBoost分類器完全圖解-AI.x社區(qū)

在預(yù)測(cè)新數(shù)據(jù)時(shí),每棵樹都會(huì)做出預(yù)測(cè)并將其乘以其權(quán)重得分(α)。最終決定來自將所有加權(quán)投票相加。在這里,NO類型獲得更高的總分(23.315相對(duì)于15.440),因此模型預(yù)測(cè)這個(gè)未見過的樣本為NO。

評(píng)估步驟

構(gòu)建完所有樹后,接下來,我們就可以進(jìn)行測(cè)試集評(píng)估了。

AdaBoost分類器完全圖解-AI.x社區(qū)

通過迭代訓(xùn)練和加權(quán)弱學(xué)習(xí)器以關(guān)注錯(cuò)誤分類的樣本,AdaBoost創(chuàng)建了一個(gè)強(qiáng)大的分類器,可實(shí)現(xiàn)高精度——通常比單個(gè)決策樹或更簡(jiǎn)單的模型更好!

#獲得預(yù)測(cè)結(jié)果
y_pred = clf.predict(X_test)

#使用實(shí)際值和預(yù)測(cè)值創(chuàng)建數(shù)據(jù)幀
results_df = pd.DataFrame({
    'Actual': y_test,
    'Predicted': y_pred
})
print(results_df) # 顯示結(jié)果數(shù)據(jù)幀

# 計(jì)算和顯示精度
from sklearn.metrics import accuracy_score
accuracy = accuracy_score(y_test, y_pred)
print(f"\nModel Accuracy: {accuracy:.4f}")

關(guān)鍵參數(shù)解釋

以下是AdaBoost算法的關(guān)鍵參數(shù)解釋(特別是在scikit-learn庫(kù)中提供的那些):

estimator(估計(jì)器)

這是AdaBoost用來構(gòu)建最終解決方案的基本模型。三個(gè)最常見的弱學(xué)習(xí)器是:

  • 深度為1的決策樹(決策樹樁):這是默認(rèn)且最受歡迎的選擇。由于它只有一個(gè)分割,因此它被認(rèn)為是一種非常弱的學(xué)習(xí)器,比隨機(jī)猜測(cè)略好一點(diǎn),這正是提升過程所需要的。
  • 邏輯回歸:邏輯回歸(尤其是高懲罰)也可以在這里使用,即使它并不是真正的弱學(xué)習(xí)器。它可能對(duì)具有線性關(guān)系的數(shù)據(jù)有用。
  • 深度較小的決策樹(例如深度2或3):這些比決策樹樁稍微復(fù)雜一些。它們?nèi)匀幌喈?dāng)簡(jiǎn)單,但可以處理比決策樹樁稍微復(fù)雜一些的模式。

AdaBoost分類器完全圖解-AI.x社區(qū)

AdaBoost的基礎(chǔ)模型可以是簡(jiǎn)單的決策樹樁(深度=1)、小型樹(深度2-3)或懲罰線性模型。每種類型都保持簡(jiǎn)單以避免過度擬合,同時(shí)提供不同的方法來捕獲模式。

n_estimators

要組合的弱學(xué)習(xí)器的數(shù)量,通常約為50-100;當(dāng)這個(gè)值超過100時(shí)很少有更好的效果。

learning_rate

控制每個(gè)分類器對(duì)最終結(jié)果的影響程度。常見的起始值為0.1、0.5或1.0。較低的數(shù)字(如0.1)和稍高的n_estimator通常效果更好。

與隨機(jī)森林算法的主要區(qū)別

由于隨機(jī)森林和AdaBoost都適用于多棵樹,因此很容易混淆所涉及的參數(shù)。關(guān)鍵區(qū)別在于隨機(jī)森林獨(dú)立組合多棵樹(裝袋),而AdaBoost一棵樹接一棵樹地構(gòu)建樹以修復(fù)錯(cuò)誤(提升)。以下是關(guān)于它們之間的差異的其他一些細(xì)節(jié):

  • 沒有bootstrap參數(shù),因?yàn)锳daBoost使用所有數(shù)據(jù),但權(quán)重會(huì)發(fā)生變化
  • 沒有oob_score參數(shù),因?yàn)锳daBoost不使用bootstrap放回抽樣
  • learning_rate變得至關(guān)重要(隨機(jī)森林中不存在)
  • 與隨機(jī)森林的較深樹不同,樹的深度通常保持得很淺(通常只是樹樁)
  • 關(guān)鍵之處從并行獨(dú)立樹轉(zhuǎn)移到順序依賴樹,這使得n_jobs等參數(shù)不那么重要

AdaBoost算法的優(yōu)點(diǎn)與缺點(diǎn)

優(yōu)點(diǎn):

  • 自適應(yīng)學(xué)習(xí):AdaBoost通過賦予其所犯錯(cuò)誤更多權(quán)重而變得更好。每棵新樹都會(huì)更加關(guān)注它出錯(cuò)的困難情況。
  • 抵抗過度擬合:盡管它不斷逐一添加更多樹,但AdaBoost通常不會(huì)過于專注于訓(xùn)練數(shù)據(jù)。這是因?yàn)樗褂眉訖?quán)投票,因此沒有一棵樹可以過多地控制最終答案。
  • 內(nèi)置特征的選擇:AdaBoost自然會(huì)找到最重要的特征。每棵簡(jiǎn)單樹都會(huì)為該輪選擇最有用的特征,這意味著它在訓(xùn)練時(shí)會(huì)自動(dòng)選擇重要特征。

缺點(diǎn):

  • 對(duì)噪聲敏感:由于它更重視錯(cuò)誤,AdaBoost可能會(huì)在處理混亂或錯(cuò)誤的數(shù)據(jù)時(shí)遇到麻煩。如果一些訓(xùn)練樣本帶有錯(cuò)誤標(biāo)簽,它可能會(huì)過于關(guān)注這些不好的樣本,從而使整個(gè)模型變得更糟。
  • 必須是連續(xù)的:與可以同時(shí)訓(xùn)練多棵樹的隨機(jī)森林不同,AdaBoost必須一次訓(xùn)練一棵樹,因?yàn)槊靠眯聵涠夹枰乐暗臉涞谋憩F(xiàn)。這使得訓(xùn)練速度變慢。
  • 學(xué)習(xí)率敏感性:雖然它比隨機(jī)森林需要調(diào)整的設(shè)置更少,但學(xué)習(xí)率確實(shí)會(huì)影響它的效果。如果學(xué)習(xí)率太高,它可能會(huì)過于精確地學(xué)習(xí)訓(xùn)練數(shù)據(jù)。如果學(xué)習(xí)率太低,它需要更多的樹才能正常工作。

結(jié)語(yǔ)

AdaBoost是一種關(guān)鍵的增強(qiáng)算法,許多新方法都從中吸取了教訓(xùn)。它的主要思想——通過關(guān)注錯(cuò)誤來變得更好——幫助塑造了許多現(xiàn)代機(jī)器學(xué)習(xí)工具。雖然其他方法都試圖從一開始就做到完美,但AdaBoost卻試圖表明,有時(shí)解決問題的最佳方法是從錯(cuò)誤中學(xué)習(xí)并不斷改進(jìn)。

AdaBoost在二元分類問題中以及數(shù)據(jù)干凈時(shí)也最有效。雖然隨機(jī)森林可能更適合更一般的任務(wù)(如預(yù)測(cè)數(shù)字)或混亂的數(shù)據(jù),但AdaBoost在正確使用時(shí)可以產(chǎn)生非常好的結(jié)果。這么多年后人們?nèi)栽谑褂盟@一事實(shí)表明其核心思想有多好用!

AdaBoost分類器代碼歸納

import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
from sklearn.ensemble import AdaBoostClassifier
from sklearn.tree import DecisionTreeClassifier

# 創(chuàng)建數(shù)據(jù)集
dataset_dict = {
    'Outlook': ['sunny', 'sunny', 'overcast', 'rainy', 'rainy', 'rainy', 'overcast', 
                'sunny', 'sunny', 'rainy', 'sunny', 'overcast', 'overcast', 'rainy',
                'sunny', 'overcast', 'rainy', 'sunny', 'sunny', 'rainy', 'overcast',
                'rainy', 'sunny', 'overcast', 'sunny', 'overcast', 'rainy', 'overcast'],
    'Temperature': [85.0, 80.0, 83.0, 70.0, 68.0, 65.0, 64.0, 72.0, 69.0, 75.0, 75.0,
                   72.0, 81.0, 71.0, 81.0, 74.0, 76.0, 78.0, 82.0, 67.0, 85.0, 73.0,
                   88.0, 77.0, 79.0, 80.0, 66.0, 84.0],
    'Humidity': [85.0, 90.0, 78.0, 96.0, 80.0, 70.0, 65.0, 95.0, 70.0, 80.0, 70.0,
                 90.0, 75.0, 80.0, 88.0, 92.0, 85.0, 75.0, 92.0, 90.0, 85.0, 88.0,
                 65.0, 70.0, 60.0, 95.0, 70.0, 78.0],
    'Wind': [False, True, False, False, False, True, True, False, False, False, True,
             True, False, True, True, False, False, True, False, True, True, False,
             True, False, False, True, False, False],
    'Play': ['No', 'No', 'Yes', 'Yes', 'Yes', 'No', 'Yes', 'No', 'Yes', 'Yes', 'Yes',
             'Yes', 'Yes', 'No', 'No', 'Yes', 'Yes', 'No', 'No', 'No', 'Yes', 'Yes',
             'Yes', 'Yes', 'Yes', 'Yes', 'No', 'Yes']
}
df = pd.DataFrame(dataset_dict)

#準(zhǔn)備數(shù)據(jù)
df = pd.get_dummies(df, columns=['Outlook'], prefix='', prefix_sep='', dtype=int)
df['Wind'] = df['Wind'].astype(int)
df['Play'] = (df['Play'] == 'Yes').astype(int)

#拆分特征和目標(biāo)
X, y = df.drop('Play', axis=1), df['Play']
X_train, X_test, y_train, y_test = train_test_split(X, y, train_size=0.5, shuffle=False)

# 訓(xùn)練AdaBoost
ada = AdaBoostClassifier(
    estimator=DecisionTreeClassifier(max_depth=1), # 創(chuàng)建基本估計(jì)器(決策樁)
    n_estimators=50,        #典型情況下使用比隨機(jī)森林算法更少的樹
    learning_rate=1.0,      # 默認(rèn)學(xué)習(xí)率
    algorithm='SAMME',      # 目前唯一可用的算法(將在未來的scikit-learn更新中刪除)
    random_state=42
)
ada.fit(X_train, y_train)

#預(yù)測(cè)和評(píng)估
y_pred = ada.predict(X_test)
print(f"Accuracy: {accuracy_score(y_test, y_pred)}")

進(jìn)一步閱讀

有關(guān)??AdaBoostClassifier??及其在scikit-learn中的實(shí)現(xiàn)的詳細(xì)說明,讀者可以參考官方文檔,其中提供了有關(guān)其用法和參數(shù)的全面信息。

本文編程技術(shù)環(huán)境

本文使用Python 3.7和 scikit-learn 1.6。雖然討論的概念普遍適用,但具體代碼實(shí)現(xiàn)可能會(huì)因版本不同而略有不同。

關(guān)于插圖

除非另有說明,本文所有圖像均由作者本人創(chuàng)建,并采用了Canva Pro的授權(quán)設(shè)計(jì)元素。

譯者介紹

朱先忠,51CTO社區(qū)編輯,51CTO專家博客、講師,濰坊一所高校計(jì)算機(jī)教師,自由編程界老兵一枚。

原文標(biāo)題:??AdaBoost Classifier, Explained: A Visual Guide with Code Examples??,作者:Samy Baladram

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請(qǐng)注明出處,否則將追究法律責(zé)任
收藏 1
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
成人国产精品视频| 亚洲久久久久| 欧美日韩成人激情| 国产又粗又爽又黄的视频| 亚洲国产成人在线观看| 亚洲一区不卡| xxxxx成人.com| 久久久久无码国产精品一区李宗瑞 | 欧美一级xxx| 大肉大捧一进一出好爽视频| 午夜在线视频| av综合在线播放| 91精品国产综合久久久久久蜜臀| 亚洲国产精一区二区三区性色| 精品国产一区二区三区香蕉沈先生| 欧美一区二区二区| 懂色av一区二区三区| 久久男人资源视频| 久久久久99精品成人| 国产伦乱精品| 777a∨成人精品桃花网| 日本黄色三级大片| 好久没做在线观看| 日韩一区中文字幕| 欧美日本韩国国产| 亚洲乱码国产乱码精品精软件| 日本系列欧美系列| 18久久久久久| 国产污片在线观看| 亚洲最大黄网| 在线国产精品播放| 人人妻人人藻人人爽欧美一区| 日韩中文字幕无砖| 欧美精品少妇一区二区三区| 夫妻免费无码v看片| 色呦呦在线资源| 中文字幕永久在线不卡| 色视频一区二区三区| 天堂av资源在线| 丁香六月久久综合狠狠色| 91老司机在线| 国产伦理一区二区| 美女视频免费一区| 国产精品美女无圣光视频| 亚洲不卡视频在线观看| 亚洲精品韩国| 韩国欧美亚洲国产| 日本一二三区视频| 狠狠综合久久| 亚洲91精品在线| 国产成人亚洲精品自产在线| 亚洲午夜精品久久久久久app| 精品综合久久久久久97| 国产精品成人免费观看| 你懂的国产精品| 成人av免费在线播放| 久久精品亚洲热| 香蕉久久久久久久| 成人动漫免费在线观看| 在线观看日韩av| 日本综合在线观看| 视频在线不卡免费观看| 精品精品国产国产自在线| 午夜精品久久久久99蜜桃最新版| 成人精品影视| 久久久av网站| 欧美精品一级片| 一区视频在线| 欧洲午夜精品久久久| 三级网站在线播放| 日本一不卡视频| 成人久久久久爱| 精品人妻一区二区三区浪潮在线| 国产成人午夜精品影院观看视频 | 欧美日韩亚洲自拍| 日韩另类视频| 91精品一区二区三区在线观看| 九九热视频免费| a看欧美黄色女同性恋| 亚洲国产精品推荐| www在线观看免费视频| 日韩欧美一区免费| 亚洲激情欧美| 亚洲国产精品久久| 国产三级av在线播放| 日韩成人精品一区二区| 美乳少妇欧美精品| 久久夜色精品亚洲| 日本成人在线电影网| 91久久久久久久| 香蕉av一区二区三区| 国产三级欧美三级日产三级99| 中国人体摄影一区二区三区| 国产乱码在线| 一本大道av伊人久久综合| 亚洲午夜激情影院| 台湾色综合娱乐中文网| 丝袜美腿精品国产二区| 一级片免费网址| 蜜桃视频免费观看一区| 国产区日韩欧美| 97电影在线看视频| 亚洲成人你懂的| 日日躁夜夜躁aaaabbbb| 国偷自产av一区二区三区| 在线观看日韩www视频免费| 国产在线免费视频| 日本aⅴ免费视频一区二区三区| 波多野结衣久草一区| 麻豆精品国产传媒av| 免费在线黄色影片| 自拍偷拍国产精品| 国产麻花豆剧传媒精品mv在线| 经典三级久久| 伊是香蕉大人久久| 粉嫩aⅴ一区二区三区| 精品制服美女久久| 日本成人三级电影网站| 成人影音在线| 欧美一区二区三区公司| www.日本高清视频| 亚洲影音先锋| 国产精品日韩一区二区免费视频 | 久久精品人人爽| 国产精品一区无码| bt欧美亚洲午夜电影天堂| 欧美少妇一级片| 日韩一区二区三区在线免费观看| 亚洲国产成人精品女人久久久 | 精品欧美aⅴ在线网站| 五月天国产视频| 北条麻妃国产九九九精品小说| 68精品国产免费久久久久久婷婷| 精品国产999久久久免费| 国产精品另类一区| 成年人小视频网站| 国产伦一区二区三区| 欧美在线一级视频| 亚洲色偷精品一区二区三区| 亚洲一区二区三区小说| 国产男女无遮挡猛进猛出| 午夜影院欧美| 91在线观看免费高清| 免费a级在线播放| 国产精品乱码久久久久| 亚洲av少妇一区二区在线观看 | 精品影视av免费| 午夜午夜精品一区二区三区文| 欧美久久天堂| 日韩精品福利在线| 国产精品久久久免费视频| av在线播放一区二区三区| 日韩av中文字幕第一页| 精品国产一区二区三区不卡蜜臂 | 国产午夜福利片| 成人自拍视频在线观看| 欧美一级欧美一级| 美日韩黄色大片| 欧美在线视频网| 大胆av不用播放器在线播放| 色狠狠综合天天综合综合| 日本黄色特级片| 三级影片在线观看欧美日韩一区二区 | 欧美一级黄色影院| 欧美精品尤物在线观看| 国产精品视频久久久| 免费在线观看黄| 日韩欧美一级二级三级久久久| 国产一级久久久| 91丝袜国产在线播放| 熟女人妇 成熟妇女系列视频| 日韩欧美一区二区三区在线视频| 成人激情视频在线| 色呦呦视频在线观看| 亚洲黄在线观看| 波多野结衣一区二区三区在线| 国产精品网站在线| 亚洲综合在线一区二区| 亚洲激情女人| 亚洲国产一区二区在线| 国产亚洲字幕| 91成人在线视频| 伊人免费在线| 欧美精品一区二区三区四区| 亚洲欧美另类在线视频| 成人欧美一区二区三区视频网页| 佐佐木明希电影| 在线观看中文字幕2021| 国产精品精品国产色婷婷| 亚洲黄色小说在线观看| 久久精品主播| 手机成人av在线| 欧美顶级毛片在线播放| 国产精品自拍网| 91超碰在线| 色香阁99久久精品久久久| 精品人妻少妇AV无码专区| 色噜噜狠狠一区二区三区果冻| 青娱乐国产在线视频| 久久天堂av综合合色蜜桃网| 在线免费看v片| 久久精品一区二区国产| 狠狠精品干练久久久无码中文字幕| 日日天天久久| 亚洲综合视频1区| 香蕉视频亚洲一级| 久久久久国产视频| 亚洲s色大片| 亚洲精品乱码久久久久久按摩观| 国产免费黄色录像| 欧美网站在线观看| 青草草在线视频| 国产精品久久毛片a| 国产乱了高清露脸对白| 国产麻豆欧美日韩一区| 国产小视频精品| 国产精品免费看| 黄色成人在线免费观看| 欧美gay男男猛男无套| 久久综合九色99| 精品伊人久久久| http;//www.99re视频| 狠狠久久伊人中文字幕| 日韩美女免费线视频| h片在线观看视频免费| 久久久国产一区| 午夜毛片在线| 亚洲天堂av图片| 四虎在线免费观看| 亚洲第一网站男人都懂| 精品国自产在线观看| 欧美日韩国产成人在线免费| 国产网友自拍视频| 亚洲一区精品在线| www青青草原| 亚洲欧美日韩综合aⅴ视频| 国产一二三av| 国产精品美女www爽爽爽| 欧美日韩高清丝袜| 久久久久久黄色| www.自拍偷拍| 久久综合久久综合久久综合| 黄色片视频免费观看| 成人美女在线视频| 蜜臀av粉嫩av懂色av| 成人性生交大合| 日韩黄色一区二区| 亚洲精品一级二级三级| 日韩视频永久免费| 国产精品无码在线播放| 欧美日韩国产精选| 一级黄色片在线观看| 欧美日韩电影一区| 国产绳艺sm调教室论坛| 欧美一区二区三区在线观看视频| 99国产精品久久久久99打野战| 91精品欧美久久久久久动漫| 国产欧美日韩成人| 日韩美一区二区三区| 动漫av一区二区三区| 亚洲精品一区二区三区四区高清| 农村少妇久久久久久久| 日韩精品视频在线观看免费| 三级av在线播放| 一区二区福利视频| 免费在线看a| 欧美激情视频在线观看| 日韩伦理在线| 国产精品www色诱视频| 欧美极品在线| 成人妇女免费播放久久久| 试看120秒一区二区三区| 国产精品污www一区二区三区| 日韩最新在线| 伊人久久av导航| 国模吧视频一区| 成人羞羞国产免费网站| 久久精品国产亚洲高清剧情介绍 | 97aⅴ精品视频一二三区| 魔女鞋交玉足榨精调教| 国产精品午夜在线观看| 久久免费看少妇高潮v片特黄| 亚洲一区日韩精品中文字幕| youjizz在线视频| 欧美一区中文字幕| 香蕉久久一区二区三区| 色妞色视频一区二区三区四区| 欧美日韩经典丝袜| 欧美自拍视频在线| 国产精品777777在线播放| 激情五月综合色婷婷一区二区| 欧美码中文字幕在线| 国产高清不卡无码视频| 久久人人精品| 中文字幕av一区二区三区人妻少妇| 99国产一区二区三精品乱码| 1024在线看片| 五月天激情综合| 91tv国产成人福利| 亚洲精品成人免费| www在线免费观看视频| 日韩av不卡在线| 综合成人在线| 一区二区视频在线观看| 国产女优一区| xxxxwww一片| 国产精品丝袜91| www.日本精品| 日韩欧美国产综合在线一区二区三区| 美女毛片在线看| 久久久这里只有精品视频| 亚洲欧美另类动漫| 国产一区免费电影| 妺妺窝人体色WWW精品| 亚洲国产三级在线| 国产剧情久久久| 亚洲一区二区久久| www.51av欧美视频| 91观看网站| 91麻豆国产自产在线观看亚洲| 激情综合在线观看| 大桥未久av一区二区三区中文| 午夜精品一区二区三级视频| 色欧美乱欧美15图片| 污视频在线免费| 色综合久久天天综线观看| 巨大黑人极品videos精品| 欧洲国产精品| 先锋影音久久久| 在线观看国产三级| 精品国产成人av| 免费a视频在线观看| 欧美成人第一页| 国产精品高清一区二区| 亚洲一区二区在| 免费在线观看不卡| 中文字幕伦理片| 欧美在线观看视频一区二区三区| 三级无遮挡在线观看| 97成人精品区在线播放| 国产乱人伦丫前精品视频| 欧美精品久久久久久久自慰| 国产福利一区二区三区| 亚洲av无码一区二区三区在线| 欧美精品v国产精品v日韩精品| 自拍视频在线| 成人av在线天堂| 性欧美69xoxoxoxo| 亚洲黄色片免费看| 有坂深雪av一区二区精品| 97人妻精品一区二区三区软件 | 男人的天堂av网| 在线国产电影不卡| 国产69久久| 国产日韩欧美在线观看| 亚洲网色网站| 一级黄色大片免费看| 亚洲一卡二卡三卡四卡| 欧性猛交ⅹxxx乱大交| 66m—66摸成人免费视频| 天堂资源在线亚洲| 91n.com在线观看| 国产精品乱子久久久久| 99久久国产热无码精品免费| 欧美成人在线免费| 国产劲爆久久| 国产中文字幕免费观看| 国产三级久久久| 91极品身材尤物theporn| 免费91麻豆精品国产自产在线观看 | 亚洲最新色图| 亚洲美女在线播放| 色偷偷成人一区二区三区91| 在线观看免费网站黄| 亚洲最大的av网站| 日韩一级不卡| 美女av免费看| 精品久久久久久久人人人人传媒| 精品众筹模特私拍视频| 久久另类ts人妖一区二区| 日本不卡一区二区三区高清视频| 国产精品99久久久久久www | 青青草国产精品一区二区| 国产中文精品久高清在线不| 黄色小视频免费网站| 亚洲午夜影视影院在线观看| 精品美女视频在线观看免费软件| 国产有码一区二区| 国语对白精品一区二区| 久久美女免费视频| 日韩欧美一区在线观看| 丁香六月综合| 8x8x华人在线| 久久久久久久久免费| 亚洲av无码乱码在线观看性色| 91精品成人久久| 91成人影院| 亚洲精品成人无码| 日韩欧美自拍偷拍| 播放一区二区|