當前位置:股票大全官網 - 股票投資 - knn算法的分類原理是()。a待分類的樣本類別是具有最多K個樣本的類別。

knn算法的分類原理是()。a待分類的樣本類別是具有最多K個樣本的類別。

k近鄰法?k-k-最近鄰(k-NN)是壹種基本的分類和回歸方法。它是數據挖掘技術中最簡單的算法之壹,其核心功能是解決監督分類問題。KNN可以快速高效地解決基於特殊數據集的預測分類問題,但它不產生模型,因此算法的精度不具有很強的普適性。

k近鄰法?的輸入是實例的特征向量,對應於特征空間中的點;輸出是實例的類別,它可以包含多個類別。

k近鄰法?三個基本要素:K?值選擇、距離度量和分類決策規則。

算法流程:

1,計算訓練樣本和測試樣本中每個樣本點的距離(常見的距離度量有歐氏距離、馬氏距離等。);

2、對上述所有距離值進行排序;

3、選擇距離最小的前k個樣本;

4、根據K個樣本的標簽進行投票,得到最終的分類類別;

輸入:訓練數據集t = \ {(x _ 1,\ y _ 1),(x _ 1,\ y _ 1),\ cdots,(x _ n,\ y _ n)。

x_i在哪裏?是實例的特征向量。y_i?是實例的類別,I = 1,2,\ cdots,n。

輸出:實例x?它屬於哪壹類?y .

(1)根據給定的距離度量,在訓練集中?t?發現然後呢?x?最近點,覆蓋這個?k?訂購?x?的鄰域被表示為N_k(x)。

(2)在N_k(x)中?根據分類決策規則(如多數決策)3?x?的範疇?y .

y = \mathop {arg\,max}_{c_j}\sum_{x_i\in .N_k(x)=1}I(y_i=c_j),\\i=1,2,\cdots,N;\,\,j=1,2,\cdots,K \\ .

其中,我?對於指示器功能,即?y_i = c_j?什麽時候?我?是1,否則呢?我?是0。