K En Yakın Komşu (K Nearest Neighbour ) Algoritması — Sınıflama

Ayca Akcay
2 min readJun 24, 2020

--

KNN algoritması, 1967 yılında T. M. Cover ve P. E. Hart tarafından önerilmiştir. KNN, Denetimli Öğrenmede sınıflandırma ve regresyon için kullanılan algoritmalardan biridir. En basit makine öğrenmesi algoritması olarak kabul edilir.

Algoritma, sınıfları belli olan bir örnek kümesindeki verilerden yararlanılarak kullanılmaktadır. Örnek veri setine katılacak olan yeni verinin, mevcut verilere göre uzaklığı hesaplanıp, k sayıda yakın komşuluğuna bakılmaktadır. Uzaklık hesapları için genelde 3 tip uzaklık fonksiyonu kullanılmaktadır. Bunlar:

  • Oklid uzaklığı
  • Minkowski uzaklığı
  • Manhattan uzaklığı
Uzaklık hesaplama formülleri

K-NN ( K-Nearest Neighbor) algoritması en basit ve en çok kullanılan sınıflandırma algoritmasından biridir. K-NN non-parametric (parametrik olmayan), lazy (tembel) bir öğrenme algoritmasıdır. lazy kavramını anlamaya çalışırsak eager(istekli) learning aksine lazy learning’in bir eğitim aşaması yoktur. Eğitim verilerini öğrenmez, bunun yerine eğitim veri kümesini “ezberler”. Bir tahmin yapmak istediğimizde, tüm veri setinde en yakın komşuları arar.
Algoritmanın çalışmasında bir K değeri belirlenir. Bu K değerinin anlamı bakılacak eleman sayısıdır. Bir değer geldiğinde en yakın K kadar eleman alınarak gelen değer arasındaki uzaklık hesaplanır. Uzaklık hesaplama işleminde genelde Öklid fonksiyonu kullanılır. Öklid fonksiyonuna alternatif olarak Manhattan, Minkowski ve Hamming fonksiyonlarıda kullanılabilir. Uzaklık hesaplandıktan sonra sıralanır ve gelen değer uygun olan sınıfa atanır

Algotimanın işleyişi

KNN algoritmasını Weka’da uyguladığım weka 101 yazıma göz atabilirsiniz.

Teşekkürler…

--

--

No responses yet