Clustering-basierte k-Nearest Neighbor Classification für groß angelegte Daten mit neuronalen Codes Darstellung

Während der k-Nearest Neighbor (kNN) Klassifikator als einer der am weitesten verbreiteten und erfolgreichen überwachten Klassifizierungsalgorithmen gilt, zeigt er im Allgemeinen eine schlechte Effizienz, da er eine instanzbasierte Methode ist., In diesem Sinne steht Approximated Similarity Search (ASS) als mögliche Alternative zur Verbesserung dieser Effizienzprobleme auf Kosten einer typischerweise geringeren Leistung des Klassifikators. In diesem Artikel nehmen wir als ersten Punkt eine ASS-Strategie, die auf Clustering basiert. Wir verbessern dann die Leistung, indem wir Probleme im Zusammenhang mit Instanzen in der Nähe der Clustergrenzen lösen, indem wir deren Größe vergrößern und die Verwendung tiefer neuronaler Netzwerke in Betracht ziehen, um eine geeignete Darstellung für die betreffende Klassifizierungsaufgabe zu lernen., Ergebnisse mit einer Sammlung von acht verschiedenen Datensätzen zeigen, dass die Kombination dieser beiden Strategien, die bringt eine signifikante Verbesserung der Genauigkeit Leistung, mit einer erheblichen Reduzierung der Zahl der Entfernungen benötigt, um zu klassifizieren, die eine Stichprobe im Vergleich zur Basis kNN-Regel.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.