chociaż klasyfikator k-nearest Neighbor (kNN) jest jednym z najszerzej rozważanych i najskuteczniejszych nadzorowanych algorytmów klasyfikacyjnych, klasyfikator k-nearest Neighbor (kNN) generalnie przedstawia słabą wydajność ze względu na to, że jest metodą opartą na instancjach., W tym sensie Approximated Similarity Search (ASS) stanowi możliwą alternatywę dla poprawy tych kwestii wydajności kosztem typowego obniżenia wydajności klasyfikatora. W tym artykule przyjmujemy jako punkt początkowy strategię ASS opartą na klastrowaniu. Następnie poprawiamy jego wydajność, rozwiązując problemy związane z instancjami znajdującymi się w pobliżu granic klastra, zwiększając ich rozmiar i rozważając wykorzystanie głębokich sieci neuronowych do nauki odpowiedniej reprezentacji dla danego zadania klasyfikacji., Wyniki z wykorzystaniem zbioru ośmiu różnych zestawów danych pokazują, że połączone zastosowanie tych dwóch strategii pociąga za sobą znaczną poprawę dokładności, ze znacznym zmniejszeniem liczby odległości potrzebnych do sklasyfikowania próbki w porównaniu z podstawową zasadą kNN.