Cluster baseado no k-vizinho mais próximo da classificação para dados de grande escala com neural códigos de representação

Enquanto de pé, como um dos mais amplamente considerada bem sucedida e de algoritmos de classificação supervisionada, o k-Vizinho mais próximo (kNN) classificador geralmente retrata uma baixa eficiência devido ao fato de ser um método de instância., Neste sentido, a approximated Similarity Search (ASS) é uma alternativa possível para melhorar essas questões de eficiência à custa de tipicamente diminuir o desempenho do Classificador. Neste documento, tomamos como ponto inicial uma estratégia ASS baseada na agregação. Em seguida, melhoramos seu desempenho resolvendo questões relacionadas a instâncias localizadas perto dos limites do aglomerado, ampliando seu tamanho e considerando o uso de redes neurais profundas para aprender uma representação adequada para a tarefa de classificação em questão., Resultados usando uma coleção de oito diferentes conjuntos de dados mostram que o uso combinado dessas duas estratégias implica uma melhoria significativa na precisão do desempenho, com uma redução considerável no número de distâncias necessárias para classificar uma amostra em comparação com o básico kNN regra.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *