Après moults tentatives et un bon coup de pouce, j'ai enfin réussi à importer et indexer un document en JSON sur Elasticsearch.
Le problème est qu'il a importé 36000 lignes dans un seul document. Et Kibana ne semble pas apprécier. Quand je tente de créer un index pattern, il me sort cette erreur:
"Payload content length greater than maximum allowed: 1048576"
Je pense qu'il vaudrait mieux diviser ce document sur le critère "_source" (qui a un effectif de 96). J'obtiendrais donc 96 documents dans mon index.
Problème: Je n'arrive pas à trouver le bon paramétrage pour le faire. Est-ce possible? et si oui, comment et où le faire?
NB: Pour l'import j'ai utilisé Logstash avec HTTP Poller en input et Elasticsearch en output.
et dans "-source', il y a 96 entrées qui ont chacune des valeurs contenants +60 lignes chacune pour un total de 291 lignes pour chaque entrée de source.
Merci @dadoonet, j'ai passé l'après-midi sur ce problème. Après le passage en revue des paramètres de l'input plugin HTTP Poller, J'avais passé en revue tous les filtres de Logstash et j'ai dû passer à coté de celui-ci.
Apache, Apache Lucene, Apache Hadoop, Hadoop, HDFS and the yellow elephant
logo are trademarks of the
Apache Software Foundation
in the United States and/or other countries.