j'utilise logstash pour importer un fichier csv vers elasticsearch, comment pourrais-je créer mon propre mapping ? Je trouve souvent des tutos qui montrent comment le faire mais juste dans des cas ou ils insèrent des documents un par un (via python ou la console de kibana) et non pas dans les cas où l'on insère tous les documents en même temps.
Si ce que vous voulez dire par "envoyer tout le contenu du fichier CSV à la fois" c'est que le contenu du fichier soit envoyé ligne par ligne, le tout référencé sous un même index. Alors oui la configuration est correct.
Par contre attention, vos deux plugin dans la partie filter font la meme chose. Le plugin csv va créer les champs et pour chacun de ces champs, le plugin csv va lui attribuer une valeur grace au séparateur que vous avez spécifié. Le plugin grok lui va remplir ces même champs (puisqu'ils ont le même nom dans le plugin csv et dans le plugin grok) avec le contenu de la phrase si elle respecte la regex mise en place. Donc vous écrivez deux fois la même valeur dans chaque champs.
Pour en revenir au mapping, ici il vous faudrait définir le type de chaque colonne de votre csv.
C'est à dire donner à date_de_classement le type des données situé dans la première colonne de votre csv. Et faire cela pour chaque champs.
Apache, Apache Lucene, Apache Hadoop, Hadoop, HDFS and the yellow elephant
logo are trademarks of the
Apache Software Foundation
in the United States and/or other countries.