Grâce à Logstash j'indexe toute une table d'une base de donnée MySQL, cependant je n'arrive pas a filtrer correctement un champs pour qu'il soit transformé en quelque chose de lisible par kibana.
Petite question supplémentaire :
Dans les documents que j'indexe, j'ai plusieurs champs number
Severity
Status
Priorite
Ces champs ne peuvent avoir que certaines valeurs (10, 20, 30, 40, 50, 60, 70, 80,90)
Chacune de ces valeurs corresponds à un niveau de sévérité, un status ou une priorité comme vous vous en doutez.
J'essaye donc dans mon fichier de conf Logstash de faire remplacer ces valeurs number par leur correspondance en String j'ai essayé ca mais sans succès
Solution trouvé également, il fallait remplacer if [status] == "10"
par if [status] == 10
Vu que status est de type number
Du coup j'ai fini tout mes filtres pour changer mes données mais le temps import est relativement long maintenant, puis-je optimiser mon fichier de conf ?
cf ci-dessous
Je me posais une petite question concernant le fonctionnement de logstash une fois lancé comme un service.
La pippeline que j'ai défini va donc indexer toutes les entrées d'une table provenant d'une base de donnée MySQL.
Les nouvelles entrées faite dans la base de données vont-elle être indexer automatiquement dans elasticsearch ?
Apache, Apache Lucene, Apache Hadoop, Hadoop, HDFS and the yellow elephant
logo are trademarks of the
Apache Software Foundation
in the United States and/or other countries.