Bonjour, Je suis étonné de ne pas trouver mes jobs machine learning dans mes saved objects. quelle est la best practice pour réutiliser un ML sur un autre cluster? et en dehors de la configuration (le job) est il possible aussi d'exporter le modele créé (je parle d'anomaly detection)
J'aurais aimé que le process soit le meme que pour une visualisation, par exemple. Mais je ne vois que de l'API pour faire les exports
Cas d'usage: duplication sur d'autres serveurs, gestion de conf...
Bonjour, Il me semble que tu peux importer et exporter les jobs ML ES en lançant une commande REST API à ton cluster ES. (ou depuis kibana -> Dev Tools )
Oui, c'est bien ca. On ne peut donc pas le faire en meme temps que les saved objects.
D'autre part, j'ai l'impression que les ML jobs ne sont pas liés à des spaces. Vous confirmez?
Plus généralement, quelle est la procédure officielle pour copier/coller un anomaly detection d'un cluster à un autre? Je veux le voir dans certains spaces (mais pas d'autres) et je veux qu'il soit run automatiquement
A mon avis, il devrait y’avoir des possibilités de restriction d'accès aux indexes ml-anomalies-* avec la gestion des droits d'acces au space vs role.
Les résultats de jobs sont dans un indexe dediées .ml-* (.ml-quelques-choses) et tu peux jouer avec le role & space pour ne pas rendre accessible tels jobs à une space dediée etc.
Effectivement, ca doit marcher, mais j'aimerais savoir si il faut tout faire a la main, ou si il y a une procédure donnée par les gens d'elastic (voir un one-step API. Un peu comme pour les dashboards et visus.
@dao Comme tu utilises ML, tu dois probablement avoir un contrat de support avec Elastic. Peut-être faudrait-il ouvrir une question au support pour avoir une réponse officielle ?
Apache, Apache Lucene, Apache Hadoop, Hadoop, HDFS and the yellow elephant
logo are trademarks of the
Apache Software Foundation
in the United States and/or other countries.