Bonjour,
Sur une architecture assez conséquente (environs 32 To de donnée x2 pour le replica), nous réalisons régulièrement des mises à jours de document (besoin en terme de moteur de recherche donc pas d'ingestion régulière, mais plutôt des mises à jours de document une fois par semaine).
Nous faisons un snapshot par index ( on en a trois en tout, donc un index fait environs 10 To).
Le soucis que nous rencontrons c'est lors d'une mise à jour même minime (1000 documents), on se retrouve a devoir re-snapshoter beaucoup de donnée, ce qui provoque un temps de backup extrêmement long (6-7h). Vis à vis du nombre de document modifié ça parait beaucoup.
Je pense que le soucis proviens des segments qui sont certainement "mergés" entre l'ancien snapshot, aprés l'update de document, et avant le nouveau snapshot.
Avez-vous des astuces, une solution pour essayer de réduire ce temps de snapshot au maximum ? Peut-être peut-on jouer sur le nombre de segment ? Eviter un merge ? etc.
Merci beaucoup.