Bonjour et désolé pour le bombardement de questions ces derniers temps...
Savez-vous qu’est ce qui permet, dans une architecture hot warm d’avoir sur les noeuds warm un ratio memoire vive / mémoire morte de 1 go memoire vive pour 160 go de disque, versus 1 Go memoire vive / 30 Go disque sur des noeuds hot ?
Qu’est ce qui permet ce changement radical?
Est-ce :
le fait de parametrer les noeuds warm sans ingest?
le fait de mettre les index warm en lecture only ?
le merge sur 1 segment ?
la compression des données des index ?
Qu’est-ce qui contribue de façon drastique à ce bouleversement ?
En relisant un peu la doc, il semblerait que ce soit plutôt la configuration matérielle et logicielle des machines de type « data » sur le cloud Aws ou Gcp qui permette ce haut ratio Disk / Ram, particulièrement adapté aux noeuds de type warm. Ce qui m’amène à me demander qu’est ce qui permet d’augmenter ce ratio lorsqu’on est sur des machines physiques, pour s’inspirer de ce tuning sur le cloud ?
Apache, Apache Lucene, Apache Hadoop, Hadoop, HDFS and the yellow elephant
logo are trademarks of the
Apache Software Foundation
in the United States and/or other countries.