Отказоустойчивый кластер из 3 нод

Добрый день. Сделал кластер из 3 нод (1 мастер, остальные дата ноды). С подключенным грейлогом (на 2 нодах, стоит грейлог), третья пустая. При падении одной ноды падает весь кластер. Подскажите, как это исправить?

Привет. Не знаю на сколько правильно прочитал и понял, но сделал вот такой конфиг:

cluster.name: graylog
node.name: es-node-01
#node.attr.rack: r1
path.data:
   - /var/lib/elasticsearch/data1
   - /var/lib/elasticsearch/data2
path.logs: /var/log/elasticsearch
#bootstrap.memory_lock: true
network.host: 10.101.15.231
http.port: 9200
discovery.seed_hosts: ["10.101.15.231", "10.101.15.232", "10.101.15.233"]
discovery.zen.fd.ping_timeout: 10s
discovery.zen.minimum_master_nodes: 2
cluster.initial_master_nodes: ["10.101.15.231", "10.101.15.232", "10.101.15.233"]
#gateway.recover_after_nodes: 3
#action.destructive_requires_name: true
action.auto_create_index: false
node.roles: [ data, master ]
cluster.routing.allocation.disk.watermark.low: "20G"
cluster.routing.allocation.disk.watermark.high: "10G"
cluster.routing.allocation.disk.watermark.flood_stage: "5G"
path.repo:
   - /var/lib/elasticsearch/data1/backup

Роняю одну ноду, и кластер все равно становится red. Что я не так сделал? Или он должен быть красным? Даже если и так, то данные все равно не идут.

Из-за какого индекса? Сколько у этого индекса реплик?

Я не знаю из-за какого индекса. Реплики почему-то у всех индексов разные, хотя в грейлоге ставил что у каждого индекса должно быть по 2 реплики, в итоге у некоторых по 4,5 и тд, а у других как и положено - 2. Как я могу это проверить?

Я просто останавливаю одну ноду, после чего делаю: curl -X GET "localhost:9200/_cluster/health?pretty". В выводе вижу, что кластер стал красным и то, что данные перестают идти в грейлог.

Нашел причину этого, у некоторых было 8 шардов, у других 4.

Проблема решена! Надо было просто сделать реплиики для индекса и поправить конфиг по инструкции, которую Вы дали мне выше. Спасибо. Теперь статуст кластера стал желтым, но данные все еще идут. Спасибо! @Igor_Motov