У нас похожий сценарий и бывает клиенты загружают очень много данных, правда никогда не переваливали дефолтные значения. Опытным путем выбраны настройки для параллельности и батчи для bulks + circuit breaker/retry логика, чтобы не перегружать кластер. Я хотел спросить, интересно, как устроен ElasticSearchWriterPool, т.е. от чего он отталкивается и как он работает чтобы определить эти параметры?
Раньше тоже были проблемы с queue_size, но теперь таких проблем нет. Остались только проблемы с переездом на 7.4.0 (пока никто не помог). При downgrade на 7.3.2 - все хорошо.