【環境構成】
複数サーバから同じフォーマットのログをFilebeat利用してLogstash経由(logstash-output-s3)でAWS上のS3バケットに集約して、さらにLogstash(logstash-input-s3)を利用してログをElasticsearchへ転送しています。
【問い合わせ内容】
上記構成において、S3バケットまでログは欠損せずに保管されますが、後続の処理においてログ欠損が発生しています。
収集対象のサーバが複数あるので、どの時間帯でもS3バケット上複数のログファイルが作成されます。
同じ時間帯の複数ログファイルの処理順番とsincedbにあるタイムスタンプの更新によって、ログファイルごとにLogstashに無視される可能性はございますか。
また、この構成においてほかにもログ欠損につながる要因がございましたら、ぜひご教示頂きたいです。