と同一の以下環境で Logstash経由での400万件のレコード転送が240万件程しかされない
という状況となっており、打開策を模索しています。
- logstash:7.6.1 ( Docker )
- AWS RDS (MySQL 5.7.12)
- AWS Elasticsearch (7.1)
同様の状況にご経験がある、あるいは何か効果的な対策が浮かぶ、等あれば
ご提示いただけると大変ありがたいと思い、投稿する次第です。
よろしくお願いいたします。
と同一の以下環境で Logstash経由での400万件のレコード転送が240万件程しかされない
という状況となっており、打開策を模索しています。
同様の状況にご経験がある、あるいは何か効果的な対策が浮かぶ、等あれば
ご提示いただけると大変ありがたいと思い、投稿する次第です。
よろしくお願いいたします。
これまでに試してみたことは以下ですが結果変わらず不首尾です。
参照した主な情報
該当の pipeline で絞り込むと以下のようなログ出力になっています。
・・・
[INFO ][logstash.inputs.jdbc ][xxxx_yyyyyys] (143.899960s) SELECT * FROM (SELECT *, UNIX_TIMESTAMP(updated_at) AS unix_ts_in_secs FROM xxxx_yyyyyys WHERE (UNIX_TIMESTAMP(updated_at) > 0 AND updated_at < NOW()) ORDER BY updated_at ASC) AS `t1` LIMIT 100000 OFFSET 2200000,
[INFO ][logstash.inputs.jdbc ][xxxx_yyyyyys] (146.844210s) SELECT * FROM (SELECT *, UNIX_TIMESTAMP(updated_at) AS unix_ts_in_secs FROM xxxx_yyyyyys WHERE (UNIX_TIMESTAMP(updated_at) > 0 AND updated_at < NOW()) ORDER BY updated_at ASC) AS `t1` LIMIT 100000 OFFSET 2300000,
[INFO ][logstash.inputs.jdbc ][xxxx_yyyyyys] (0.003917s) SELECT version(),
[INFO ][logstash.inputs.jdbc ][xxxx_yyyyyys] (0.003362s) SELECT version(),
[INFO ][logstash.inputs.jdbc ][xxxx_yyyyyys] (3.283475s) SELECT count(*) AS `count` FROM (SELECT *, UNIX_TIMESTAMP(updated_at) AS unix_ts_in_secs FROM xxxx_yyyyyys WHERE (UNIX_TIMESTAMP(updated_at) > 0 AND updated_at < NOW()) ORDER BY updated_at ASC) AS `t1` LIMIT 1,
[INFO ][logstash.inputs.jdbc ][xxxx_yyyyyys] (4.238177s) SELECT * FROM (SELECT *, UNIX_TIMESTAMP(updated_at) AS unix_ts_in_secs FROM xxxx_yyyyyys WHERE (UNIX_TIMESTAMP(updated_at) > 0 AND updated_at < NOW()) ORDER BY updated_at ASC) AS `t1` LIMIT 100000 OFFSET 0
・・・
この件、Logstash を載せる EC2 のスペックを上げた結果、解決できました。
(以前) t2.medium の Docker Swarm on EC2 × 3
(対策) m4.large × 1 の Docker on EC2
This topic was automatically closed 28 days after the last reply. New replies are no longer allowed.
© 2020. All Rights Reserved - Elasticsearch
Apache, Apache Lucene, Apache Hadoop, Hadoop, HDFS and the yellow elephant logo are trademarks of the Apache Software Foundation in the United States and/or other countries.