Logstash를 통한 oracle jdbc input 한글깨짐

  • elasticsearch version : 6.5.4
  • database : oracle
  • MSG : 000154190612홍길동
input {
   jdbc {
     jdbc_connect_string => "jdbc:oracle:thin:@xx.xx.xxx.xx:xxxxx/TEST"
     jdbc_driver_class => "Java::oracle:jdbc.driver.OracleDriver"
     jdbc_user => "xxxx"
     jdbc_password => "xxxx"
     statement => "select MSG from tb_test"
     columns_charset => { "MSG" => "CP949" }
     }
}

filter {
   grok {
      match => {
        "MSG" =>  "(?< len:len:int >.{6})(?< date >.{6})(?< name >.{20})" ]
      }
   }
}

output {
   stdout{
       codec => "rubydebug"
    }
   elasticsearch {
       index => "ilog_test_01"
       document_type => "_doc"
    }
}

위와같이 설정하였는데,
filter가 적용되지 않고, 통 string으로 입력되었습니다.

한글이 깨져서 filter 적용이 되지 않는건지,
한글 filtering을 위해
추가적으로 어떤 셋팅을 해야 되는지 궁금합니다

I have set up as above,
The filter is not applied and is entered as a string.

If the Hangul is broken and the filter is not applied,
For Hangul filtering
I wonder what settings I need to add.

In order to assist with grok patterns, we need explicit examples of the input strings that will be passed to the filter and what information you expect to be able to extract from the messages. If you can supply 5-10 input lines showing the diversity of the inputs you are extracting, I would be glad to help you get started.

grok 패턴을 지원하려면 필터에 전달할 입력 문자열과 메시지에서 추출 할 수있는 정보를 명시해야합니다. 추출하는 입력의 다양성을 보여주는 5-10 개의 입력 라인을 제공 할 수 있다면 시작하는 데 도움이 될 것입니다.