ログ監視でのファイルサイズ制限について

ログ監視をしていますが、エラーが検知できない状況があります。

【問題】
以下2つのケースが問題と考えられます。
・監視対象のファイルが数GBになっているため。
・監視対象のファイルにエラーが1秒間隔で出力されていて、エラー量が多いため。(ファイルサイズは100MB以内)

ちなみにZabbixのコンソールでは、Latestデータでは検知していたりしていなかったりします。
Eventから見て、triggerでは全く検知はしません、当然アクションからメールの送信も行われません。

【環境】
Zabbixバージョン:Zabbix 3.0.28.
Zabbixサーバ: AWS Linux
監視対象サーバ: Windows server2012R2
監視方式: Zabbix agent active によるログ監視

【質問】
ログ監視対象のファイルが読み込めない、いわゆる監視できなくなる制限がファイルサイズやログの行数でありますでしょうか?

備考:
ちなみに、AWSのRDSというサービスに対する監視で、ログを監視対象サーバからダウンロードして、そのダウンロードしたファイルを監視しています。
5分置きにダウンロードしているため、毎回先頭からログ監視をしてしまう仕様です。
このため5分前に起きたエラーも検知されてしまいます。
(ダウンロードしたファイルの監視だと毎回先頭から監視してしまうという仕様は、このフォーラムで確認しました)
RDS上で1時間に1回、ダウンロード元のファイルは新規ファイルにローテションされるので、1時間分のみ1ファイルにエラーが溜まり続けます。

コメント表示オプション

お好みのコメント表示方法を選び「設定の保存」をクリックすると変更が反映されます。
ユーザー TNK の写真

古いOSであれば、OSや使用しているファイルシステムの制限によっ
て、扱えるファイルサイズの制限はありました。
しかし、100MB程度であれば、昔のOSでも全く問題なく扱えるファ
イルサイズです。

ログとして出力される行数が非常に多い場合は、それなりのCPU負
荷やZabbixサーバー側のデータベースの処理パフォーマンスの部分
がボトルネックとなる場合があります。
とはいえ、1秒1行程度であれば、大した負荷ではありません。

ただし、備考に書かれているような状態であるならば、処理しなけ
ればならない行数は1秒に1行ではなく、新しいファイルを受信する
たびに全ての行を読み込みなおすことになるので、処理しきれない
状態になる可能性があります。

以前の回答でも書いたと思いますが、Zabbixが監視するファイル自
体には、前回のRDSのログ取得時からの差分のみを反映するような
仕組みを考えない限り重複した障害検知を繰り替えすことになると
思います。

監視の実装方法を再度ご検討ください。

ユーザー 四羽 の写真

TNK様

ご回答ありがとうございました。
試しに7GBのファイルでエラーがあるかどうかと、実際に検知されたエラーを比較してみたところ、差分はありませんでした。
つまり大きいファイルでも正常に検知はしていそうです。

つい先日に1秒間に1回ログが出るような仕組みが入ってしまい、この時から検知ができていないことに気づき、
大きなファイルのときも検知できていなかったのではないかと懸念していました。
しかし今回のようなケースでは、いただいた回答で可能性がありそうであるということが理解できましたので、
ログの出力に対する調整で対応したいと思います。

監視の見直しもしたいと思います。
RDS AURORA Posgre10にすれば、ログファイルを時間単位で、ローテーションさせることができそうなので、
その仕組みを入れて現在の監視の問題も改善されるかもしれません。

改善したらこの場で共有したいと思います。