• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:数100MB単位のログの解析方法)

数100MB単位のログの解析方法

このQ&Aのポイント
  • 数100MB単位のテキストを解析するには、どのような手法が考えられますか。
  • 大容量のログファイルを開くためのテキストエディタや解析手法について教えてください。
  • CentOSやWindowsで数100MB単位のログファイルを解析する方法についてご教授いただけますか。

質問者が選んだベストアンサー

  • ベストアンサー
  • kmee
  • ベストアンサー率55% (1857/3366)
回答No.2

??? 1行1データのテキストファイルなら、そんな面倒なことしなくても、単純に grep "検索文字列" hogehoge.log でいいんじゃないの? CentOSに入っているGNU版のgrepなら「-C 5 」とオプション付ければ前後5行、5を変えれば任意の行表示できますし。 -B,-Aオプションで前後別々に表示行を指定もできますし。 他にも ・splitでファイルを分割する ・sedで必要なところだけ抜き出す ・CentOS上だったら、多少の時間はかかるにせよ、数百MBくらいで「開けない」ことはまず無いと思うんですが。スワップとかtmpとかの設定は大丈夫? ・上記から、vimで問題無く開けるはずですが。 ・同じく、 less hogehoge.log で開けませんか?開いた後で /?とnN で検索できますし なんにせよ、何を目視確認したいかが不明なので、この程度のアドバイスしかできません。

j138cm
質問者

お礼

1行1データではなく、複数行に渡っていたため、扱いに困っていました。 grepの-A オプションで複数行出力し、快適にエラーチェックができました。 ありがとうございます。

その他の回答 (3)

回答No.4

では、私も EmEditor のご案内を。 http://jp.emeditor.com/ 最大 248 GB (または21億行) という非常に大きなファイルを、少ないメモリでスムーズに開くことができるようになりました。さらに、巨大ファイルを開く速度を最適化し、従来のバージョンよりも一段と早くファイルを開けるようになりました。 ということです。 Windows のソフトですが、これだと、オリジナルのログファイルを直接読み込んで、「検索」で該当場所を探すことができるでしょう。 少なくとも、Windows なら、grep の代わりに、find を使えば、該当行の切り出しはできますから、それを切り出したファイルは、参照可能だと思います。

j138cm
質問者

お礼

回答ありがとうございます。 findコマンドは、知りませんでした。grepに近い感じなのですね。 Windows開発時に試したいと思います。

  • tatsu99
  • ベストアンサー率52% (391/751)
回答No.3

エディターで見るのを優先するなら、 split(参考URL参照)というコマンドがありますので、 それでファイルを分割して、小さくしてから エディターで見るのはいかがでしょうか。

参考URL:
http://itpro.nikkeibp.co.jp/article/COLUMN/20060227/230888/
j138cm
質問者

お礼

回答ありがとうございます。 エディタで見たいときは、便利そうですね。 次の機会に試してみます。

回答No.1

有料ですが、 MIFES8 最大2GB×100ファイルまでオープンでき、大容量ファイルも高速に読み込みます。

参考URL:
http://www.megasoft.co.jp/mifes8/product/
j138cm
質問者

お礼

MIFES6は使ったことがあるのですが、大容量ファイルにも対応していたのですか。 今回は、有料なので敬遠させていただきます。 回答ありがとうございました。

関連するQ&A