• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:HDDを壊しやすいデータの保存方法?について)

HDDを壊しやすいデータの保存方法?について

このQ&Aのポイント
  • HDDを壊しやすいデータの保存方法について教えてください。
  • Perlプログラムで大量のgifをHDDに保存していると、ディレクトリ構造が壊れたり、HDDが論理障害を起こします。外付けUSB-HDDに保存しています。
  • HDDの限界なのか、プログラムの書き方が間違っているのでしょうか?

質問者が選んだベストアンサー

  • ベストアンサー
  • tk_uc
  • ベストアンサー率68% (33/48)
回答No.2

確かにntfsには仕様上の制限はありませんが、フォルダを開くときに時間がかかったりメモリーを食ったりするかと思いますので、お勧めはしません。 無制限というのはあくまで仕様上のもので、実際の使用時にはCPUであったりメモリーであったり、アプリケーションであったり、何らかの制限がかかってくるのだと思います。 ディレクトリで分けても症状が同じなのでしたら、パーティション内のファイル数とかなのかもしれませんね。 それも仕様上は無制限なのでしょうけど。 ファイル数が問題なのか、容量が問題なのか。 あるいは、ディスク上の特定の領域に書き込む際に問題が生じるのか。 お役に立てずすみません。

pevtone
質問者

お礼

以前、どこかのHPでエクスプローラーを使ってアクセスしない(フォルダーを開かない)で、他のソフトで直接呼び出す場合、フォルダー分けしてもNTFの構造上?意味が無いという話を聞いたため余り気にしていません。 また、NTFSやファイル数など数に原因であれば、2TBなど(現在は250GBを利用中)の超大容量HDDになると確実にディレクトリが壊れそうです。 恐らく、そんなことは無いと思いますので、Perlプログラムがまずいのかとも思っています。 >お役に立てずすみません。 とんでもありません。 回答いただき本当にありがとうございます。

その他の回答 (1)

  • tk_uc
  • ベストアンサー率68% (33/48)
回答No.1

同じディレクトリにたくさんファイルを作成しすぎなのでは? ご利用のファイルシステムの仕様を確認してみてください。 とりあえず、 ./gif/$year/$month/$day/$num のように階層を分けてみてはどうでしょうか。

pevtone
質問者

お礼

回答いただきありがとうございます。 NTFSなので制限は無いと思います。 それでも一つのディレクトリに大量のファイルがあることはまずいですかね? また、記憶が曖昧なのですが、ご指定の様にディレクトリを分けて保存していた時期もあるのですが、この時もエラーが出た記憶があります。

関連するQ&A