■ 危険な不良セクタに接触する機会を減らす=>効果を上げるには、スキャン量を少なくすることです。
危険な不良セクタを回避する点も重要なのですが、それ以上に大事なのが、接触する機会を減らす事です。
不良セクタを回避できても、その回数が増加すれば、危険もそれに従って増加いたします。
スキャンする量を減らせれば、回避自体の機会を減らせますので、おのずとリスクが低下いたします。
■ 領域解析スキャン(クラスタスキャン)について
データ復旧系ソフトウェアでは、全セクタ(クラスタ)を解析して結果を出す領域解析(クラスタスキャン)と呼ばれる機能が必ずございます。
この機能なのですが、全セクタをスキャン後に、再度各セクタにアクセスを試みてデータを取り出しますので、スキャン量が非常に大きくなります。
(だからといって、メモリには収まりませんし・・。別のドライブへのキャッシュならば、まだ現実的かもしれませんが・・)
正常なドライブまたは壊れても安定したドライブならば問題ないのですが、そのような都合の良いドライブは中々ありません。
さらに、2.0T以上の大容量ドライブは、普通に数十時間を要する場合も珍しくありません。
以上の点より、このスキャンはとても時間がかかります。登場が近い10TB以上では使い物にならないとみております。
=> 2020年:いよいよ20TBの時代になりそうです。
スキャン量が増加いたしますので、どうしても危険なセクタへの接触機会が増加してしまいます。
■ スキャン量を削減 ビッグデータ構造解析
それでも、ディレクトリ構造解析で一発解析できない場合は、事前に領域解析(クラスタスキャン)が必要でした。
この問題を解決するため、データの配置に関するビッグデータを利用して、この領域解析を不要化できる技術を搭載いたしました。
まだ甘い部分も多いのですが、最終的には80%以上(理想は±2σ~±3σ)でヒットできるように最善を尽くします。
これが上手く作用いたしますと、ファイルシステムの「癖」を利用してメタデータを効率良く取得できるようになります。
なお、領域解析の目的はメタデータの回収なので、目的が一致いたします。
※ 総当りのアルゴリズムと、工夫されたアルゴリズムのどちらが効率的か、に似ております。
総当りが領域解析(クラスタスキャン)で、工夫された方がビッグデータです。
データスキャン量を削るため、色々な手法を投入していきます。