分布式ストレージプロトコルは、たとえ1/3のノードが故障または悪意を持っていてもデータの安全性を保証できるとよく宣伝されている。しかし、この数学モデルにはしばしば見落とされる前提条件がある——それは1/3のノードが完全に独立したエンティティから来ている必要があるということだ。



現実にはどうだろうか?大手クラウドサービスプロバイダーや機関は、すでにネットワーク内の40%のノードを制御している可能性があり、それらは同じデータセンターの同じアベイラビリティゾーンに配置されていることさえある。こうなると、いわゆる分散耐障害性は大きく縮小してしまう。

もしあなたが非常に対抗性の高い敏感なデータを保存したい場合、ノードの数だけを見るのは不十分だ。次に「エンティティ審査」を行う必要がある——ブロックエクスプローラーやネットワーク分析ツールを使って、あなたのデータスライスがどのノードに割り当てられているかを調査し、これらのノードがIP範囲の集約やステーキング資金の出所が一つに偏っていないかといった特徴を確認する。

もしデータが「集中」して数人の大口所有者の手に渡っていることが判明したら、再アップロードや設定パラメータの調整を行い、データの再配布メカニズムをトリガーしなければならない。要するに、分散型ネットワークの安全性はプロトコルの堅牢さだけで決まるのではなく、実際の分散度合いによって左右されるのだ。ノードの地理的分布を気にしないユーザーにとっては、この種のプロトコルや従来の中央集権型クラウドストレージと大差なく、むしろパフォーマンスが劣る可能性さえある。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン