先日 SSD を入手してフォーマット直後にパフォーマンス測定すると、以下のようになかなかの性能をたたきだしておりました。
で、「速いだろう」との想定の元、Windows Vista のページファイル格納ストレージに設定したり、デスクトップサーチのインデックスファイルを書き込んでいました。で、本日パフォーマンス測定したら以下のようにあからさまにパフォーマンスダウン!
どうやら、SSD は寿命を延ばすための設計上まんべんなく全領域を使おうとするためゆるーく断片化していき、一度書き込んだ領域を他の内容で上書きする際には「消す」という前処理が入るため、使っているうちに遅くなってくるという。以下のサイト様とか参照のこと。
なんで、ある程度遅くなるとパフォーマンスは安定するとのことだが、quitada が購入したのは遅くなりすぎじゃないか?ファイルのランダムリードとサイズが小さいファイルのランダムライトを除くと、通常使っている HDD よりも遅くなってる!ダメもとで、以下のサイト様の指摘に従い、Defraggler というフリーのデフラグツールを使って、空き領域のデフラグを行ってみてもそれほど改善せず。
再フォーマットしてもたいした変わらず。これが、景気の底ならぬ SSD パフォーマンスの底か!?最初だけ速いなんて、これじゃ速い速い詐欺だよ!
さて、今後この SSD は何に使いましょう?
とりあえず、ソフトウェアのインストール先として使いますかねー。ま、本来は OS の起動用ディスクにすればいいんだろうけど。
まだ使えないなぁ、SSD は。もっとたくさん投資して、いい SSD を買えばいいんだろうけど、費用対効果がいまひとつ。
余談ですが、最近注目を集めている(個人的にかもしれないけど) IT 技術は、key-value 型の分散型データベースや GPGPU、SSD と、使い方さえ守ればものすごいパフォーマンスをだせるけど、ちょっと間違えると期待したものがでないといったとんがった技術が多い気がするのは気のせい?ま、嫌いじゃなけどな、こういうの。