ここ数年を振り返ると,ディスク容量のチープ化が一番進んでいるんですね。帯域はインフラ整備が必要なのでそう簡単にはチープ化しないし,CPUの速度も実は以前ほど急速に向上していず,マルチコア化とか並列化で数字を稼いでいるというのが現状
並列処理で動画とかの再生が軽いとかだからなぁ~。周波数はだいぶ前からあがってない。学生のときに3GHzのマシンが作れる話を聞いて指導教官が電子レンジと同じだ~みたいなことを行っていた。プロセスの微細化と周波数の向上の為の電圧あげは消費電力の観点からろくなことが無い。消費電力=熱でもあるので、廃熱が間に合わない。これは今始まった話じゃなくて、かなり前からだ。ソフトウェアががんばらないとどうにもなら無い。コンパイラだか言語だかが何とかしないといけない。環境(仮想化)は、コンパクト化してくれるが、速くしてくれるわけじゃない。もっとも、人間の絡むプロセスという観点からは、仮想化はdeployのコストを下げるので間違いなくよいことなのだが。ただ、これは広い意味での性能向上であって、quotaをあげる理由にはならない。
コンパクト化は地球シミュレータも例外ではない。
「地球シミュレータ」:計算能力毎秒131兆回 機種更新
旧機種はスパコン640台を接続していたが、性能向上により160台に減らした。計算能力は毎秒131兆回(理論値)と旧機種の3.2倍。消費電力は2~3割少なく、設置面積も半分の650平方メートルで済んだ。
自分自身もそうだし、周りの知人もそうだが、新しいマシンを買うと、前のマシンのデータがそっくりそのままコピーされている。oldとか名前がついてね。一言で言うと、ディスク容量を消費する速度よりも、ディスク容量増える速度のほうが圧倒的に速い。一番かさばる使い道は動画だろうが、それでも1Tを満タンにするのは大変だろう。満タンにできたところで、そのデータをすべて視聴できないだろう。具体的な例を挙げると、1分の間にYouTubeに到着する動画の再生時間は、1分を大幅に超えている(すべてに意味があるとはいわないが)。そうでなくても世界中のTV局が流すコンテンツすべてをあわせても視聴できないでしょう。すでに生産過剰で、かつそれを上回るdisk容量供給が存在する。
ITProのどの記事かは失念したが、メールを全部保存しているのは変、gmail容量でかすぎ、とか書いている人がいたが、ナンセンス。供給過剰の量が質を変えるのだ。diskがありあまることを前提でデザインをすべき。ましてやdisk容量の節約が必要になるような製品はすでに死んでいる。
大学院でDatabaseの授業を受けたときに印象に残っているのは、教授が
- 「TSUTAYAは君たちの性癖をしっている」、補足すると要はamazonのsuggestとかと同じ。
- 「過去には写真一枚があればよく情報が残っている部類に入る世代があったが、そのうち生まれてから死ぬまでのデータをすべてデジタイズした世代が出てくる。容量的にはそれは可能で、indexingが問題だ。」
といったこと。
私の予想では、すべてにおいてデータを消さなくなる。gitとかsvnのrepositoryみたいにすべて変更履歴を保存するようになる。消す理由(ディスク領域の解放・回収)が無いから。名前のほうが足りないが、それは変更履歴の保存という形で回収できる。そして、disk/memoryを気にするスタイルからすべてのobjectをpersistentなものとして管理するスタイルに変わるだろう。なんせ安いので。そのpersistentな管理自体がrepositoryのようなversionを持った形式に近づくのではないだろうか。systemを任意の時点に巻き戻せるのだ。言い方を変えるとmutateするのではなくappendしかしない。
Zopeをゴリゴリ読んでいるのもpersistentなsystemの実装が見たいというのが理由だ。そのうちsmall talk系もやるだろう。Erlangとかも興味深い。いずれにせよ、過去の資産が使えないと人が移行してこないので、私が言語を作ることは無いだろう。
0 件のコメント:
コメントを投稿