今回初めて原子・分子シミュレーションのヨーロッパのセンターであるCECAMを訪問.主にはMDが主体なのだろうが,今回はモンテカルロ法の研究会で,研究会のテーマは,
New methods in Monte Carlo simulations: parallel, adaptive, irreversible
である.特に,population annealing(PA)と呼ばれる伊庭さん@統計数理研究所と2003年に提案した方法が最近ちょっと盛り上がってきて,それを精力的に使っているグループが集結することになった.私が10年以上さぼっていた間に方法論の細かいが大事な部分は進歩していて,並列計算に関する知見は高まったように思われる.例えば,有効粒子サイズの評価やadaptiveな温度ステップの調整である.我々も超並列計算でデータ科学をまじめにやるならPAだろうと思うに至って,ここに戻ってきたわけで,しっかりとそこには追いつきたいところである.
さて,先月のサンタフェ(SFI)での会議はHotであったのに対して,今回の会議は「熱い」という印象を強く持った.この差をうまく伝えるのは難しいが,熱かったのである.大学の研究者ばかりだったこともあるかもしれない.SFIでは一瞬不安になった,こうした計算物理の一部分はアカデミックで基礎研究を続けることは難しいのかと.しかし,ここでの会議はそれを杞憂とまでもいかなくても,払拭されるには十分であった.
それは,二日目の最後のdiscussionタイムのことであった.Jon Machtaさんが拡張アンサンブル法のいろいろやPAなどのモンテカルロ法を概観して,今後の展開を議論しようと口火を切ったときであった.Krauthさんがそれも大事だけど,それらはいずれもメタな方法論であって,そこはどうでもよくて,その内側のアルゴリズムをきちんとしないと本質的な発展にはならないと主張された.
どうすれば,64*64*64のスピングラス計算ができるようになるか?
これを真剣に考えるべきという熱いトークに引き込まれた.内側アルゴリズムというとマルチスピンコーディングとかで散々遊びまくった自分としては非常にテクニカルなもののように思ってしまって,これから追求すべき方向ではないように思ってしまう.ただ,それは部分的にはアルゴリズムでも部分的にはインプリメンテーションなわけで,インプリとは離れて何か有効な「アルゴリズム」は考え続けないといけないという主張は尤もである.メタな方法はその外側だからいつでも合体できるし,汎用性があるのでそちらの方が「使える」のだけど,上の問いに本当に答えられるかには真に向き合っていないよっていうツッコミには納得せざるを得ない.本物のアルゴリズムは物理現象の真の理解に繋がるという信念はかっこよい.
夕飯に行くときに,そのトークは素晴らしかったと彼に伝えたら,交換法もポピュレーションアニーリングも素晴らしいのだよっと言ってくれた.まあ,そう思っていることもなんとなくわかっていたので,共鳴してるんだと再認識.話の流れで,ふとため息混じりでつぶやいた
… machine learning…
ここからまた盛り上がるのだけど,機械学習はやはり好きではないんだよね.ここも共感.いずれこのWEBのどこかにも書くことになると思う.KrauthさんはToulouseにいたときに話しをしてくれて,その頃出たてのニューラルネットワークは夢があったというのだよ.わかる気はする.いまの機械学習にはそんなに夢は感じないし,古臭い私としてはもっとドライに科学の中に溶け込むための道具として欠けている点を整備すべきと考えている.
それで,夕食のときにはこの会議で10年ぶりくらいに会ったLiangさんに,
スピングラスってそんなにすごいの
って言われて,まあ分野がちがうとそうだよねー.