震災ビッグデータの講演を聞いてきました。

もう先週のことですが、たまたま東京にいったタイミングで
震災ビッグデータの講演があったので、聞いてきました。
このデータをどうやって作ったか知りたかったんです。


講演の阿部博史さん、1時間の間に3年半をギュッと詰め込んで
データを徹底的に追う一方で、そこにどんな思いで災害と向き合っているか
被災した方と向き合っていて一味違うなと思いました。

「虫の目」と「鳥の目」というそうです。

以下、講演のメモです。
--------------------

・ニュースサーバーがテキストデータだけで落ちた。

被災地に1000万個のおにぎりが送られた。その行方を追うことができる。
 →ビッグデータすごい!

Twitterから災害情報をピックアップするシステム「Tweet Deep Servey」の構築。
 →災害情報を検索ロボットと人力でわりだして、元のツイートをどんどん辿って特定。
  警察・消防が把握しているか突き合せてまだなら通報、把握済みならOKというシステム。すごい。

・大量のデータを立体的にマッピングする「NHKデジタルアース」の開発。
 見た目でどこに何人「いそうだ」というのが一発でわかる。すごい。

・どこに、どのくらい物資をおくればいいかを計算できる。
 →これはほんとうに助かる。1000人の集落にオムツ1t届いたとか。
  送る側は、ものすごいピンチだということしかわからないので、捨てられてもいいからどんどん送る。受け取る側はそれらをさばく作業でものすごく大変だった。無いところにはぜんぜんこない。

・携帯電話の発信地情報から、危険なエリアに今何人いるかをリアルタイムで把握できる(ようになる)

・同じく発信地情報から、被災地に何人助けになれる人がいるかをカウントできる。昼間はお年寄りしかいない地域が危ないので、事前に近くの高校・大学と提携して避難訓練をするなど対策が打てる。

・企業の活動、移転状況のマッピング
帝国データバンク100年の歴史で初めて外部企業にデータを提供。
被災地にあった工場が、ばらばらに移転したため輸送コストが嵩むようになってしまった。
総延長1000Km.一日1000Kmずつ被災前より負担がかかっている。


--------------------

過去の災害を解析するだけではなく
リアルタイムの防災に向かっているのが時代の変わり目ですよね。

ビッグデータ」という言葉も何となく流行っているという感じから
なるほど、そういう使い方をするのかと感覚的につかめた感じがしました。

IT業界をはなれてたった3年ですが、もうすっかり浦島太郎!
技術が飛躍的に進歩していて驚きました。
進化の圧力をかけたのは、まちがいなく東日本大震災だそうです。

とくにツイッターまわりの解析がやばいです。
災害の時は、電話よりツイッター、ということで
発信地情報と写真と内容から、災害の場所と時間と規模を計算して
警察・消防と連携する、ということが始まっているそうです。

ブログとツイッター、つまり外向きの情報ですね、、、
Facebookののんびり感にひたってましたが
防災の意味でもちょいちょい更新していこうと思いました。

みなさまも、ぜひ。