震災ビッグデータの講演を聞いてきました。
もう先週のことですが、たまたま東京にいったタイミングで
震災ビッグデータの講演があったので、聞いてきました。
このデータをどうやって作ったか知りたかったんです。
震災ビッグデータ―可視化された〈3・11の真実〉〈復興の鍵〉〈次世代防災〉
- 作者: 阿部博史,NHKスペシャル「震災ビッグデータ」制作班
- 出版社/メーカー: NHK出版
- 発売日: 2014/05/24
- メディア: 大型本
- この商品を含むブログ (2件) を見る
講演の阿部博史さん、1時間の間に3年半をギュッと詰め込んで
データを徹底的に追う一方で、そこにどんな思いで災害と向き合っているか
被災した方と向き合っていて一味違うなと思いました。
「虫の目」と「鳥の目」というそうです。
以下、講演のメモです。
--------------------
・ニュースサーバーがテキストデータだけで落ちた。
・被災地に1000万個のおにぎりが送られた。その行方を追うことができる。
→ビッグデータすごい!
・Twitterから災害情報をピックアップするシステム「Tweet Deep Servey」の構築。
→災害情報を検索ロボットと人力でわりだして、元のツイートをどんどん辿って特定。
警察・消防が把握しているか突き合せてまだなら通報、把握済みならOKというシステム。すごい。
・大量のデータを立体的にマッピングする「NHKデジタルアース」の開発。
見た目でどこに何人「いそうだ」というのが一発でわかる。すごい。
・どこに、どのくらい物資をおくればいいかを計算できる。
→これはほんとうに助かる。1000人の集落にオムツ1t届いたとか。
送る側は、ものすごいピンチだということしかわからないので、捨てられてもいいからどんどん送る。受け取る側はそれらをさばく作業でものすごく大変だった。無いところにはぜんぜんこない。
・携帯電話の発信地情報から、危険なエリアに今何人いるかをリアルタイムで把握できる(ようになる)
・同じく発信地情報から、被災地に何人助けになれる人がいるかをカウントできる。昼間はお年寄りしかいない地域が危ないので、事前に近くの高校・大学と提携して避難訓練をするなど対策が打てる。
・企業の活動、移転状況のマッピング。
帝国データバンク100年の歴史で初めて外部企業にデータを提供。
被災地にあった工場が、ばらばらに移転したため輸送コストが嵩むようになってしまった。
総延長1000Km.一日1000Kmずつ被災前より負担がかかっている。
--------------------
過去の災害を解析するだけではなく
リアルタイムの防災に向かっているのが時代の変わり目ですよね。
「ビッグデータ」という言葉も何となく流行っているという感じから
なるほど、そういう使い方をするのかと感覚的につかめた感じがしました。
IT業界をはなれてたった3年ですが、もうすっかり浦島太郎!
技術が飛躍的に進歩していて驚きました。
進化の圧力をかけたのは、まちがいなく東日本大震災だそうです。
とくにツイッターまわりの解析がやばいです。
災害の時は、電話よりツイッター、ということで
発信地情報と写真と内容から、災害の場所と時間と規模を計算して
警察・消防と連携する、ということが始まっているそうです。
ブログとツイッター、つまり外向きの情報ですね、、、
Facebookののんびり感にひたってましたが
防災の意味でもちょいちょい更新していこうと思いました。
みなさまも、ぜひ。