全世界の本3000万冊を分析してわかったこと 文化をビッグデータで計測することは可能か
3000万冊以上の本をデジタル化
世界中に存在する本の内容を読み取ってデータ化し、さまざまな形で利用できることを意図したグーグル・ブックス・プロジェクトが立ち上げられた時、そんなことができるのか(分量的な意味でも権利的な意味でも)と疑問に思ったものだ。それが今では、著作権侵害などさまざまな課題を残しつつも事業は継続し、検索した時にお世話になることも増えてきた。3000万冊以上の本をすでにデジタル化しているようで、その是非はともかくとしてもかなり大規模な計画だ。
本書『カルチャロミクス 文化をビッグデータで計測する』の著者らは、この壮大なデジタル図書館に目をつけた。著者らのグループとグーグルが共同で開発した、Nグラム・ビューワーと名づけられたツールは、単語を入力することでその単語の出現頻度が時代に伴ってどのように推移したかを図で示してくれる。ある単語が、ある時点でどれだけの人の関心を集めているのかを知りたいのであれば、グーグル検索のワードを分析するのとたいして変わらないじゃないかと思うかもしれないが、これは「スキャンされた本」が対象であるために、数百年単位での変遷が見えるという点が大きく異なる。
それでいったいなにがわかるのかといえば、いろいろとしか答えようがない。文法がどのように変遷していったのかがわかるし、人物の名前を入れれば名声を獲得していく(あるいは忘却されていく)過程がわかる。政府による言論弾圧が行われた時の語句の動きは興味深いものだし、いくつもの単語を見てその時代ごとの変遷を見ていくと集団としての人間の行動を分析することもできる。とにかく「問いの立て方」次第で、いろんなことがわかるのだ。
無料会員登録はこちら
ログインはこちら