グーグル検索を支える「巨大クラウド」の秘密 世界最強インフラの未来を最古参幹部に聞く
次いで取り組んだのが、自社運用のデータセンターの建設。会社やサービスが大きくなるにつれ、サーバー維持などにかかる電気代も跳ね上がり、ムダも多かった。効率化には大規模なデータセンターの運用が不可欠だった。
さらに世界規模のスケーラビリティを確保するには、通信面の整備も欠かせない。ソフトウェアを活用した自社ネットワークを構築するなど、大きな進展があった。機械学習の処理が増えていくと、半導体チップの処理が追いつかなくなった。ムーアの法則のペースが落ちる中、特化型のハードウェアが必要になり、TPU(テンサー・プロセッシング・ユニット)を作った。グーグルとして初めてチップを開発した。
誰も作っていないなら、グーグルは自分で作る
――あらゆるものを自社で開発する文化は当初からあったのですか。
グーグルの創業後10年は、IT業界全体を見回しても、社内で使えると思えるソフトウェアやハードウェアがなかった。なぜなら、ハイパースケールのサービスを運営するのはグーグルが初めてだったからだ。「こんなものを作ってください」とお願いしても、「そんなことを頼まれたことがない」と断られたほどだ。
機械学習の処理に最適なチップを半導体業界が作っていなければ、自分たちで作る。一方でDRAMメモリーは東芝がすでに高品質なものを世に出しているので自社ではやらない。業界他社が最適なソリューションを提供しておらず、イノベーションを起こせると思ったところにフォーカスしようとやってきた。
5~10年後には機械学習用のチップは一般に広がり、自社開発はしていないかもしれない。一般的なデータセンターやネットワークの形は、われわれが作ってきたものに近づいてきたように思う。今は量子コンピューターなど新しい分野に注目している。
無料会員登録はこちら
ログインはこちら