新iPhone、自社開発半導体"超絶進化"の全貌 クラウドではなく端末内で高度な処理を実現

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小
XSシリーズには広角と望遠、2つのレンズを搭載(写真:アップル)

iPhone XSシリーズが、広角と望遠、両レンズを搭載するデュアル仕様なのに対して、iPhone XRは1つのみ。ほかにも内蔵ストレージ容量の最大値が256ギガバイトという違いもあるが、その分、米国価格で749ドル〜と低価格に抑えている。日本ではアップルストアの税込一括販売価格で8万4800円(64ギガバイト)~10万1800円(256ギガバイト)と低く抑えられている。

おそらく、このiPhone XRが販売の中核モデルとなるだろう。カメラがシングルとなることで、iPhone Xの特徴だった深度(距離)情報を使ったアウトカメラの機能(ポートレイトモードなど)が使えなくなりそうに思えるが、実は制約はあるもののiPhone XRでも“ボケ味”を生かした撮影ができる。

しかしながら、実はこの点……価格を抑えたiPhone XRでも最上位モデルに匹敵する体験を得られる“背景”が、今年のiPhoneにおけるもっとも大きな特徴だ。

ニューラルネットワーク処理を“端末内のみ”で解決

iPhone XS/XS Max/XRには、すべてA12 Bionicという新しいシステムチップが搭載される。アップル自身が開発しているこのプロセッサーのCPUは、高性能コア2個、低消費電力高効率コア4個の合計6コアが搭載される。

コア数こそA11 Bionicと同じだが、世界初の7ナノメートルプロセスで製造されるA12 BionicのCPUは、最大でも15%高速化されるのみだが、消費電力は最大50%まで減少。グラフィックス処理を司るGPU部にはメモリ節約機能と4つのコアが搭載され、こちらは性能が50%改善されているという。

これだけならば、先日発表されたファーウェイの「Kirin 980」と比べても控えめな印象を持つかもしれない。

しかし、アップルは半導体設計を微細化することで増えたトランジスタ数(A11 Bionicは43億個に対してA12 Bionicは69億個)のうち、かなり多くの割合をニューラルエンジンに割り振ったようだ。

ニューラルエンジンの処理能力が8倍に(筆者撮影)

Face IDやアニ文字、撮影した写真の分類処理やARなどに使われていたニューラルエンジンは8コアにまで増やされ、約6000億OPS(1秒あたりの処理回数)が8倍以上の5兆OPSまで増加した。

これによって“後処理”ではなく、その場で処理が完結する“リアルタイム”でのニューラルネットワークを応用した処理が実行可能になった。この能力はサードパーティーのアプリも利用できるが、iOS12の中でもっともわかりやすく使いこなされているのがカメラ機能である。

ニューラルネットワークを応用した深層学習処理は、計算量が膨大となるため一般的にクラウド側で処理を行う“クラウドAI”が一般的だが、そのためにはクラウドに情報を送らねばならない。グーグルによる実装手法の多くがクラウドAIだ。

次ページアップルはクラウドに情報を送らない方針
関連記事
トピックボードAD
ビジネスの人気記事