Mac最上位とエントリー機がAIフォーカスな理由 量子化データ処理へ向けた戦略
ハイエンドを求めるクリエイターであっても、128Gバイトまでのメモリで十分ならば、M4 Maxをお勧めする。ちなみにM3 UltraのGeekbench MLにおける量子化スコアは32679点でありM4にも及ばない。
しかしM3 Ultraにはより多くのメモリが搭載でき、その量は最大512Gバイトに及ぶ。言い換えれば、このメモリ搭載量を活かせるジャンルのためにM3 Ultraは存在していると言ってもいい。
では、どのようなジャンルなのか。
大規模言語モデルをローカルのPC上で実行するLM Studioを用いるケースだ。GPUを用いて推論のランタイムが動作するため、Neural Engineの世代が古いことは問題とはならず、80コアGPUの並列性が生きる。
巨大ユニファイドメモリがもたらす独自性
単純にAI処理のパフォーマンスだけを比較すれば、アップルよりもNVIDIAのシリコンの方が優れている。しかし単体のパーソナルコンピュータで比較する場合、1つのGPUが搭載するメモリはせいぜい24Gバイトだ。
つまり参照するAIモデルの容量はそれよりも少ない。512Gバイトメモリを搭載するM3 Ultra搭載Mac Studioの場合も、GPUからアクセスできるメモリの範囲は、LM Studioの表示によると384Gバイト。
言い換えれば、GPUがアクセスできるAIモデルのサイズは、ハイエンドGPUカードの15倍以上になる。
現時点で公開されている事前学習済みAIモデルで言うと、6000億パラメータ級のDeepSeek V3の3ビット量子化モデルが319Gバイト(4ビット量子化モデルは404Gバイトで動作しない)、2ビット量子化モデルで221Gバイト。
DeepSeek V3の3ビット量子化モデルぐらいまでならば、毎秒10〜18トークン程度の速度で動作し快適にも感じるが、コンテキストサイズ(文脈を記憶しておくための記憶域)を広く取った方が使いやすくなる。現実的には速度も含め、200Gバイト級のAIモデルにとどめておくのがいいだろう。
とはいえ、これだけの規模のモデルであれば、用途を特化することで業務にも応用できる。
前述したCinema 4DでGPUを活用する3Dレンダリング処理も高速化されているが、コストパフォーマンスではM4 Maxに軍配があがる。しかしLM Studioを活用してPythonスクリプトを生成することで、Cinema 4Dの操作を自動化できるという。
筆者自身はCinema 4Dのライセンスを保有していないが、アップルはLM Studioで撮影アングルやカメラの移動などを自然言語で指示し、それを実現するPythonコード出力してもらいレンダリングするといったデモが行われたようだ。
無料会員登録はこちら
ログインはこちら