リアルタイム翻訳の夢、次期iPhoneでついに実現。WWDC 25でApple Intelligence大規模アップデート公表。パーソナルコンテキストAIは1年後か

著者フォロー
ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

これ以外にも、リストフリックという手首を回すジェスチャーや、ワークアウトのタイプにマッチした楽曲を自動的に選んで音楽プレイリストを編成する機能など、Apple Intelligenceはさまざまな部分に盛り込まれている。

サードパーティアプリからAI機能を利用可能に

こうしたApple IntelligenceのAIモデルは、今回のWWDCで発表されたFoundation Modelsフレームワークを通じて、アプリケーションから自由に呼び出せる。呼び出せるのはクラウドを用いない、つまりデバイス内で処理できるものだけだが、それだけに応答性がよく、何より追加コストもかからない。

このフレームワークは開発言語のSwiftにネイティブ対応しており、わずか3行のコードを書くだけでApple Intelligenceのモデルを呼び出せる。

次ページはこちら
関連記事
トピックボードAD
ビジネスの人気記事