リアルタイム翻訳の夢、次期iPhoneでついに実現。WWDC 25でApple Intelligence大規模アップデート公表。パーソナルコンテキストAIは1年後か
これ以外にも、リストフリックという手首を回すジェスチャーや、ワークアウトのタイプにマッチした楽曲を自動的に選んで音楽プレイリストを編成する機能など、Apple Intelligenceはさまざまな部分に盛り込まれている。
サードパーティアプリからAI機能を利用可能に
こうしたApple IntelligenceのAIモデルは、今回のWWDCで発表されたFoundation Modelsフレームワークを通じて、アプリケーションから自由に呼び出せる。呼び出せるのはクラウドを用いない、つまりデバイス内で処理できるものだけだが、それだけに応答性がよく、何より追加コストもかからない。
このフレームワークは開発言語のSwiftにネイティブ対応しており、わずか3行のコードを書くだけでApple Intelligenceのモデルを呼び出せる。
トピックボードAD
有料会員限定記事
ビジネスの人気記事
無料会員登録はこちら
ログインはこちら