次世代AI検索「WKA」とAppleのファウンデーションモデル
World Knowledge Answers (WKA) プロジェクト:AppleはシリコンバレーのAI競争をどう闘うか。
Generative AI Search Engineへの布石
Appleのフロンティア(研究開発)部門において長年噂されてきた、独自の生成AI検索エンジン。内部で「World Knowledge Answers (WKA)」と呼ばれるこの極秘プロジェクトは、LLM SiriおよびSpotlightの裏側で静かに稼働を始めています。
Apple Foundation Model (AFM) のアーキテクチャ
シリコンバレーの熾烈なAI競争において、Appleのアプローチは他社(OpenAIのGPTやGoogleのGemini)とは異なる独自の哲学と明確な差別化を持っています。それは「巨大なクラウドファースト」ではなく、「オンデバイスファーストとプライバシーの担保」です。
Apple Foundation Modelの設計思想は以下の2点に集約されます。
1. 小規模・高効率な推論最適化
Appleのオンデバイスモデルは、パラメーター数が30億〜70億レベルであっても、iPhoneの限られたユニファイドメモリ(LPDDR5X)環境内でリアルタイム推論できるよう、驚異的な最適化が施されています。4-bit量子化(Quantization)や、基盤モデルに変更を加えずに特定タスクの精度を上げるLoRA(Low-Rank Adaptation)アダプターの動的切り替えにより、消費電力を極限まで抑えています。
| Approach | Competitors (Cloud) | Apple AFM (On-Device) |
|---|---|---|
| Latency | Network Dependent (~1000ms) | < 100ms (Local Inference) |
| Privacy | Data shared with provider | Zero data leaves device |
| Offline | ❌ No | ✅ Yes |
2. Mixture of Experts (MoE) の採用
AFMのクラウド版(Private Cloud Computeで稼働するモデル)は、巨大な単一のDense Networkではなく、特定のタスク(数学、コード生成、翻訳、創造的執筆など)に特化した複数の小さなエキスパートモデルを組み合わせる「MoE」アーキテクチャを採用していると言われています。推論時に最適なエキスパートだけを呼び出すため、パフォーマンスと電力効率を桁違いに高めることができます。
検索エンジンから「推論エンジン」へ:WKAの目的
「WKA(World Knowledge Answers)」の目的は、「検索キーワードに対して青いリンクのリストを返すこと」ではありません。
ユーザーの「デバイス内知識(カレンダー、メール、人間関係等のPersonal Context)」と「Web上の世界知識」をセキュアなコンテキストツリーで統合・推論し、質問に対して直接的で、文脈に沿い、かつ安全な「答えそのもの」を生成する ことです。
これは、単なるSafariの拡張機能ではありません。検索、アシスタント、オペレーティングシステムのUIを単一のインテリジェンスインターフェースに融合させる——それこそが、Siriの最終形態に向けたAppleの最も重要な研究フロンティアなのです。