米Appleは、独自開発のAIコンパニオン「Apple Intelligence」を9月9日(現地時間)に発表した。Apple Intelligenceは、Mac、iPhone、iPadでのさまざまな作業を支援してくれる新機能だ。提供開始当初は英語のみの対応となるが、2025年に他の言語への対応を進める予定。
Apple Intelligenceは、作成中の文章の推敲や、写真に写った余計な物体の消去、電話の音声の文字起こしや要約、無数にある写真の中から自然言語によるヒントを受けて特定の写真を見付けるなどの機能を提供する。
Appleは、これらの処理を担う大規模言語モデル(LLM)を3段構えで用意している。比較的容易な処理は、MacやiPhone、iPadが備えるNeural Engineを利用して、端末上でLLMを動作させる。サーバーに問い合わせや画像などを送る必要がないので、個人情報が漏れる心配はない。
複雑な処理が必要になったら、Appleが用意したデータセンター「Private Cloud Compute」に問い合わせやデータを送信する。さらに、希望するユーザーに向けて、問い合わせやデータを米OpenAIのChatGPTに送信するように設定することもできる。
Private Cloud Computeでは、大量のサーバー・ノードが動作しており、ユーザーからの問い合わせやデータを受け付けて、答えを返す。ユーザーから受け付けた問い合わせやデータは、答えを返すためだけに使用し、答えを返した後はサーバーから跡形もなく消去する。ユーザーの問い合わせやデータはAppleの従業員でも入手不可能になっており、ログやデバッグの用途に備えて残すこともないとしている。
1台1台のサーバーは、サーバー向けに開発したApple Siliconを搭載し、Secure EnclaveやSecure Bootなど、MacやiPhoneで実績を積んでいるセキュリティ保護機構を備えている。そしてサーバーのOSは、macOSやiOS、iPadOSの中核部のサブセットをさらに強化し、大規模言語モデルの実行に合わせて改造したものを採用しているという。そして、その上で動かすモデルは、Appleが独自に開発したもので、実装にはサーバーアプリケーション向けに改良した「Swift on Server」を使用した。
Apple Intelligenceは、2024年10月に提供開始予定のmacOS Sequoia 15.1、iOS 18.1、iPadOS 18.1から利用可能になる予定。当初は一部の機能をベータ版として提供するのみとなるが、他の機能も追って提供が始まるとしている。そしてApple Intelligenceは、iPhone 16、iPhone 16 Plus、iPhone 16 Pro、iPhone 16 Pro Max、iPhone 15 Pro、iPhone 15 Pro Maxに 加えて、M1以降のSoCを搭載したiPadとMacで利用可能となっている。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です