AppleはAIのOS統合をどのようにデザインしたのか? 林信行の「Apple Intelligence」考

2

2024年06月12日 06:10  ITmedia PC USER

  • 限定公開( 2 )

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia PC USER

Apple Intelligenceを発表するにあたって、ティム・クックCEOが最初に語ったのは同社が自らに課したAI活用の5原則だった

 昨今の生成AIの進化は著しく、もはやスマートフォンやPCに載っているOSにAIを統合することは、これからの必然といえる。実際、既にGoogleやMicrosoftは先行して取り組んでいる。後れを取るAppleが、WWDC24でどのようにAIをOSに統合するのか注目が集まっていた。


【その他の画像】


●より深いOS統合を目指した「Apple Intelligence」


 先日発表された「Apple Intelligence」というOS統合型のAIは、さすがデザインの会社と思わせる、熟考が重ねられた優れた設計思想による統合が行われていた。今後、先行していた他社にも大きな影響を与えそうだ。


 振り返ると、Appleは音楽プレーヤーでもスマートフォンでも、タブレットでも、“決して参入一番乗りではないが、その分、しっかりと議論を重ね、優れたデザインで形にする”ことで後れを取り戻し、それぞれの領域の先頭に立ってきた。


 今回の“AI統合”も、まさにそうしたデザイン力で大きな差を生み出している。先行していた他社のAI統合型OSは、対話型AIが有用になってきたのを受けて、単純にOSやWebブラウザなどのアプリにAIとの対話用ウィンドウをくっつけたような設計のものが主流だ。


 これに対してApple Intelligenceは、音声アシスタントのSiri(今後は文字入力で指示することもできるようになる)との連携はもちろん、各アプリで提供している文字や絵の編集機能などに組み込まれるような形で、より深いOSとの統合を計っている。


 Apple Intelligenceは、基本的にはユーザーがどんな人物で、どういう状況に置かれていて、どんな補助が必要か、ある程度を理解しているOSに与えられた知性として設計されている。


 実際には、例えば文章や画像の認識や生成、アプリが管理している情報を理解するといった細かなAI機能(モデル)を集めた集合体である。しかし、それらの機能をApple IntelligenceというOSの知性を介して利用することで、バラバラの機能である印象を受けないように丁寧にデザインされている。


 また、AIでどんなことができるのか、さりげなく分かるように可視化し、利用を促す工夫もある。


 だが、それ以上に大きいのが、このAI技術はAppleが長年大事に積み上げてきたプライバシー保護に対する姿勢の信頼の上で成り立ち、それ故に誰もが安心して使える設計になっていることだ。このアドバンテージは大きい。


 もっとも、丁寧なデザインや設計のために2024年内は英語のみの対応となった。日本語でこれらの技術が使えるようになるのは2025年以降になってしまうのは少し残念なところかもしれない。


●Apple Intelligenceの5原則


 Apple Intelligenceの発表で一番感心したのが、Appleが自らに課したAIとOSの統合における5原則をティム・クックCEOが真っ先に語ったことだ。さすがデザイン重視の会社だと思った。5原則の内容は以下の通りだ。


・パワフルであること


・直感的であること


・しっかりとOSに統合されていること


・パーソナルであること


・プライバシー保護にしっかり配慮していること


 パワフルであることは、例えばこんな例から分かる。


 Siriに「母親が空港に到着するのは何時だっけ?」と尋ねれば、自分の母親が誰かを認識した上で、飛行機の到着遅れといった最新情報も加えて到着情報を教えてくれる。


 「ランチの約束は何時だっけ?」と聞けば、カレンダーに登録していなくても母親とのメッセージのやりとりの中にあったランチの予約に関する情報を見つけ出し、その部分を表示してくれる。


 さらに会議の開始が後ろ倒しされるというメールが届くと、Apple Intelligenceは会議後に予定されている子供の学芸会に間に合うか、といったことを渋滞情報なども加味した形で検討し、適切にアシストしてくれる。しかも、子供との過去のメッセージのやりとりから、学芸会での演目が何であるかも把握している。


 これまではこうしたことを把握するには、メール/メッセージ/カレンダー/マップなど複数のアプリを行き来して自分で確認、判断する必要があったが、Apple Intelligenceなら一機能であるSiriに尋ねるだけで簡単に全体の状況を把握できる。


 ユーザーのパーソナルな情報を理解しているからこそできる、こうした有益なアシストは、実は他社のAI統合OSでもできるかもしれない。しかし、ここで違いを生み出すのが、Appleがこれまで声高に主張し守ってきたプライバシー保護の姿勢への実績と信頼だ。


 プライベートな個人情報を、よく知らない企業のAIサービスに預けるやり方には疑問を投げかけるセキュリティの専門家も多い。例えば、そうしたAIとの通信を傍受されて詐欺に使われる心配や、AIがうっかり学習したプライベートな情報を誰かに漏らしてしまうといった懸念もつきまとう。


 Appleはできるだけ通信を行わず機器内で処理を行い、どうしても通信を行う場合でもやりとりする情報量を最小限にとどめるというプライバシーに関するデザインの原則を持っている。


●AIに適しているプロセッサは、もうApple製品の中にある


 Appleは2017年以降、AI処理に優れたプロセッサを開発し続けており、既に画像の認識や翻訳など多くのAI処理が、iPhone/iPad/Macのオンデバイスで処理できる。それに対応している機能であれば、通信を行ったり、クラウドサービスにデータを渡したりする必要はない。


 それでもデバイス上で処理しきれない高度なAI処理を行う場合は、「Private Cloud Compute」というプライバシーに配慮したサーバの助けを借りる。サーバに送られる情報は匿名化されるだけでなく、そもそも結論を導き出すのに必要な最小限の情報しか送らない設計になっている。しかも、処理を終えたらサーバ上にデータを残さないという徹底ぶりで、プライバシーに配慮を行う。


 このようにユーザーが安心してプライバシー情報を預けられる土台をまずは作った上で、その原則に基づいてパーソナルなアシスタントを動かすのと、後付けの機能でプライバシーを守るのとでは安全性に大きな違いがある。


●ChatGPTは「統合」ではない リクエストを外注する「連携」先として採用


 ただし、プライバシーに配慮し、できるだけオンデバイスで処理を行う設計のApple Intelligenceだけでは、できることに限りがある。そこでAppleが打ち出したのが、OpenAIのChatGPTと連携させる手だ。


 例えば、Apple Intelligenceにはさまざまな分野の専門的知識に基づいた情報の提示や、画像/文章のより深い理解といったことはできず、ChatGPTの方がその点においては優秀だ。


 だから、例えば冷蔵庫にある食材の情報からレシピを生成するといった専門知識を必要とするAI処理を頼もうとすると、Apple Intelligenceがその要求にはChatGPTを利用した方が良い結果が得られそうだと説明し、ユーザーからのリクエストを(より安全性の落ちる)ChatGPTにも共有していいかを聞いてくる。


 ここでユーザーが「はい」と答えると、Apple IntelligenceがChatGPTにリクエストを送り、結果を表示してくれる。


 結果として、iOS 18やiPadOS 18、そしてmacOS Sequoia(セコイア)には、ユーザーの個人情報を知った上で安全にアシストをしてくれるApple Intelligenceと、専門的知識が豊富なChatGPTという2つの異なるAI技術が提供されることになり、ちょっと複雑に見えるが、ChatGPTとの仲介をApple Intelligenceが行ってくれるので、そこまで操作が煩わしくなることはない。


●使いやすさのための機能の可視化


 多くのAI統合型OSで問題となるのが、結局のところAIでどんなことができるか分からないので、せっかくAI統合をしていてもユーザーがそれを活用しきれないという点がある。一部の他社製OSでは、AIと対話をするウィンドウに、例えばどんなことができるかの例文などを表示して状況を改善しようとしているが、Appleはこうした課題にもデザインのアプローチで対処している。


 例えば、画像生成のAIを活用して自分が欲しい絵文字を生成する「Genmoji」(ジェン文字)という機能が新たに追加されるが、これは既に多くの人が日々使っている絵文字の入力パレットから作成する。


 絵文字の検索機能で入力したキーワードに合った絵文字が見つからないと「Genmojiを作成しますか?」と表示されるので、そこで生成を行うことになる。ちなみにGenmojiは正確には文字ではないが、他の絵文字とほぼ同等に扱うことができるようだ。


 Apple Intelligence対応の新OSでは、文章の整形や構成、要約ができる「Writing Tools」という機能も提供するが、こちらもワープロやメールアプリで文章を編集中にメニューを表示すると、カット/コピー/ペーストといった項目と一緒にWriting Toolsという項目として表示されるので、選んで呼び出す。


 Writing Toolsのパレットには、多くの人が文章に対して行う最も典型的な操作があらかじめメニューとして用意している。例えば文章の整形に関しても「親密な感じにする」「プロっぽい文章にする」「端的に書く」といったよく使うであろう整形オプションがメニューとして用意されているので、ほとんどはそれらの項目の選択だけで済んでしまう。


 何かのルールに従って整形したいなど特定のニーズがあるときだけ、そのニーズを声や文章で説明して要求をカスタマイズする設計になっている。


●日本語対応はまだ先だが、最後にものをいうのは品質


 このGenmojiやWriting Toolsは直感的操作の例であると同時に、より深いOS統合の例ともいえる。AppleはユーザーがApple製OSをより快適に使う上で、生成AIがどのように役立つか膨大な議論を重ねてきたようで、OSのいろいろな機能がApple Intelligenceによる進化を果たしている。


 例えば、通知機能の進化も面白い。Apple Intelligenceがすぐに対応が必要な通知を理解して、優先順位をつけ、差し迫った通知だけを表示してくれる機能が追加される。同様にメールアプリでも差し迫った重要なものだけを分類して表示するといった機能を用意している。


 使いやすさの向上という点では、iPhoneやiPad、Macで特定の操作をする方法が分からない場合、その使い方をSiriに聞くと、操作方法の説明を生成して画面に表示してくれるという機能もある。日々、親やテクノロジーに疎い同僚、友人のサポートを頼まれている人たちには朗報だろう。


 もちろん、全てのAI機能がそこまできれいにOSに統合されているわけではなく、機能の存在を知らないと使われなさそうなAI機能もある。


 その代表格は、WWDC24の基調講演で好評だった「Math Note」だろう。iPadOS 18に新たに追加される「計算機」アプリの機能で、Apple Pencilを使って数式を手書きすると、その数式を文字認識して「=」を描いた瞬間に答えを計算して出してくれたり、グラフを描いてくれたりする機能だ。


 こうした単体機能の認知をどのように広めていくかはAppleにとって今後の課題となるかもしれない。


 Apple Intelligenceがどれほど直感的で分かりやすいかをちゃんと評価できるのは、今秋に対応OSのiOS 18/iPadOS 18/macOS Sequoiaがリリースされて以降だ。しかも既に書いた通り、まずは英語だけでの提供なので、日本語でどれだけうまく機能するかも未知数となる。


 Appleは責任ある老舗IT企業、そしてユーザーからの印象を重視するブランド企業として、品質が保証できない中途半端な状態で技術を提供することを嫌う。


 日本にいる私たちにとっては、まだしばらく英語圏の人達をうらやむばかりの歯がゆい状態が続くわけだが、日本のユーザーがそうした待ちぼうけをくらうのは決して今回が初めてではない。日本語の音声入力や写真中の文字認識と言った機能も提供が遅れはしたものの、ちゃんと品質を伴っていたので、今では多くの日本人が日々活用している。


 日本向けのローカライズといえば、単に言語の対応だけ済ませれば終わりというわけではない。今回、Apple Intelligenceで提供されているAIは全てAppleが独自に開発しトレーニングしたもので、そこには言語モデルや絵を生成する「Diffusion」モデル、利用者の個人情報を理解する「Semantic index」と言った機能が中核になっている。


 しかし、おそらくAppleは日本への対応を果たす前に、言語モデルだけでなくDiffusionモデルで生成する絵などについても、現在の「いかにも米国風」な絵柄ではなく、より日本の文化になじむ絵を描けるようにしてくれることを期待している(それをやらないと、製品を通して特定の文化を押し付けることになってしまうからだ)。


 質の高いサービスを提供するためにも、まずは実験台として米国向けのサービスをしっかり作り込むというのがAppleのやり方だ。日本語に対応したApple Intelligenceが1日でも早く登場することに期待したい。


    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定