“後出し”の生成AI「Apple Intelligence」がAppleの製品力を高める理由

0

2024年06月13日 12:31  ITmedia PC USER

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia PC USER

WWDC 2024のトリを飾った「Apple Intelligence」

 生成AIの時代において、Appleは新たなテクノロジーイノベーションの波に乗り遅れた――そんな声が増していたことは、多くの人が実感していたと思う。


【その他の画像】


 Appleは、デバイス上に大規模な推論エンジン(NPU)を率先して搭載した実績がある。しかし、同社はプライバシーを重視するがゆえに、それを生成AIのために使うことを拒み続けてきたのだ。それはクラウドベースの生成AIでも例外ではなく、いわゆる「GAFAM(※1)」と呼ばれる米国のビッグテックの中で唯一、大規模な生成AIに対する取り組みを発表してこなかった。


(※1)Google、Apple、Meta Platforms(旧Facebook)、Amazon.com、Microsoftの5社を指す略語


 これは、他のビッグテックとは異なり、同社がハードウェア事業を“本業”に据えていることとも関係する。自社ブランドの製品を選ぶユーザーの、日々のコミュニケーションや行動を取得し、それを研究開発や製品機能の向上に役立てる――そのことに拒否感を持っているからだ。


 生成AIの基本となる「大規模言語モデル(LLM)」を利用する際に、iPhoneなどのデバイスに保管されている、極めて個人的な情報を安全にクラウド上で処理する手段がなかったことも、Appleが生成AIで“蚊帳の外”に置かれていた理由でもある。


 少し前置きが長くなってしまったが、そんなAppleが「Worldwide Developers Conference(WWDC) 2024」において、自社の生成AI「Apple Intelligence(アップルインテリジェンス)」を発表した。


それは今までの「Appleは遅れている」という声を払拭(ふっしょく)するだけでなく、生成AI時代において独自の地位を築き、本業であるハードウェア製品の魅力を高める強力な一手となりそうだ。


●そもそも「Apple Intelligence」って何?


 生成AIの世界においてOpenAI、Microsoft、Googleが覇権を争う中、Appleはこのジャンルにおける開発成果を“一切”披露しては来なかった。しかし一方で、AppleはAI関連のデータ共有プラットフォーム「Hugging Face」を通して言語モデル「OpenELM」を公開するなど、オープンソースコミュニティーではむしろ生成AIに積極的な姿勢も見せている。


 OpenELMを公開しているAppleは、かねて「クラウドには個人的な情報を送らない」と宣言してきた。そのこともあって、OpenELMがオンデバイス実行も可能なモデルとはいえ、生成AIを自社端末の機能向上に役立てる上でのハードルは高いと考えられてきた。


 だが今回、同社はApple Intelligenceによってそのハードルを超え、iPhoneやiPad、Macなどに集約/管理されている極めて個人的な情報を活用し、エンドユーザーにアドバイスを送ることで、デバイスの活用効率を大幅に高める機能を実現しようとしている。オンデバイスでのAI処理と同等のプライバシーへの配慮を実現しつつ、クラウドベースのトップクラスのLLMに匹敵する性能を発揮できていることもポイントだ。


 Apple Intelligenceでは、MicrosoftがWindowsやMicrosoft Officeなどに搭載しているAIアシスタント「Microsoft Copilot」と同様に、文章の生成やトーン変更、翻訳、要約といった機能も提供される。ただし、現状のCopilotのようなアプリ(の一部)としてではなく、OSの機能の1つとして提供される。また、サードパーティー製アプリもAPIを通して利用/連携可能だ。


 例えば「メール」アプリでApple Intelligenceに文章の清書を依頼すると、エレガントなビジネスメールとして通用する文章に仕上げたり、届いたメールの文面をApple Intelligenceが要約してプレビューとして表示してくれたりする。メールを開く前に内容を把握しやすくしてくれるのはありがたい。


 このApple IntelligenceのAPIは、既に統合済みの音声エージェント「Siri」の使い勝手も向上させる。


●Apple Intelligenceによってもたらされる「Siri」の進化


 Apple Intelligenceは、単なるボイスアシスタントだったSiriを音声で操れるAIアシスタントへと進化させる。


 従来のSiriは、利用に際して文脈を理解する能力がほとんどなかった。できることといえば、不足する情報を尋ねるぐらいの限定的なものだ。


 しかし新しいSiriは、Apple Intelligenceによって長大かつ多量のトークンに対応できる。文脈の中で情報を解釈し、より優れた結果を出せるようになったのだ。また、デバイス上のさまざまなアプリの情報を組み合わせて、複合的に判断して回答を生成できるようにもなった。


 例えば「娘が出演する演劇を見に行くには、何時に出発する必要があるか?」という質問に対して、従来ならば“娘”がそもそも誰なのかを特定させることが難しかった上、“娘”との約束をしたメールを探し出し、そのメールの後に予定変更がされていないのか――といったことを探る手段がなかった。


 正しいメールを探し出しせたとしても、待ち合わせ場所や会場の正確な名称と場所を把握したり、チケットが確保されているのか確認したり、公演のスケジュールに変更はないのかを確かめたり……といったことも必要になるだろう。「マップでを使ってルート検索を行い、確実に到着するための出発時間を予測する」となると、あまりにハードルが高い。


 しかし、Apple Intelligenceなら、それができる。iPhoneを始めとするAppleのデバイスで管理している情報をもとにしているからだ。しかも、ユーザーの「思い違い」にも対処してくれる。


 例えばユーザは「メール」でやり取りしたと思い込んでいたが、実際は「メッセージ」を使ってSMSでやりとりしていたことも考えられる。テキストでのやりとりであれば、他にもいろいろと対応するアプリは存在する。そのほとんどは、スマホ内にデータを“保持”している。


 そのことを生かして、スマホ上で管理されているあらゆるコミュニケーション手段に関わる情報をたどり、時系列で並べつつ“正しい”最新情報を探し出して、出発時間やルート提示してくれる。


 無論、理想通りに機能するためには、幾つものハードルはあるだろうが、Appleがやろうとしている事は、誰もが理解できる。私たちが実際に困っていること、スマホが便利であると思いつつも不便と感じてしまう部分をどうにかしようとしているのだ。


●個人情報を扱う「プライベートクラウド」


 デバイスで管理する情報を縦横無尽に活用しながら、アプリを横断しつつ、さまざまな情報を集約しAIがアドバイスをしてくれる――ここが機能面における最も重要なポイントだ。


 さらに、デバイス上での処理からあふれる場合、デバイスがオンライン状態ならばクラウドAIでの処理を併用する形でシームレスに拡張する。通信が発生することになるが、巧妙な仕組みによって、プライバシーデータはネットに流出させることなく、より規模の大きな言語モデルを活用できるようになっている。


 Appleの言語モデルは、デバイスの使いやすさや情報を的確に扱うような設計や学習が施されているという。例えば、Apple製品の使い方を聞いてみると、極めて丁寧に学習されているため、文脈を理解しながら機能の解説を行い、使い方を誘導してくれるという。


 また文書生成や画像生成に関してもデバイスと統合され、例えば電子メールの文面の清書を依頼する際にも、その“作法”に応じた結果を出せるよう学習されているそうだ。プロンプト(テキスト)で指示しての生成に加え、自動的にいくつかの選択肢を提示しながら好みの生成結果を求められるようにユーザーインタフェース(UI)を工夫もしている。誰もが取り残されず、生成AIを使いこなせるようにする工夫だ。


●オンライン処理でプライバシーを守るための工夫


 オンデバイスとクラウド(オンライン)両方のAIモデルをシームレスにつなぎ、それでもプライバシーを守ることができる――それはなぜか。この部分に、Appleならではの工夫と優勢が垣間見える。


 Appleによると、可能な限りオンデバイスでAIに関する処理を済ませた上で、細かく細分化したデータをクラウド側に送出しているのだという。具体的には、オンデバイスのAIモデルでデバイス内のユーザーデータを解析し、必要な情報を抽出した後、データのコンテクスト(関係性)をデバイス側で担保した上で、細かいトランザクションをクラウドサーバに投げているそうだ。


 クラウドサーバに投げたトランザクションの結果(データ)は、細分化されたままデバイスに戻ってくる。それをデバイス側がつなぎ合わせ、結果として提示される仕組みとなる。


 先ほどの「娘が出演する演劇」の質問の例に当てはめると、質問の分析と必要な情報の収集はデバイス側で行う。その後、データを「スケジュールの情報」「位置情報」「イベントの情報」といった感じで“細分化”した上で、“別々に”クラウドサーバへと送信される。


 この手法自体は、従来からAppleの「マップ」で使われており、データ自体には個人を特定できる情報は一切含まれない(含まれていたとしても匿名化した上で送られる)。通信ごとにトークンを変更し、ユーザー側のIPアドレスも一切隠されるという徹底ぶりだ。


 とはいえ、サーバ側に送られる情報や、サーバでの処理内容はユーザーからは見えない。そこでAppleはクラウド処理の透明性を高める措置も講じているという。


 まず処理に使われるクラウドサーバでは、外部から来る情報を「ノンパーマネントストレージ」に置く。データが保存されることもなければ、処理のログも残さないという。


 また、サーバの構築に使われるプログラムのコードは公開されるされるため、セキュリティ研究者が透明性の担保を検証可能とのことだ。サーバのプログラムが変更された際にはその内容も公開され、識別できないバージョンのサーバとは通信できないように措置が講じられる。加えて、プログラムの変更履歴はブロックチェーン技術を利用して追跡可能とすることで、正しい手順での開発されたものなのか、そもそも正規のサーバなのか確認できる。


 クラウドでの生成AIという観点では、サーバの消費電力も話題となることが多い。Appleはこの点にも配慮しており、省電力なApple Siliconで構築したサーバ(データセンター)を、100%再生可能エネルギーで運用するそうだ。デバイス側で可能な限り処理を行うのも、サーバ側のエネルギーを抑制するための工夫といえる。


 こうした取り組みにより、環境負荷を最小限に抑えつつ、生成AIの持つ力を最大限活用する機能やサービスを提供できるのだ。


●GoogleやOpenAIの生成AIサーバとは競合しない?


 Apple Intelligenceは、良くも悪くもハードウェアとソフトウェア(OS)を一貫して提供できるAppleだからこそできる生成AIだ。


 他社がクラウドだけで同様の機能を実現しようとしたら、用いるクラウドサービスを1つの会社のものに統一するか、異なるクラウドサービス間で個人情報を含むデータを連携(共有)させる仕組みを導入しなければならない。しかし昨今は、「クラウドサーバ上に個人情報を置くだけでも危険」という風潮もあるだけに、クラウド間連携による生成AI実装はハードルが非常に高いだおろう。


 繰り返しだが、Apple IntelligenceはAppleだからこそできる生成AIなのだ。


 しかし、Apple Intelligenceは他社の生成AIとは競合しないと筆者は考えている。どうしてなのか。


 まず、Apple Intelligenceは、あくまでも製品の使いやすさや機能性を高めるための存在だ。汎用(はんよう)性の高いAI(いわゆる「AGI」)を実現するための競争に加わった訳ではない。あるいは、LLMの大規模化を進めて、AIに人間みたいな振る舞いをさせるためでもない。


 そうしたことを試したい人向けに、AppleはSiriを通して外部のLLMに質問できる仕組みも用意している。具体的にはOpenAIと連携し、Siriから「ChatGPT」をシームレスに呼び出せるようにしている。


 LLMには、医療関係の情報に詳しいものもあれば、法律に詳しいものもある。PCにおけるブラウザエンジンの切り替えと同じように、必要に応じて好きなモデルを選べばいいのだ。


 繰り返しになるが、Appleはデバイスのメーカーである。 デバイスの価値を高めるために言語モデルを開発したわけであって、その先は自由にユーザが選ぶべき――そういう発想に基づいている。


 唯一、Apple Intelligenceと競合しそうなのが、Microsoftが「Copilot+ PC(新しいAI PC)」向けに実装する予定の小規模言語モデル「Phi Silica」くらいだろう。ただ、Apple IntelligenceとPhi Silicaには大きな違いもある。


 Apple Intelligenceのオンデバイス言語モデルは、約30億パラメーターであることが公表されている。Phi Silicaの約33億パラメーターと比べるとやや小規模だが、Appleは「テストでより良い成績を挙げている」と主張している。


 違いはパラメーターの数よりも、むしろ処理方法にある。「オンデバイスではあふれてしまう処理を、クラウドに投げてしまおう」という発想は、Phi Silicaにはない。


●当初は「米国英語」のみ 「日本語」はいつサポートされるのか?


 Apple Intelligenceは、2024年秋に製品版がリリースされる「iOS 18」「iPadOS 18」「macOS Sequoia」において実装される。


 ただし、Appleは利用できるデバイスを制限しているため、上記のOSが稼働する全てのiPhone、iPadやMacでApple Intelligence使えるわけではない。また、上記OSの開発者向けβ版は既に配信が始まっているものの、現状のβ版にはApple Intelligenceが実装されていない。


 さらにいうと、Apple Intelligenceの正式実装は2024年末予定で、その時点では言語は米国英語のみをサポートする見通しだ。他の主要言語への対応は、2025年以降となる。「主要言語」には日本語も含まれているものと思われるが、具体的な時期は明らかになっていない。この機能を日本国内で提供するためには、日本国内あるいは比較的近い外国にデータセンターを置く必要があると思われるが、その計画についても不明だ。


 Appleは今後、継続的に新しいAI機能を開発し、Apple Intelligenceに追加していくという。また、ChatGPT以外の外部生成AIとの連携機能の開発も進めていくという。


 果たしてApple Intelligenceは受け入れられるのか――今後の展開に注目だ。


    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定