「Apple Intelligence」でできること 英語版を使って見えた、次世代「AIアシスタント」の実力

1

2024年11月21日 11:11  ITmedia NEWS

  • 限定公開( 1 )

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

写真

 米Appleは10月28日に、iPhone・iPad・MacのOSを刷新し、Apple Intelligenceを正式公開した。


【画像を見る】Apple Intelligenceを日本で使ってみた(ただし英語版)【全22枚】


 ただ現状はアメリカ英語のみでの公開となっており、日本語など他の言語では使うことができない。


 実際にどんなことができるのか? どんな制約があるのか? 実際に英語で長期間使ってみたので、その感想をお伝えしたい。


 日本語対応は、早くとも2025年4月以降。同じような機能が使えるようになるはずだが、その時に思いを巡らせながらお読みいただきたい。


●言語は「English」設定で。iPhoneからMacまで利用可能


 Apple Intelligenceを使うにはいくつかの条件がある。動作対象機種については、あえて後述する。その上でまず最新のOSにアップデートし「言語」の設定を「English」にする。OSの設定内に増えた「Apple Intelligence & Siri」という項目から登録し、しばらくすると使えるようになる。現状は、日本語設定のままでは利用できない。


 Apple Intelligenceには多様な機能がある。特定の機能ではなく、Apple製品に搭載されるAI関連機能の総称、といったところだ。


 実際には、Apple Intelligence枠で入っているAIとそうでないAIがあり、「そうでないAI」は過去から利用できたものだったりする。


 ただ、Apple Intelligence枠なのに「実は日本でも使える」ものがあったり、機能の一部はApple Intelligenceではなく、そこからの応用はApple Intelligenceだったりと、多少混乱しやすいところはある。


 とはいえ、これは予定されている機能・言語対応が一通りそろうまでのことであり、この先では「Apple製品で動いているAIはみんなApple Intelligence」というようなくくりになっていくのだろう。そのくらい、いろんなところにAIを機能として組み込んでいこうとしているのが分かる。


 詳細な動作対象機種は本文の最後に譲るが、Apple Intelligenceの特徴は、「同じ機能がMacにもiPadにもiPhoneにも搭載されていること」だ。他社もAIサービスの横展開を進めているが、オンデバイスAIの場合、プラットフォーム共通化が進んでいるAppleが有利、というところはあるだろう。今回も全プラットフォームで試してはいるが、画面を含めた説明自体はiPhoneで行う。


 もう1つの特徴は、Apple Intelligenceと名がつく機能の場合、提供される機能のほぼ全てがオンデバイスAIによる処理、ということだ。プライバシー重視故の選択で、利用情報はクラウドに蓄積されることがなく、AIの学習にも利用されない。


 例外的に自社の閉鎖型クラウドである「Private Cloud Compute」を使うことはある。ただそれも負荷が大きい処理に限られているし、一般的なクラウドAIとは性質が異なる。


 そのため、同じAppleアカウントで利用されているMac・iPad・iPhoneの間でも、「AIの利用状況や学習結果は共有されない」。あくまでデバイスごとのものとなる。しかし、メールにしろ写真にしろ、同じ個人なら共通の情報はMacにもiPhoneにもあるだろうから、「同じ内容から学習したAIは、同じような結果を返す」ことになり、大きな問題は生まれない……という立て付けになっている。


●Siriが「もっと話しやすい相手」に


 では実際に機能を見ていこう。


 ビジュアル的に一番目立つのは「Siriの変化」だ。従来は丸いボールが表示されていたが、Apple Intelligence後には「画面の周囲が虹色」で表されるエフェクトになる。


 英語での対話はより滑らかになった。発声が良くなった、という話ではない。それよりも、「考えながら話しかけても答えてくれやすくなった」というべきだろう。


 人間は意外とちゃんと話していないものだ。考えがまとまらなくて言いよどんだり、「えーっと」などと挟んでしまったりするものだ。


 最近の音声アシスタントはその辺にも一定の配慮はしているのだが、「すみません分かりませんでした」といわれることも、間違った動作をしてしまうこともまだ多い。


 Apple Intelligence版のSiriは、さらにその辺に強くなった。


 「んー、いいディナーの店を知りたいんだけど……、東京の……、渋谷駅あたりで。シーフードがいいかな」くらいの語りかけを(もちろん英語で)やっても、ちゃんと認識してくれる。


 ちょっとしたことだが、音声だけでなくタイプでも使えるようになったのは大きい。呼び出す時は画面下部のバー(ロックを外す時にスワイプする白いもの)を2回タップすればいい。


●意外なほど便利な「要約」


 次に特徴的なのが「要約」だ。メールやiPhone上での通知をまとめて表示してくれる。


 このうち、通知の要約表示はうまくいかなかった。


 というのが、普段日本語で使っているアプリやメッセージのまま、UIだけ英語にして使っていたためだ。通知の内容が英語でないとうまく働かないため、通知の要約や、「パーソナルコンテクスト」と呼ばれる、個人の活動履歴を活用したSiriの機能は、完全に便利さが分かるところまで使えていない。アメリカの反応を見る限り、まだまだ発展途上のようだ。それに、活動履歴の蓄積も当然必要だろうから、この辺が「便利」といえるまでにはまだしばらくかかるのではないか、と思う。


 メールやiMessage本文の要約はシンプルだ。


 本文の一番上に「Summarize(サマリーを作る)」ボタンが出てくるのでタップするだけ。英語のメールであれば要約を作ってくれる。この時、何度かリプライを重ねたメールだった場合、リプライの内容も含めて「これはどんな会話か」という形で要約が作れる。日本語のメールの場合には要約が作られない。


 メールなどの要約機能はGoogleのGeminiにもあり、Gmailで試すことができるのだが、要約の内容・分かりやすさでは、若干Apple Intelligenceの方が勝るように感じた。


 これは確かに、日本語で使えるようになれば便利だろう。


 文章を書くための「Writing Tools(作文ツール)」もある。


 これは基本的に、「テキスト情報のある場所ならどこでも機能」する。


 以下の画像は、Xアプリの上でティム・クックCEOのポストを「よりくだけた感じ」で書き直してもらったものだ。英語がネイティブでない筆者の目からの理解だが、十分な品質であるように思う。


 文章を要約したり内容を「公的な感じ」にしたりと、いかにも生成AIが得意そうな内容だ。


●日本でも使える「クリーンアップ」


 「Photos(写真)」アプリにもいろいろな機能が搭載される。


 シンプルだが便利なのが「検索を自然文で行えること」「動画の中の1コマまで検索対象になること」だ。


 例えば「海辺にあるボート(boat at seashore)」と検索すると、そういう写真だけが出てくる。


 以前からある程度できてはいたが、より複雑な言葉の組み合わせでも出てくるようになっている。


 日本語でも使える機能もある。「クリーンアップ」がそれだ。


 これは写真から一部を選んで消す機能。GoogleがPixelに「消しゴムマジック」と呼んで搭載している機能に近い。


 精度はGoogleの方が良いと感じるが、消したいであろう対象を最初から選んでくれることなど、UI的にはこちらにも面白さがある。


 以下は消す前と消している最中、消した後の画像。見比べてみていただきたい。


●機能実装はまだまだこれからが本番


 これら機能を紹介してみたが、まだまだ発展途上の感は拭えない。どれも完璧ではないからだ。


 Siriはもう少しこちらの意図を読んでほしい。「Photos」の自然文検索も、探せないものがまだかなりある。初期のβ版に比べ、少し賢さが落ちたのではないかという気もする。


 未搭載の機能も多い。


 画像生成を行う「Image Playground」アプリ、ラフスケッチや周囲の文章から関連性の高い画像を生成する「Image Magic Wand(画像マジックワンド)」、オリジナル絵文字を作る「Genmoji(ジェン文字)」、写真や画像の中身を把握して働く「Visual Intelligence」などは、「年末までに」搭載とされている。


 面白い機能はむしろこれから搭載されていくという印象だ。


●プロセッサもメモリも増強。だから今秋のApple製品はお買い得


 最後に動作環境を確認しておこう。


 Apple Intelligenceは、iOS 18.1/iPadOS 18.1、そしてmacOS Sequoia 15.1から利用できる。


 iPhoneの場合には「iPhone 15 Pro」シリーズと「iPhone 16」「iPhone 16 Pro」シリーズが対象となり、それ以外の機種では使えない。


 MacはM1搭載以降、すなわちAppleシリコン搭載モデルが全て対象で、Intel CPU搭載機種では使えない。


 iPadの場合、Appleシリコンのうち「M1以降」を搭載した機種、もしくは最新のiPad mini(A17 Pro)搭載の機種が対象だ。


 すなわち「M1以降のAppleシリコン」もしくは「A17 Pro以降のAppleシリコン」を搭載した製品だけで使える、と考えればいいだろう。


 これらのプロセッサの共通点は、「AIの推論をカバーするNeural Engineを搭載している」ことと、「8GB以上のメインメモリを搭載している」ことだ。前述のような機能は複数のAIモデルを併用しており、しかも、処理を基本的にデバイス内だけで行う。処理の多くはNeural Engineに分散されるが、その分メインメモリへの負担は上がる。


 Macについては10月末に発売された新機種と、M2/M3搭載のMacBook Airについて、メインメモリの量を最低16GBに増やした。Macはいまならメモリ8GBでも「ギリギリなんとかなる」感じだったが、Apple Intelligenceを使うようになると本格的にメモリ不足になってくる。そうすると倍のメモリを搭載していくのが妥当……という結論に至ったのだろう。


 Apple Intelligenceの機能はまだ発展途上だ。日本語が使えないだけでなく、本命と思える機能もまだ「年末までに提供」という段階である。


 しかし別の考え方もある。Apple IntelligenceのためにAppleがスペックを盛り始めたので、今秋の製品はちょっとお買い得である……ともいえるわけだ。


 その辺を考えながら、ご自身が使う機材の更新を考えていただきたい。



    ランキングIT・インターネット

    前日のランキングへ

    ニュース設定