AppleがAIで出遅れても“後追い”で十分な理由、iOS 26は新デザインでAndroidとの差別化が明確に

11

2025年06月13日 12:21  ITmedia Mobile

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia Mobile

Appleは、WWDCの基調講演でiOS 26などの最新OSを発表した。ここでは、その狙いを解き明かしていく

 米Appleは、6月9日(現地時間)に開発者向け会議WWDCの基調講演を開催した。例年通り、ここでは各デバイスに搭載される最新OSが発表されている。それぞれのバージョンが年号で統一され、次期iOSは「iOS 26」になる。同日から、デベロッパー用のβ版が配布されており、7月にはパブリックβも登場する見込みだ。正式版は、秋に登場する。


【その他の画像】


 iOS 26は、他のOSと統一したデザインの「Liquid Glass」を採用しているのが特徴だ。単純なデザイン変更ではなく、iPhoneならではの強みを生かしたユーザーインタフェースになっており、Android陣営との差別化も図りやすい点は強みになる。その一方で、発表直後からAIの出遅れ感を指摘する声も相次いでいる。


 確かに、一部の機能はAndroidの後追いになっている他、AIモデル自体の大幅なアップデートも発表されていない。Open AIやGoogleが次々と新しいAIモデルを投入しているのとは、対照的だ。ただ、AppleのビジネスモデルやApple Intelligenceを投入した目的を考えると、こうした指摘はやや的が外れているような印章も受ける。その理由を解説していきたい。


●「Liquid Glass」が映し出す、AppleならではのUI戦略


 Appleは、それぞれのデバイスに搭載されるOSのナンバリングを、「26」に統一した。バージョンがバラバラになっていたのを刷新したことで、いつ登場したOSかが判断しやすくなった。この背景には、初めて全てのOSでデザインを統一したことがある。「Liquid Glass」と呼ばれるUI(ユーザーインタフェース)がそれだ。iOS 26も、このLiquid Glassを元にデザインされている。


 Glassという名の通り、ボタンやメニューなどのパーツが半透明になり、背景にあるコンテンツが見えるようになった。そのUIが、操作に合わせて変形していく。Glassの前に、液体を意味するLiquidとついている理由だ。このデザインによって、コンテンツがより際立つようになった他、操作も直感的になっている。ユーザーのやりたいことを妨げないUIといえそうだ。


 単純なデザイン変更と思われがちだが、筆者には、Liquid GlassにAppleの立ち位置が色濃く反映されているように見えた。半透明で背景が見えるといっても、本物のガラスではないため、プロセッサが常時、背景に合わせて見え方を演算して映像を作り出している。しかも、それが動くと、瞬時に再計算が必要になる。端末のパワーが必要になるというわけだ。


 これができるのは、iPhoneがハイエンド端末だけしかないからだ。2025年2月に登場した「iPhone 16e」は、その価格からミッドレンジに分類されることもあるが、プロセッサは他のiPhone 16と同じ「A18チップ」。処理能力は非常に高く、スマホの中ではトップクラスの性能を誇る。価格のバリエーションはあるものの、iPhoneにはエントリーモデルやミッドレンジモデルはない。


 そのため、Liquid Glassのように負荷がかかりそうなユーザーインタフェースを採用しやすい。これがAndroidだと、プロセッサのバリエーションは多岐にわたる。Qualcommだけでも、Snapdragonは4シリーズから8シリーズまである。Snapdragon 8シリーズではしっかり動いても、Snapdragon 4シリーズだとカクカクしてしまうというのでは、OS共通のデザインとして採用するのが難しい。


 言い換えるなら、自社でプロセッサの設計を手掛け、それを自社の端末に搭載し、かつプレミアム帯の端末にだけに限定されているAppleならではのデザインになっているということ。iOSのUIは模倣されやすいが、Liquid Glassのような仕掛けは単純にキャッチアップするのが難しい。Android陣営との差別化になるといえる。


●“後追い”と指摘されるAI機能、Siri開発の遅れという課題


 UIの刷新で注目を集めたiOS 26だが、Apple IntelligenceをよりOSの各機能に浸透させていったのも、注目のトピックの1つだ。2025年4月に日本語対応したばかりのApple Intelligenceだが、iOS 26では電話やメッセージに機能が拡大する。電話は、スクリーニング機能に対応。登録していない電話番号から電話がかかってきた際に、AIがいったんそれを受け、相手が名乗った際に着信音を鳴らして応答するかどうかを判断できるようになる。


 AIが保留の状態を判断して、iPhoneから離れることができる機能にも対応する。コールセンターなどに電話し、保留状態で待たされている際に、常にiPhoneを耳に当てておく必要がなくなり便利だ。ライブ翻訳にも対応し、電話アプリやFaceTimeで通話した際にお互いが話す言語を翻訳することが可能になる。iPhone側が処理を行うため、相手の端末は問わない。


 メッセージでは、やりとりされている中身をAIが判断し、それに合った機能を提案。スマホとしてのベーシックな機能が、AIによって底上げしている。また、ビジュアルインテリジェンスは、画面内の検索に対応。SNSで表示した写真から同じものを売るサイトを検索したり、ChatGPTにそれが何であるかを解説してもらったりといったことが可能になる。ジェン文字には、複数の絵文字を組み合わせたり、ChatGPTに描画を依頼したりする機能が追加される。


 Apple Intelligenceを幅広く標準アプリに広げていくAppleだが、これらが目新しい機能かというと、必ずしもそうではない。電話のスクリーニングや保留の判断などは、GoogleのPixelシリーズが売りにしてきた機能。Androidスマホ全体で使えるわけではないが、新味に欠けるのも事実だ。ビジュアルインテリジェンスも、Androidの「かこって検索」の後追いに見えるし、音声通話の翻訳も、1年以上前から「Galaxy AI」に実装されていた。


 また、1年前のWWDCで予告されていたSiriの機能向上は、今回も搭載が見送られている。Siriのアップデートは、iPhoneに蓄積したユーザーのデータを参照して、よりパーソナライズされた回答を返すようになるというもの。これにより、アプリ間連携も可能になる予定だった。単に調べたいことを回答するだけでなく、よりエージェント的にふまえるようになるはずだった。


 一方で、AppleはSiriのアップデートを延期しており、現時点でもApple Intelligenceに同機能は搭載されていない。WWDCの基調講演では、ソフトウェアエンジニアリング担当シニアバイスプレジデントのクレイグ・フェデリギ氏が「Appleの高い品質基準を満たすには、時間が必要だった。詳細は今後1年でお知らせできる」と語っており、導入が延期されていることを認めた。当初の想定よりも、開発が難航していることがうかがえる。


●株価や評判では分からない「Apple Intelligence」の真の狙い


 こうした一連の発表を受け、AppleがAIの開発で出遅れているという指摘も出ている。少なくとも、株式市場では基調講演開幕直後に株価が大きく下落。本稿を執筆している6月12日時点でも、株価の下落が続いており、WWDC開幕前の1株206ドル(約2万9600円)から、約199ドル(約2万8600円)まで低下してしまった。時価総額にすると、1000億ドル(約14兆円)を超える。


 実際、iOS 26に搭載されるAIは他社の後追いが多く、Siriの改善も計画が大きく遅れている。AIモデル自体の大幅なアップデートもなかったことから、日進月歩以上の速さで性能を向上させているOpen AIのChatGPTやGoogleのGeminiなどと比べ、サプライズは少なかった印象だ。この点では、開発者向けイベントをほぼGeminiに集約させ、Androidのアップデートは別イベントに譲ったGoogleの方が一枚上手だった。


 とはいえ、こうした批判や株価の動きは、やや過剰反応にも感じられる。Open AIやGoogleと比べると確かにAIモデルの開発は進んでいないが、Appleは、それを直接的な売り物にしているわけではない。また、Apple IntelligenceはクラウドAIも活用している一方で、その比重はオンデバイスAIに置かれているため、端末の性能向上とも歩調を合わせる必要もある。


 Apple Intelligenceは、あくまでiPhoneをはじめとした同社製品に採用されるAI。AIモデルを開発して、それを幅広い企業や個人に使ってもらい、収益を得るというビジネスモデルはない。あくまでハードウェアが売れてナンボということだ。他社にキャッチアップしていれば十分という見方もできる。


 Siriも改善が遅れているのは事実だが、端末内に蓄積したパーソナルデータを学習して、アプリをまたがって連携するという機能を完璧に実現しているスマホはまだ存在しない。Geminiのアプリ連携はそれに近いものの、対応しているアプリは限定的。ユーザーの情報をしっかり把握しているわけでもないため、毎日使う機能になっているかと聞かれれば答えはノー。事実としてSiriの開発は遅れているが、どこかが突出して進んでいるわけでもない。


 WWDCでは、Apple IntelligenceのFoundation Models frameworkでApple Intelligenceを開放し、開発者がアクセスできるようになったことも発表されたが、むしろこちらの方がiPhoneやiOSの将来にとって重要な印象を受けた。App Storeのエコシステムを広げることができるからだ。しかも、クラウドAIと違って処理がiPhone内で完結することもあり、料金は無料だ。


 iOS 26が登場した際には、これを組み込んだ多数のアプリが登場することも期待できる。Apple Intelligence対応のiPhoneはまだまだ少ないが、今後の端末では標準搭載になっていくことが予想されるため、数は膨大になる。OSの新機能とは異なり、一般のユーザーには地味な発表に見えるが、次のiPhoneに向けての“仕込み”は着実に進んでいるようだ。株価の動きとは裏腹に、iPhone自体がAIアプリの巨大なプラットフォームになることを予感させる。



このニュースに関するつぶやき

  • Appleは基本的に技術不足だよ、優秀なエンジニアにだいぶ前に去られてしまった。技術の発展を妨げる面倒な制限が多すぎんだよ。ま、技術的に3-4年くらい後ろだよ。
    • イイネ!0
    • コメント 0件

つぶやき一覧へ(9件)

ランキングIT・インターネット

アクセス数ランキング

一覧へ

話題数ランキング

一覧へ

前日のランキングへ

ニュース設定