Appleが6月9日(米国太平洋夏時間)、開発者向け会議「World Developers Conference(WWDC) 2025」の基調講演を開催した。講演ではまず、同社の持つ全OSについて、2025年にリリースするものはバージョン番号を「26」に統一するという発表を行った。つまり、主に使われる西暦の下二桁に合わせるということだ。
もっとも、macOSも含めたバージョン統一は、ここに来て「Appleエコシステムの統合」を果たすことができたからという意味合いも大きい。起源を同じくする「iOS」と「iPadOS」は元々近しい存在だったが、独自の進化の軌跡をたどってきた他のプラットフォーム向けのOSも、共通の技術基盤やユーザーインタフェース(UI)、画面デザインの下で作り直されている。
●最新のGPUを前提に作り直された「Liquid Glass」がもたらす体験
新しいOSを通して見ると、新しいUIデザイン「Liquid Glass」と、AppleのAI「Apple Intelligence」の2つはAppleの全製品を“横串”で貫く中核となっていることが分かる。一方、WWDC 2024で初披露された「Personal Context AI(複数アプリにまたがる背景情報を元にしたAI機能)」と「On-Screen Context(アプリ画面をSiriに共有した上でのアシスタント機能)」の2つについては言及がなかった。
|
|
まずLiquid Glassについて少し詳しく見ていこう。
最新のGPUを前提に作り直された「Liquid Glass」がもたらす体験
Liquid Glassは、元々「visionOS」向けにデザインされた空間にガラスを配置したようなコンピューティング体験を、全OSに横展開したものだ。もちろん、新しいデザイン言語として横展開に当たっての再設計も施されている。
技術的にはリアルタイムでガラスの光学シミュレーションを行い、コンテクスト認識した上で表示内容が変化し、重ね合わさる要素によって変化する多層構造の視覚表現が行われる。
Liquid Glassは静止画で見ても美しいが、その「気持ちよさ」や「操作感」は動画でなければ伝わりにくい部分もある。以下、各要素について掘り下げよう。
|
|
エッジに丸みあるガラスを通じた光の変化をシミュレート
Liquid Glassにおける半透明/透明の両方の要素を持つガラスのような素材感は、GPUアクセラレーションを活用した高度なレンダリング技術により実現されている。
周囲の光の反射や屈折をリアルタイムで計算し、デバイスの傾きや環境光センサーからの情報を統合することで、物理世界と調和する視覚表現を生成している。またボタンやウィンドウのエッジは、液体の表面張力を感じさせる丸みがあり、そうした部分も見え方に反映されている。
この技術は、アップデートされたグラフィックスAPIの「Metal 4」で定義された新しいレンダリングパイプラインと密接に連携し、バッテリ持続時間を犠牲にすることなく実現しているという。
コンテクスト(表示内容)を認識して表示が変化
|
|
実際のLiquid Glassを目にした時に感じる、これまでにない豊かな表現力はユーザーのコンテクスト(表示内容)に応じて動的に変化することによる部分も大きい。ここでは、Apple Siliconに統合されたNPU「Neural Engine」の推論演算能力が生かされているという。
例えばiOSのロック画面では、時刻表示が壁紙の内容(被写体)を認識し、その周囲に流れるように配置される。これは「Core ML」を活用した画像認識と、新しいレイアウトエンジンの組み合わせにより実現されている。
全プラットフォームに共通したデザインの実装
もちろん、各OS(プラットフォーム)におけるLiquid Glassの実装はデバイスの特性に最適化されている。雰囲気や使い勝手、品位はそろえつつ、デバイスの特徴を生かすことも忘れていない。
例えばiPhone(iOS)では、3D効果による没入感が重視されている一方で、Mac(macOS)ではデスクトップ上に重なる多様な要素を多層構造で表現している。Apple Watch(watchOS)ではコンパクトな画面での視認性向上を重視しており、Apple TV(tvOS)では大画面での映画的表現を高めている。
それぞれのデバイスが使われる場面の文脈に応じた最適化が施されているのだ。
●「Apple Intelligence」は“深化”を追求
Apple Intelligenceは、AppleのAI戦略の中核を成す包括的なシステムだ。OpenAIの「ChatGPT」やGoogleの「Gemini」は、デバイスの“外”にあるネットワークサービスであるのに対して、Apple Intelligenceはデバイスの中に集まる情報をAI技術で整理し、デバイスを通じて利便性を提供することに重きを置いている。
今回のWWDCでは、Apple Intelligenceのアップデートもアナウンスされた。
Apple IntelligenceのAIモデルをサードパーティーに開放
WWDC 2025における“目玉”の1つとして、アプリ開発者に対するApple Intelligenceで使っているAIモデルの開放が挙げられる。
Apple Intelligenceは、複数のAIモデルを組み合わせているが、特に完全オンデバイスのモデルを利用できるようになることで「応答性の削減」「オフライン動作の保証」「プライバシー保護」を実現できる。
AIモデルは「Foundation Modelsフレームワーク」を通して利用可能で、開発者は自分のアプリにAI機能を統合しやすくなる。
プライベートクラウドコンピューティングの利用
WWDC 2024では、Apple Intelligenceの特徴として「プライベートクラウドコンピューティング」が発表された。これはより大規模なAIモデルが必要とされる場合に使われるもので、「暗号化」「匿名化」そして「一時的な処理」という3つの原則を徹底していることが特徴だ。
ユーザーデータは端末上で暗号化され、分割してサーバに送られる。そして処理が終わると即座に削除される。この設計により、クラウドの計算能力を活用しつつも、プライバシーを完全に保護することが可能となっている。
プライベートクラウドによるAI処理は、「Automation(オートメーション)」や新しい「Spotlight(スポットライト:検索機能)」から明示的に利用可能になる。
定番アプリにも「AI機能」をより深く統合
WWDC 2025で発表された各OSには、その場で逐次通訳/翻訳を行う「Live Translate(ライブ翻訳)」という機能が加わる。
ライブ翻訳機能の実装に当たっては「音声認識」「自然言語処理」「音声合成」という複数のAI技術を統合し、各アプリの機能として実装している。
例えば「Messagae(メッセージ)アプリ」では、会話スレッド全体の履歴から文脈を考慮した上で適切な翻訳を提供する。「FaceTimeアプリ」のリアルタイム翻訳キャプションは、オンデバイスならではの低レイテンシーを維持しながら、高精度な翻訳を動画コミュニケーションの中で実現する。そして「電話アプリ」での音声読み上げは、自分が発話した言葉を相手の言語でリピート発話する機能で(逆方向も可)、相手の話し方のニュアンスを文脈で保持しながら逐次通訳してくれる。
●各OSの改良ポイントをチェック
ここからは、WWDC 2025で発表された新しいOSの改良ポイントを紹介していく。
iOS 26
「iOS 26」は、特に多くの改良が施されているが、電話アプリの「通話スクリーニング」と「保留アシスト」は携帯電話としてのiPhoneの利便性を大きく向上させるものだ。
通話スクリーニングは、未登録電話番号からの発信に対して呼び出し音を鳴らさずにiPhoneが自動的に着信を取り、発信者の音声パターンと履歴データから迷惑電話か否かを高精度で判別する。
迷惑電話でないことを確認すると、初めてユーザーを呼び出し、ロック画面上で発信者の要件を(文字起こしされた内容の要約で)表示してくれる。これにより、ユーザーは実際に電話を受けるかどうかを判断しやすくなる。
保留アシストは、長時間の待ち時間が発生する通話発信(ユーザーサポートなど)において、保留音の変化を検出してオペレーターにつながったタイミングを正確に通知してくれる機能だ。オペレーターには「現在保留中である」ことと、「すぐにユーザーがつなぐ」ことを自動的に通知してくれるという。
また、iOS 16で新規導入された「Visual Intelligence(ビジュアルインテリジェンス)」も進化している。撮影したスクリーンショットを通して画面上のあらゆるコンテンツに対して、適切なアクションを提案する。例えばチャットやSNSなどで「これいいよ」と紹介されたアイテムを探したり、そのまま購入したりといったことも可能になる。
この機能は、テキスト認識と画像分析を行った上で、ユーザーが求める文脈を識別した上で意図を予測することで実現している。
iPadOS 26
「iPadOS 26」は今回、筆者に最も大きな驚きをもたらしたアップデートだ。何に驚いたかというと、macOSに近いマルチタスク機能と、マルチウィンドウシステムの導入だ。
従来の「Stage Manager」での実績を基に、タブレットに向いた直感的で柔軟なマルチタスキングとマルチウィンドウ環境を実現している。ウィンドウのサイズ変更と配置は、ジェスチャーベースの操作とキーボードショートカットの両方に対応し、ユーザーの作業スタイルに適応する。
ウィンドウ管理やキーボード、トラックパッドからの操作はmacOS譲りで、両方を使っている人なら違和感なく利用できるだろう。
またマルチウィンドウ対応に伴い「メニューバー」も導入された。アプリの機能へのアクセスを標準化し、macOS用アプリのiPadOSへの移植や、ユーザーによる併用を容易にしている。
また「ファイルアプリ」の大幅な強化を通して、ファイル管理の方法がmacOSに近くなった。これにより、柔軟で複雑な文書のやりとりも容易になった。
macOS Tahoe 26
Mac向けの「macOS Tahoe 26」のアップデートも、かなり大型だ。
まず分かりやすいポイントとして「iPhoneとの連携」がさらに強化されている。macOS上でも「Phone(電話)アプリ」が動作するようになり、iPhoneと通話履歴や連絡先が同期され、全ての通話機能がMacからシームレスに利用できる。
検索機能の「Spotlight(スポットライト)」と、自動化機能の「Automation(オートメーション)」も大きく変わる。
ファイル/フォルダー/イベント/アプリ/メッセージなど、あらゆる種類の検索結果が、ユーザーとの関連度に基づいて“賢く”順位付けした上でまとめて表示されるようになる。
また、PDFやメールなど特定のアイテムをすばやく絞り込むための新しいフィルタリングオプションも追加された。
さらに、「App Intents API」を通してSpotlightから電子メールの送信やメモの作成、ポッドキャスト再生といった数多くのアクションをを通じて行えるようになる。検索の結果見つかったファイルに対して、サードパーティーのアプリが直接処理可能なアクションをSpotlightから実行可能だ。
また、ユーザーの使い方を学習し、検索結果に対して次のアクションを提案する他、「Quick Key(クイックキー)」という欄に短い文字列を入れると、その文章指示によってファイル操作を実行できるようになる。
ショートカットは、作文ツールのテキスト要約やImage Playgroundでの画像生成など、Apple Intelligenceのモデルを自動処理の中に組み込める。
visionOS 26
Apple Vision Pro向けの「visionOS 26」では、ウィジェットの空間配置が可能になった。
例えば音楽再生のウィジェットを棚の上に配置し、視線で指定してタップすると再生したりできる。棚に時計を配置することも可能だ。
またユーザーをデジタル化し、その表情なども仮想的に伝える「ペルソナ機能」にも大きなアップデートがあり、ペルソナを数秒で作れるようになった。表情の変化も従来よりも自然になった。これは、機械学習アルゴリズムの進化と、深度センサーデータの高度な処理により実現されているという。
加えて、同じ部屋にいる別ユーザーとの間で、空間体験の共有が可能になった。この機能はローカルネットワーク上での高速データ同期と、複数デバイス間での座標系の統一により実現されているといい、同じ映像作品を同じ位置のスクリーンで同時体験できるようになる。
映画やゲームを同時体験することはもちろんだが、この機能はビジネスユーザーも活用できる。例えば物理的に同じ空間にいるユーザー同士が仮想オブジェクトを共有し、共同作業を行うことが可能になる。
基調講演では言及されなかったが、「Scroll Lock(スクロールロック)」という機能も斬新だ。Safariで画面の端に視線を置くだけで、ジェスチャーなしに画面スクロールさせることができる。
watchOS 26
Apple Watch向けの「watchOS 26」は、Apple Watchをより賢く、よりパーソナルなデバイスへと進化させるために歩みを進めた。
端的にいうとAI機能を組み込もうとしているのだが、中でも大きな進化なのが「Workout Buddy(ワークアウトバディー)」だ。この機能は、ユーザーの過去のワークアウトデータ/心拍変動/回復状態を総合的に分析し、パーソナライズされた励ましやアドバイスを送ることができる。ワークアウトを始める前にユーザーを適切に励まし、ワークアウト中の指示も行う。「Fitness+」(日本未対応)を通じたワークアウトなら、そのシナリオに沿ったアドバイスも送る。
また、一部のApple Watchではフリックのジェスチャーを手首を動かすことで可能となり、片手操作の幅を広げている。加速度センサーとジャイロスコープのデータを機械学習モデルで処理し、意図的なジェスチャーと偶発的な動きを高精度で区別しているという。
個人的にはワークアウト用のプレイリストを自動生成してくれる機能に期待したい。意外に自分で編集するのは面倒なものだし、ありもののプレイリストでは変化がないものだ。
「CarPlay」もより使いやすく
「CarPlay」にも新UIたるLiquid Glassが適用されるが、機能面の改良が多岐にわたっている。
従来、着信の通知は全画面で行われていたがコンパクト化され、ナビゲーションなどの画面表示が隠れなくなった。「着信のタイミングで分岐路を見逃した」といった問題が解消される。
さらに、CarPlayにもウィジェットが導入され、一目で素早く情報を確認できるようになる。これはワイド画面化や高精細化などの流れの中で、より多くの情報を適切にレイアウトするために役立つだろう。
加えて、iOSにおける「ライブアクティビティ」も利用できるようになる。例えば家族を空港に迎えに行く時にフライト状況を表示させるなど、運転中でも重要な最新情報をチェックできる。その上で、ユーザーが運転に気を散らさないよう配慮されている。
このUI変更は、5月に最初の対応モデルが発表された「CarPlay Ultra」にも適用される。
●懸念される「パーソナルコンテキスト」の行方
実際に新OSのアップデートを目にして使ってみると、見た目だけではなく、さまざまな振る舞いも洗練されていることが分かる。全プラットフォームで統一感のあるユーザーと、デバイスのインタラクションが実現されている。
これはAppleが以前から得意とする「エコシステム戦略」をより深化したもので、UIを作り直すことで“新たなステージ”に入ったといってもいい。各デバイスが独立して機能するのではなく、相互に連携し、ユーザーがどのようにデバイスを利用しているのか、その文脈に応じて最適な体験を提供しようとしている。
その象徴たるLiquid Glassは、その“中身”と複数デバイスをまとめた際の“体験の質”が重要な鍵を握る。ここまで幅広いデバイスの統合を進めると、競合他社が模倣することは困難だ。これだけの幅広いデバイス向けにOSを開発している競合が存在しないからだ。
今回のイベントでも、AppleがAIを「機能の呼び出し」ではなく「日常的に使うアプリの利便性を高める」文脈で使おうとしていることは伝わってくる。しかし、2024年にアナウンスされながらも、まだ回答がない要素もある。
1つは「パーソナルコンテキストAI」だ。特にパーソナルな情報が集まるスマートフォン(iPhone)では、アプリをまたいでデバイス内の情報を収集し、的確なアドバイスを行うAI機能は有益だ。1年前にはそのデモも披露していたのだが、今回のイベントではきちんとしたアナウンスができていない。とても気になる。
もう1つ、2024年にアナウンスされた機能としてAIモデルからアプリの画面デザインへとアクセスできるようにするAPIがある。「On-Screen Context」と呼ばれていたものだが、こちらもほとんど言及されていない。果たして、広範かつ異なるアプリにまたがるパーソナルコンテキストのAI機能は実現できるのだろうか……?
盛りだくさんのWWDC 2025の基調講演だったが、今後の取材でさらに深い情報を探っていきたい。
|
|
|
|
Copyright(C) 2025 ITmedia Inc. All rights reserved. 記事・写真の無断転載を禁じます。
掲載情報の著作権は提供元企業に帰属します。
Switch2「悪質出品」が続々(写真:TBS NEWS DIG)131
Switch2「悪質出品」が続々(写真:TBS NEWS DIG)131