Google I/O 2021基調講演まとめ

0

2021年05月19日 12:32  ITmedia NEWS

  • チェックする
  • つぶやく
  • 日記を書く

ITmedia NEWS

写真 マウンテンビューのGoogleキャンパスから配信された
マウンテンビューのGoogleキャンパスから配信された

 米Googleは5月18日(現地時間)、2年ぶりとなる年次開発者会議「Google I/O」をオンラインで開催した。基調講演で発表されたことを時系列で簡単にまとめる。なお、開発者向け基調講演は別途行われており、「Flutter」や「ARCore」などについては基調講演では触れられていない。



【その他の画像】



 最初に登場したスンダー・ピチャイCEOは、パンデミックでGoogleにできることに注力してきたとし、Google検索でのワクチン接種サイトの紹介など、正確な情報の提供に取り組んできたと語った。



●Google Workspaceの「smart canvas」



 コロナ禍でリモートワークが増えた企業向けに、ビジネス向けグループウェアサービス「Google Workspace」(旧G Suite)の新機能が紹介された。



 「smart canvas」は、Workspaceでドキュメント、スプレッドシート、スライドを柔軟に、インタラクティブに使う“体験(エクスペリエンス)”。例えば数カ月中にスプレッドシートに登場する「smart chips」は、@でメンションするだけでタブを変えずに関連するファイル、ミーティング、関連ドキュメント、関わっているユーザーを追加できる。



 WorkspaceのWeb会議サービス「Google Meet」には、共同編集中のドキュメント、スプレッドシート、スライドをMeet上に表示できるようになる。



●自然な会話のためのAI言語モデル「LaMDA」



 「LaMDA」(Language Model for Dialogue Applications)は、あらゆる話題について自然で自由な会話をできるAIを目指す言語モデル。従来のチャットボットのように特定の話題について訓練されたものと異なり、LaMDAは対話相手の発する言葉から会話の流れを解析して会話のテーマを把握し、適切に会話を続けられる。



 基調講演では、冥王星や紙飛行機として相手と会話する例が披露された。例えば紙飛行機になっているLaMDA搭載ボットに「どうしたら一番いい紙飛行機が作れるの?」と聞くと「一番いい、の意味は長く飛べる、まっすぐ飛べる、丈夫、などの意味がありますがどれを指しますか?」と確認し、「長く飛べる」と答えると翼を広くするなどの方法を説明する。



 LaMDAは現在、テキストによる会話を中心に開発されているが、将来的には動画や音声など、他の要素にも拡張していくとピチャイ氏は語った。基調講演では、YouTubeで「夕方ライオンが吠える場面を見せて」と言うと動画を早送りして該当するポイントを表示する例が紹介された。



 最終的にはGoogle検索やGoogleアシスタントとの会話に組み込まれる可能性がある。



●TPU v4



 2016年のGoogle I/Oで披露されたオリジナルの機械学習向けプロセッサ「Tensor Processing Unit」(TPU)の次世代モデル「v4」を発表した。ピチャイ氏によると、現行の「V3」の2倍以上の速度という。



 間もなくTPU v4をGoogleのデータセンターの多くで採用し、年内にはクラウド顧客にも提供する計画。



●量子コンピューティングの進捗



 量子コンピューティングについては、カリフォルニア州サンタバーバラに開設された専用ラボQuantum AI Campusを訪問した俳優、マイケル・ペーニャ氏の質問にラボのリサーチサイエンティスト、エリック・ルセロ氏が答える形で紹介された。



 ルセロ氏は低温保持装置に設置された量子ビットコンピュータを紹介し、安定した量子コンピューティングの実現のための取り組みについて説明した。同社は10年以内にエラーが修正された量子コンピュータを構築することを目指しているという。



●プライバシーとセキュリティについて



 Google検索での過去15分の検索履歴を削除する「Quick Delete」機能、Googleフォトの大事な写真(カード番号が表示されているものなど)を保存し、パスコードでロックできる「Locked Folder」、Googleマップのタイムラインから特定の履歴を削除する機能、Chromeでのパスワードマネージャー機能などが紹介された。



●検索アルゴリズム「MUM」(Multitask Unified Model)



 「MUM」(Multitask Unified Model)は、複雑な疑問に「専門家のように答えられる」ことを目指す新しい検索アルゴリズム。同社の自然言語処理モデル「BERT」同様にTransformerアーキテクチャ上に構築されているが、BERTの1000倍強力という。MUMは日本語を含む75の言語と多数のタスクで同時にトレーニングされており、以前のモデルより情報を包括的に理解できる。



 基調講演では、「先日アダムス山に登ったけど、秋に富士登山を予定している。どんな準備が必要?」という質問に、「富士山はアダムス山と標高はほぼ同じだが、秋は雨が多いので防水ジャケットが必要」などと答えるデモが披露された。MUMはWeb全体から関連する動画、記事、画像を集めて表示する。また、「この靴で登山できそう?」と自分の靴の写真を示すと、判断してくれる。富士山についての情報は日本語でのものが多いが、MUMは言語を超えて検索し、最も関連性の高い結果を提示する。



 MUMの実用化は数カ月から数年中としている。



●検索結果のAR表示に大坂なおみさんのプレイなど



 モバイルのGoogle検索の一部の結果をARで表示する機能は2019年からあるが、新たにスポーツ選手によるプレイの動画が加わる。例えばプロテニスプレーヤーの大坂なおみさんのサーブを、リアルなテニスコートで表示したりできる。



●Googleマップの新機能



 主にAIによる新機能が紹介された。



 3月にも紹介されたが、ARナビ「Live View」を一部地域の空港や駅などの屋内でも利用できるようになる。東京では6月から利用可能になる見込み。1月に紹介済みのマップでの詳細情報表示も再度紹介された。



 リアルタイムで、混雑しているエリアを確認できる機能も追加する。



 また、時間帯や自宅の近くかどうかに合わせて表示するスポットを変える機能も追加する。例えば平日の午前8時に開くとコーヒーショップが表示され、夕方ならレストランが、旅先では観光スポットが表示される。



 これらの機能は向こう数カ月中にAndroidおよびiOS版のモバイルアプリで展開していく。



●Google ShoppingにShopifyが参加



 Google ShoppingでもAIを採用し、例えば欲しいイスをスマートフォンで撮影すると、Googleフォトの写真にLensで検索するようサジェスチョンが表示され、検索すると似た商品が表示され、すぐに購入できるようになる。



 また、現在一部のYouTuberと動画に映っている製品を購入する機能をテスト中だ。



 こうした検索結果からの購入先として表示されるのは、「ナレッジグラフ」ならぬ「ショッピンググラフ」に登録されている小売業者だ。



 Googleは米eコマースプラットフォームのShopifyがショッピンググラフに参加したことも発表した。Shopifyには170万以上の業者が登録している。



●Googleフォトの「Little Patterns」



 モバイル版Googleフォトには「思い出」コーナーがあり、ここには「最近のハイライト」「1年前」など、AIがまとめたスライドショーが表示される。ときには頻繁に撮影する人のまとめや「海」などのテーマのスライドショーも勝手に表示される。この「思い出」に今夏、形や色などが同じ物体が映っている写真が3枚以上あると、それをスライドショーにする「Little Patterns」が加わる。例えば、お気に入りのオンレジ色のバックパックが写っている写真から、そのバックパックで旅した様々な写真がスライドショーとして表示される。



●Android 12



 次期モバイルOS「Android 12」の一般向けβ版は同日リリース。専用サイトから一部のスマートフォンにダウンロードできる。



 Googleによると、世界のAndroid端末は3億台を超えたという。



 Android 12では、新たなデザイン思想の設計言語「Material You」によってデザインが大きく変わる。



 Android 12の新機能などについては別記事を参照されたい。



●「Wear OS」のアップデート



 ウェアラブルOS「Wear OS by Google」は韓国Samsung Electronicsの「Tizen」と統合した新しいプラットフォームになり、Samsungは次期「Galaxy Watch」でこの新OSを採用する。



 新OS(正式名称はまだ不明)には傘下のFitbitのヘルスケア関連機能も搭載される。



 FitbitのCEOは「将来、Wear搭載のプレミアムスマートウォッチを開発する」と語った。



 Wear OSについては別記事を参照されたい。



●画像認識のヘルスケアでの応用について



 同社の最高ヘルスケア責任者であるカレン・デサルヴォ博士は、医療における画像認識について語った。パンデミックで思うように診察を受けられない乳がん患者のレントゲンを画像認識でスクリーニングする例を紹介した。



 また、AIを利用する皮膚科支援ツールのプレビューを紹介した。スマートフォンのカメラで腕の発疹などを撮影し、Webアプリに投稿し、発症時期や症状について記入すると、AIモデルが類似する症状の情報を提示する。診断したりアドバイスするのではなく、信頼できる情報へのアクセスを提供するというスタンスだ。



 このツールは3年以上の研究の集大成。多様な年齢、性別、人種、肌のタイプの約6万5000点の画像と症例データ、数百万の概念画像を使ってモデルを開発した。



 このツールのテストには専用サイトから参加を申し込める(本稿執筆現在、日本からも可能だ)。



●まるで目の前にいるような動画チャット「Project Starline」



 パンデミックで会えない相手と、まるで近くにいるような3D映像で会話できる動画チャットプロジェクト「Project Starline」も発表された。



 相手の等身大の3D映像が特別なディスプレイに表示され、あたかも目の前に座っているかのように見える。



 コンピュータビジョン、機械学習、空間オーディオ、リアルタイム圧縮の研究の成果という。



 現段階では、特殊な装置が必要だ。この装置はGoogleの複数のオフィスに設置されており、既に数千時間のテストを実施した。年内に企業顧客と試験的に提供する計画。



●持続可能な新キャンパス



 Googleは2030年までに年中無休でカーボンフリーになるという目標を掲げている。その目標達成のための取り組みの一環として、マウンテンビューに新キャンパスを構築していると発表した。



 新キャンパスの建物は9万個のソーラーパネルと約7メガワット生成可能なソーラースキンを備える。北米最大の地熱杭システムを内蔵し、これが冬には暖かく、夏には建物全体を冷やすという。



 基調講演はYouTubeで視聴可能だ。


    ニュース設定