ホーム > mixiニュース > IT・インターネット > IT総合 > 情報収集、自動撮影&編集、バーチャルアナ……近い将来、AIがテレビ現場すべてを支配する!?

情報収集、自動撮影&編集、バーチャルアナ……近い将来、AIがテレビ現場すべてを支配する!?

5

2019年11月22日 11:17  RBB TODAY

  • チェックする
  • つぶやく
  • 日記を書く

RBB TODAY

写真「AIと放送の未来 〜 AIを活用した様々放送事例とSpecteeが見据える未来の放送のカタチ」
「AIと放送の未来 〜 AIを活用した様々放送事例とSpecteeが見据える未来の放送のカタチ」
 メディア&エンターテインメント総合展示会「Inter BEE」では、Spectee代表取締役CEOの村上建治郎氏によるセミナー「AIと放送の未来 〜 AIを活用した様々放送事例とSpecteeが見据える未来の放送のカタチ」が行われ、同社のSNSリアルタイム緊急情報速報サービス「Spectee」をはじめとする、放送業界におけるAIの活用事例が紹介された。



■位置情報がなくても、その投稿が“どこ”か分かる!?

 「Spectee」ではTwitterやFacebook、Instagramなど、SNSに投稿された情報を自動解析。事故や自然災害などの緊急情報を抽出し、それらをタグ付けしたうえで、マスコミ各社や自治体などに配信している。元々は2011年の東日本大震災の際、ツイッター上に被災情報や支援要請の投稿が数多く上がっているのを見て、それをまとめようと始めたサービスだ。

「Twitterには国内だけでも1日に約5億ツイートの投稿があります。それを人が24時間チェックするのは難しいですし、いろいろなキーワードから情報を抜き出すのも容易ではありません。こういう仕事はAIにやらせるのが一番なんです」(村上氏)



 なお、SNSには画像や動画も投稿されるが、そこに映っているものも自動で認識しているという。会場では火災現場の動画を利用したデモが行われていたが、消防車や煙、火などが、それぞれAIによって認識されていた。村上氏によると、他にも土砂崩れ、河川の氾濫、事故なども識別できるという。



 近年ではプライバシーポリシーの厳格化によって、投稿された画像に位置情報が添付されなくなったが、「Spectee」では過去を含めた投稿者の投稿を検索。数分前に利用したとされているお店を調べ、大雨が写っている写真と気象情報を照合するなどして、その投稿の位置情報を推測するという。過去の投稿から、その投稿者の現住所を推定することもあるようだ。画像に標識が写っていたとしたら、そこにピンがあっていなくても解析し、地名データベースとマッチングするというから、ある意味で恐ろしくすら思えてくる。

■京アニ放火事件を発生5分で認識、発信していた



「台風19号では10月12日から13日にかけて、台風関係として4019件の情報を配信しました。その件数は深夜0時にピークを迎えましたが、これは多摩川が氾濫した時間です。さらに、翌2時頃には千曲川の堤防が決壊しましたが、深夜の時間帯にもSNSにはいろいろな投稿があがっています」(村上氏)

 深夜に撮影スタッフを急行させて、現場の様子を撮影するのは難しい。その点で時間を問わずに現地の写真や映像を拾えるのは、SNSの強みだと村上氏は話している。



 さらに、情報発信のスピード感においても、SNSはテレビ局と一線を画している。今年7月に起きた京都アニメーション放火事件では、事件発生から約5分後には火災発生の第一報が「Spectee」で配信され、約11分後には現場が京都アニメーションだと判明していたという。ちなみに、NHKがニュース速報を発信したのは、事件発生から50分後のこと。それまでには48件の投稿を、SNSから関連情報として抽出・配信していたというから、そのスピード感の違いは明確だ。

 なお、このセミナーの間にも、「第一報 西鉄天神大牟田線 踏切事故との情報 西鉄柳川駅から徳増駅」とのアナウンスが、「Spectee」が導入された村上氏のパソコンから発せられた。音声による読み上げがあるため、いちいち画面を見ていなくても情報収集できるというのは、スピード感が求められる報道の現場では嬉しい機能だろう。

 SNSの投稿となると、その正確性が気になるところだが、「Spectee」ではデマ対策にも力を入れている。デマを投稿する人が意図的に使う単語や文脈をデータベース化して、投稿とマッチング。また、投稿に貼り付けられた画像についても、デマのものはネット上にあるものを転載していることが多いため、類似しているものがないか検索しているという。もちろん、各SNSのユーザーIDのブラックリスト化も行っているようだ。


■オバマ前大統領の“存在しないスピーチ”も作成できる



 村上氏によると、テレビ業界においてAIがサポートできるのは、何も情報収集に限ったことではないという。例えば、同社ではAIアナウンサー「荒木ゆい」というサービスを展開しているが、このようなバーチャルヒューマンもAIの領域だ。

 「荒木ゆい」はディープラーニングによって、過去に放送された番組内などでのアナウンサーの音声データを学習。それを真似て、あたかも人が話しているように原稿を読み上げる。「2-1」という表記について、それが住所なら「にのいち」、サッカーのスコアなら「にたいいち」と読み分けるのも、AIならではのスキルだ。

 なお、「荒木ゆい」はVチューバーのようにイラストで描かれたキャラクターだが、実在する人物の映像を合成して、あたかも話しているような映像を作成することもAIがあればできるという。もちろん、その声もAIが学習して、そっくりに再現することが可能だ。



 こうした技術は「ディープフェイク」と呼ばれ、すでに我々の目に見えるところにも、その映像は姿を現しているという。例えば、ワシントン大学の研究チームがYouTubeに投稿した動画では、オバマ前大統領のスピーチをAIが学習して、その姿も、声もそっくりなフェイクスピーチを公開している。

■撮るべきもの、放送すべきシーンをAIが判断する



 撮影や編集といった領域にも、AIは進出しつつある。
 イスラエルのPixellot社が開発したのが、無人撮影カメラの「Pixellot」だ。サッカーコートやスケート場などを、4つのレンズでくまなく撮影して、その映像を合成。そのうえで、AIが選手の行方などを認識しながら、どこを映すべきか、どこにズームすべきかを自動で判断するという。つまり、現場にカメラマンやディレクターがいなくても、カメラを設置するだけでスポーツ中継ができるというわけだ。



 そして、試合が終わったあとの映像編集も、AIの仕事になる。全米オープンやウィンブルドン選手権など、テニスの試合では「IBM Watson」と呼ばれるAIが、選手の動作、観客の反応などを分析。最も盛り上がったシーンを判定して、それをダイジェスト映像として発信している。

「かつてテレビではプロ野球だけ中継して、その結果をニュースで流せばよかったですが、今は多種多用なスポーツの情報が求められています。また、東京オリンピックは全339種目ありますが、そのすべてを中継するのは大変です。映像の消費スタイルが変わって、ゴールデンタイムに家族がそろって視聴するのではなく、一人一人が好きな時間に観るようになりました。通勤時間にスポーツ中継を見たいとすれば、その時間は長くて30分程度。そこにいい感じのダイジェスト映像があれば、『観てみようかな』ということになるわけです」(村上氏)



 フジテレビ「めざましテレビ」では、お天気コーナーで「AI天気」というコーナーを展開している。これは、ライブカメラの映像を解析して、「コート着用率」といった服装診断を行うもの。こうした画像や映像の解析はAIが得意とするところで、「放送分野ほどAIを活用できる現場はない」と、村上氏は話している。

 SNSからの情報収集において、AIはすでに実用レベルでの活躍を見せている。さらに、撮影、編集、配信と活用範囲を広げて、いつかはテレビ番組をAIだけで制作・発信する日が来るのかもしれない。


【Inter BEE 2019】待ったなしのラジオ経営!? 「Inter BEE」のセミナーに見た業界の現状
【Inter BEE 2019】SNSの情報をいかに判別するか?マスコミで導入進む分析・収集ツール
【Inter BEE 2019】TBS、音声認識AI×文字起こしの新しい取り組み紹介

このニュースに関するつぶやき

  • 番組の企画と出演こそAIにやって貰いたい。ついでに視聴もAIにやってもらう。
    • イイネ!0
    • コメント 0件
  • 反日が作り左巻きが見るだけのテレビなら、AIテレビ方がマシだな。 https://mixi.at/ai6CH4z
    • イイネ!8
    • コメント 0件

つぶやき一覧へ(4件)

あなたにおすすめ

ニュース設定