YouTubeが誤ってセキュリティ教育チャンネルを凍結 問われる不正動画自動検出の精度

1

2019年07月06日 07:31  リアルサウンド

  • チェックする
  • つぶやく
  • 日記を書く

リアルサウンド

写真

 世界最大の動画共有サイトYouTubeは、サイトの健全性を確保するために不適切なチャンネルや動画の削除処理を日々実行している。こうしたなか、不適切動画の検出が完璧ではないことを露呈する事件が起こった。そして、この事件の原因を探っていくと、現代社会が直面しているテクノロジーの問題に行きつくのだ。


(参考:YouTubeによる未成年の単独ライブ配信禁止、海外では関連動画機能に疑問の声も


・花火の動画を上げようとしたら……
 テック系メディア『The Verge』は3日、YouTubeのセキュリティ教育チャンネルのアカウントが一時凍結したことを報じた。凍結されたのはSTEM教育の一環としてハッキング技術について解説する動画シリーズ「Cyber Weapons Lab」を公開している動画チャンネル「Null Byte」で、23万人のチャンネル登録者を抱える無名とは言えないチャンネルだ。同チャンネルの制作に携わるKody Kinzie氏は、たまたま花火を打ち上げる動作をアップロードしようとして失敗し、アカウントが凍結されたことに気づいたのだった。


 上記のアカウント凍結に関して、同メディアがYouTubeに問い合わせたところ、スポークスパーソンは誤って不正フラグを立ててしまったことを認め、現在ではアカウント凍結が解除されていると答えた。「わたしたちのサイトにある動画の量が膨大なため、時には間違いを犯すのです」とも語った。


 YouTubeはハッキング等の反社会的な行為を助長する恐れのある動画を違反動画として削除しているが、学術的あるいは芸術的な目的で反社会的行為を取り上げる動画に関しては許容している。しかしながら、過去には白人至上主義に反対する内容の動画が白人至上主義を主張する動画といっしょに削除されたということもあった。


・結局は営利団体
 以上の動画削除騒動に関しては多数のメディアが報じており、専門家の意見も紹介している。US版『Forbes』の記事にコメントを寄せているセキュリティ研究者のChrissy Morgan氏は、YouTubeは何が許容されてどんな動画が共有され続けられるのかに関して明確に示す必要がある、とコメントした。また、動画が削除されても沈黙するしかない無名の動画提供者を懸念している、とも述べた。


 テック系メディア『The Register』は、セキュリティ企業Tripwireの研究開発部門マネージャーであるTyler Reguly氏の発言を紹介している。同氏は「もしYouTubeがカネを払ってくれる広告主を欲しければ、広告主が許してくれるようなコンテンツになるように配慮しなければならない」と述べ、「動画共有サイトは稼ぐためにあるのであって、社会を良くするためにあるのではないことを忘れがちである」とも言った。


 また、YouTubeでセキュリティ関連チャンネルDemmSecを運営するホワイトハッカーDale Ruane氏は、動画のタグやタイトルが削除すべき動画かどうかを判断する材料になっているようだ、と自身のチャンネル運営経験からコメントを寄せている。


・存在すら知られていない削除動画も
 YouTubeは、動画削除の実態について「YouTube コミュニティガイドラインの適用について」という透明性レポートを公開している。このレポートを読むと、同サイトがいかに膨大な数の動画を削除しているかを知ることができる。


 2019年1〜3月に削除された動画チャンネルは約280万チャンネル、削除された動画は約830万本にも及ぶ。興味深いのは、削除された動画のうち75%を超える約640万本が「自動システムによる報告」によって検出されていることだ。前述したセキュリティ教育チャンネルも、自動システムによって検知されたのだろう。このシステムの詳細はレポートには明記されていないが、おそらくは画像認識や自然言語処理のような最新のAI技術が活用されていると推測できる。


・Google「YouTube コミュニティガイドラインの適用について」
 レポートは自動システムによって削除対象と認識された動画のうち、75.7%が視聴される前に削除されていることも報告している。この事実には、内容が不適切な動画が誰の目にも触れずに消えていくという肯定的な側面がある。その一方で、YouTubeがどんな動画を削除したのかを知ることが著しく困難になっている側面もある。削除された動画の大半は、動画制作者とYouTube運営以外にはその存在すら知られることがないのだ。


 削除された動画を確かめようがないことは、自動システムの削除処理を第三者が検証することが極めて困難なことも意味している。YouTubeひいてはGoogleの親会社にあたるAlphabetが掲げる行動規範の結論部分には、あの有名な「邪悪になるな」が明記されている。それゆえ、YouTubeがあからさまな政治目的で自動システムを運営するようなことはまずない。だがしかし、万が一、自動システムが何らかの政治的バイアスにもとづいて動作してしまったら、その誤作動に果たして社会は気づくだろうか。


 以上のようにYouTubeにおける削除動画の一件について掘り下げると、テクノロジーによる管理体制に対する信頼という現代社会が直面している大きな問題に突き当たるのだ。そして、この問題に無関係なユーザはほとんどいないだろう。


(吉本幸記)


このニュースに関するつぶやき

  • AIまかせだとこうなるわな。AIは「仕様だから」で全ての疑問を片付けられるからな。その責任はAIを活用している運営者にあるわけだが、現実問題として補償もしきれまい。
    • イイネ!1
    • コメント 1件

つぶやき一覧へ(1件)

ランキングIT・インターネット

前日のランキングへ

ニュース設定