Googleの「動画内のモノを認識するAPI」で、今後変わること。

Googleがついに、動画内のモノを認識する機械学習のAPIを公開した。

詳しくない人のために説明すると、APIとは「外部への機能提供」のことだ。
会社のホームページやぐるなびで、埋め込み地図に「GoogleMap」が使われているアレのことである。
(これはGoogleMapの「WebAPI」という表現になる)

さて、このAPIが発展すると、どのようにわれわれの環境が変わるのか。

まずは動画の「レコメンド機能」の質が格段に上がる。
あらゆる動画内のモノを認識できるようになるからだ。

あなたが見た動画の中で、「共通するもの」をおすすめすされるようになる。
例えば、ネコ動画が好きなひとでも「一匹じゃなくてたくさん出てくる」とか「モノで遊んでいる」みたいな細かい情報を拾えるようになるのだ。

また、動画を「検索可能」になる。
「今も検索できるじゃないか」といえばそうなのだが、検索の対象が「動画タイトル」や「説明」から、「動画の中身そのもの」になる。

ユーザーはよりダイレクトに動画を探すことが可能になる。
「イチロー」で検索すれば、タイトルにイチローがなくてもイチローが映っている動画にたどり着くことができる。
コレはとてもいいことで、今までは見つけることができなかった動画を探し出すことができるようになるのだ。

そして、「検索結果」の質も向上する。
検索の対象が動画そのものになるので、タイトルや説明にだまされることがなくなる。

YouTubeを見ていて、”サムネ詐欺”に合ったことはないだろうか?
「コレだ!!」と思った動画が、フタを開けてみると「文字が流れるだけの動画」だったり、「異常に画質が低い動画」であったことはないか?

今後、そんなフザけた体験とはおさらばできる。

なぜなら、「動画の内容」を直接検索するからだ。
「堀北真希」で検索したのに、堀北真希が映っていない動画は検索結果に出てこない
文字だけの動画や、画質が低くて機械に認識されないような動画は淘汰できるのだ。

最後に、行き着く到達点としては動画と(動画を含めた)他の情報が”ハイパーリンクでつながる”ようになる。
動画そのものが、Wikipediaのページのようになるイメージだ。

モノを認識するようになれば、関連する情報へとリンクを結びつけることはさほど難しいことではない。
関連する動画と結びつけてもいいし、映画の「聖地巡礼」のようなビジネスに結びつけても構わない。

さて、以上バラバラと適当に論じてみたが、ユーザにとっては基本的に「いいことづくめ」であると思ってもらってかまわない。

AIやロボットが仕事を代行してくれるので、我々人間は今後ヒマになるのだ。
そんなヒマをつぶすのに、動画はうってつけだ。
多くの人が流れるでろう動画プラットフォームを適正化するのは、実は非常に大切なことなのだ。

今日(米国時間3/8)、サンフランシスコでスタートしたカンファレンスでGoogleは新しい機械学習APIを発表した。
このAPIはビデオ中の対象を自動的に認識し、検索可能にする。

新しいVideo Intelligence APIを利用するとデベロッパーは ビデオから対象物を自動的に抽出する能力を備えたアプリを開発できる。
これまで画像認識APIはクラウド・サービスでのみ利用でき、しかも多くは静止画だけを対象にしていた。
しかしGoogleのAPIを使えばデベロッパーはユーザーがビデオを検索して情報を引き出すようなアプリを開発できる。
つまりflowerやdogなどのキーワードでビデオを検索できるようになる。

ビデオ中のエンティティの抽出に加えて、このAPIはシーンの転換を認識し自動的なタグづけを可能にする。

ただしビデオそのものはGoogleクラウドに保管されている必要がある。
-Google、ビデオ中の対象を認識する機械学習API公開―Cloud Next 2017
(http://jp.techcrunch.com/2017/03/09/20170308googles-new-machine-learning-api-recognizes-objects-in-videos/)

コメントを残す

メールアドレスが公開されることはありません。