AIの進化に未来が見えた「Google発表会」まとめ

2018年5月15日更新

米・Google社の開発者向け会議「Google I/O 2018」が5月8~10日に開催され、新サービスなどが多数発表されました。AIの進化によってアップデートされた機能を中心に、今回の「発表会」で明らかにされた新機能や新技術をピックアップして紹介します。

開発者会議「Google I/O 2018」

Google CEOのSundar Pichai氏は、現実社会の課題解決のために、何を創り出すのかに広い目で注意しながらもイノベーションを進めるべきだと7,000名を超えるユーザーが集うカリフォルニア州マウンテンビューで開催中の開発者向け年次イベントGoogle I/O 2018において、AIを推し進める構えを示した。

めざましい進化を遂げたGoogleのAI

AI技術を取り入れたアクセシビリティの向上

Googleのスンダー・ピチャイCEOもやはり基調講演の冒頭で、「テクノロジーによる人々の生活へのインパクトが増しており、Googleには責任がある」と語りました。同社はミッションとして「世界の情報を整理し、情報を誰でもいつでもアクセスできる有用なものにする」ことを掲げていますが、ピチャイさんはAIのおかげでそれがもっと可能になったと言います。
4月に発表した、同時に話している人の声を分離して字幕をつける機能を例に挙げて、一般の人にはもちろん、聴覚障害の人のために役立つと語った後、もう1つの例として、体の障害で話すこともキーボードなどでの入力もできないタニア・フィンレイスンさんと共同開発した「Gboard」のモールス信号入力機能を紹介しました。

YouTubeの自動字幕機能 複数の音声を識別

Google I/Oの基調講演にてGoogle AIを利用した次世代の音声解析のデモンストレーションが行なわれました。
一例として提示されたのがYouTubeの自動字幕機能。これまでは、複数が同時に発言すると、この画像のようにそれぞれの言葉が混じって解析されてしまい、チグハグな会話になってしまいました。
お互いの声を聞き分け、議論が白熱していようとも発言者ごとに字幕を生成してくれるというわけです。

Google独自の第3世代プロセッサ「TPU 3.0」

機械学習に最適化したプロセッサ「TPU(Tensor Processing Unit)」は第3世代「TPU 3.0」になり、性能は先代の8倍になったとしている。「あまりにもパワフルになったのでデータセンターに初めて液体冷却システムを導入しなければならなくなった」とピチャイ氏が語った。

重大バグ?「ハンバーガー絵文字の具材順問題」をCEOが謝罪

この問題は、2017年10月末に発覚したもの。「Andoirdのハンバーガーの絵文字ではチーズの位置が具材のなかで一番下になっているがおかしいのではないか」と指摘されたことから、全米のネットを巻き込む議論に発展しました。
会場ではこの「ハンバーガー絵文字問題」を伝えるニュース番組の映像がスクリーンに映し出されると、客席から大きな笑いが起きました。さらに、同じくおかしいと指摘されていた「グラスの半分ぐらいしか注がれていないのに飲み口部分から泡があふれているビールの絵文字」も修正したことを発表。今度は会場から歓声が巻き起こるなど、大きな盛り上がりを見せる一幕となりました。

「Google I/O 2018」で発表された新機能

Google Assistant

新たに6つの声が選べるように

音声合成技術の進化により、新たに6つの声が選べるようになる他、著名ソウルシンガーのジョン・レジェンド氏の声も加わるとのこと。さらに自然で継続的な会話のやりとりや、複数の質問を含む問いかけに対応する。最近日本でも提供開始した「ファミリーリンク」によって13歳以下の子供の利用が可能になったことを受け、丁寧な言葉遣いを促す機能も追加されるという。
2018年のCESで発表されたスマートディスプレイに加えて、スマートフォン向けのGoogleアシスタントでも、よりビジュアルを用いた体験を強化。
2018年夏には、Googleマップのナビゲーションと並行して、Googleアシスタントが利用可能になる。

AIを活用した通話機能「Google Duplex」

人間のアシスタントのごとく電話で希望する日時や人数を伝え、予約を取ってくれる。さらに予約内容はそのままGoogleカレンダーに記録されるという。紹介されたムービー内での電話のやりとりはごく自然で、相手がGoogleアシスタントだとは絶対に気付かないレベル。しかも遠い未来の話ではなく、この夏から早くもテストを開始する予定という。
電話を通じた自然な通話を作り出しタスクを行うコンセプトでまだ道半ばとしながらも、Google AI Blogにはヘアサロンへのアポイントやレストランの予約をスムーズな音声で実現するサンプルが掲載されている。

この新機能について、早くも倫理的懸念の議論が起きています。

ハッシュタグをツイッター(Twitter)に初めて導入した製品デザイナーのクリス・メッシーナ(Chris Messina)氏は、「グーグル・ デュープレックスはグーグルの今年の開発者向け会議#IO18において、最も素晴らしい、恐るべきものだ」とツイッターに投稿。
世界経済フォーラム(World Economic Forum)第四次産業革命センターでAIと機械学習プロジェクトを率いるケイ・ファース・バターフィールド(Kay Firth-Butterfield) 氏は、グーグル・デュープレックスは重要な開発であり、人をだまして人間だと思い込ませることのできる機械に対し、その適切な管理方法を把握する必要性を緊急に示していると語った。

Smart Displays

Google アシスタントが動作するスマートディスプレイを今年7月から販売すると発表しました! なお日本での発売は未定です。
実は今年1月に開催された「CES 2018」にて、スマートディスプレイ製品自体はいくつか発表されていました。まずデモで披露された上の製品は、Lenovo(レノボ)が販売する「Smart Display」。8インチモデルが199ドル(約2万2000円)、10インチモデルが249ドル(約2万8000円)で販売される予定です。
その他にも、JBLは8インチディスプレイを搭載した「Link View」を投入します。またLGからも製品発売が予定されていますよ!

Lenovo「Lenovo Smart Display」

Harman「JBL LINK View」

LG「LG ThinQ Google Assistant Touch Screen Speaker WK9」

Android P

Androidのエンジニアリング担当副社長のデイブ・バーク氏は基調講演で、Android Pの新機能を「Intelligence(知力)」「Simplicity(シンプルさ)」「Ditigal wellbeing(デジタルでの健康)」の3つの視点で紹介した。

AIを採用した“Intelligence”を持つ機能たち

Googleが独自開発するAIを活用した「Adaptive Battery」「 Adaptive Brightness」「App Actions」「Slices」といった機能が紹介された。

バッテリーの消費改善機能「Adaptive Battery」。

Adaptive Battery:よく使うアプリの処理を優先→バッテリー持ちを改善
「Adaptive Battery」は、Googleが2014年に買収したイギリスDeepMindと共同で開発した技術。よく使うアプリに優先して電力供給を行う(処理リソースを割く)一方、利用頻度の少ないアプリへの電力供給を抑えることでバッテリー持ちを改善する。

画面輝度を自動調整する「Adaptive Brightness」。

Adaptive Brightness:画面輝度の調整状況を学習→自動調整に反映
「Adaptive Brightness」は、従来から多くの端末に備わる画面輝度の自動調整機能に機械学習を組み合わせたもの。ユーザーによる輝度スライダーの「動かし具合」とその時の周囲の状況を合わせて記憶することで、輝度の自動調整に反映させることができる。

ユーザー行動から「次」をオススメする「App Actions」。

ユーザーの行動から次に起動するアプリやサービスを自動で勧める機能。公式ブログでは「イヤフォンを本体に接続すると、Spotifyのお気に入りプレイリストが表示される」という例が説明されている。
この機能はホーム画面の他、テキスト選択画面、Google Play、Google検索/Googleアシスタントの画面で有効となる。

Google検索からアプリのアクションを実行する「Slices」。

「Slices」は、Google検索から別アプリのアクションを表示できる機能。
従来のGoogleアプリでは、端末内のアプリ検索は可能だったが、その先のアクションはアプリ名をタップして起動しないと行えなかった。しかし、Slices対応のアプリでは、アプリのアクションを検索サジェスチョンの一部として表示可能で、アプリ起動後の操作が一部省ける。

“Simplicity”の新デザイン「new system navigation」

Android Pに使われる基本のデザインは、新しいGmailなどでも使われているフラットデザイン。Googleが提唱する「マテリアルデザイン」の新しいバージョン、マテリアルデザイン 2です。
スマートフォン以前の携帯電話に対するスマートフォンの大きな特徴の一つとして、マルチタッチによる直感的な操作が挙げられる。Android Pでは、その特徴をより活かせる新しいシステムナビゲーションを導入、ジェスチャーを使って効率的にホーム画面を操作できるようにした。それに伴って、Androidの象徴的なユーザーインターフェイスだった3ボタン (戻るボタン、ホームボタン、マルチタスクボタン)が廃され、ホームボタン1つにまとめられた。

スマホ利用状況の改善に取り組む機能「Digital Wellbeing」

グーグルは新バージョンのAndroid Pで、自分がスマートフォンやアプリをどのような頻度やパターンで利用しているのかを集計するダッシュボードを用意し、アプリごとに日々のアプリ使用時間の上限を設定し、通知する仕組みを備えた。たとえばユーチューブは1日2時間まで、と決めたら、1時間に近づいたら通知してくれる。
また夜になって就寝する前のスマホについても、就寝時間になると自動的に画面をモノクロ化するWind Down機能を用意する。グーグルによると、テクノロジー使用のバランスを取りたいと考えている人は7割に上り、Android PでOSとして、スマホ利用状況の改善に取り組む機能を備えることになった。

発表当日に「Android P(β版)」をリリース

Androidさん(@android)がシェアした投稿 -

同日、Android Pのβがリリースされた。インストールできるのは、GoogleのPixelの他、ソニーの「Xperia XZ2」、Xiaomiの「Mi Mix 2S」、Nokiaの「7 Plus」、Oppoの「R15 Pro」、Vivoの「X21」、OnePlusの「OnePlus 6」、EssentialのPH-1」。公式サイトから入手できる。

また、ガジェットに精通しているEngadget日本版が、実機を使用したβ版へのアップデート手順や変更点をいち早く紹介しています。

Gmail

文章入力支援機能「Smart Compose」

Smart Composeでは、文章を少し入力すると、AIが候補の文章を提示し、提示された内容をTabで確定していくことで、文章が完成する。関連する文脈のフレーズを提案することも可能で、例えば、金曜日であれば、文末に「素晴らしい週末をお過ごしください」といったフレーズを提案するという。
Googleは、Smart Composeによって、つづりや文法上の誤りを減らしつつ、メールの作成に費やす時間を節約するのに役立つとしている。
スマートコンポーズ機能は、2018年4月に提供された新しいGmail利用者向けに、今後数週間でローンチされる。加えて、今後数か月間以内に、G Suiteのユーザーにも提供されるという。

Google Maps

個人の好みに適したお店などをオススメする機能などを追加

レストランなどを探す際に自分の好みとどれくらいマッチしているかをAIがスコア化しておすすめしてくれる機能が追加。その他、いくつかのお店のリストを作成し、それを友達にシェアすることも可能に。シェアした情報をマップ上で確認し合って、どのお店にするかを一緒に選ぶこともできる。Google Mapからのワンタップでのお店の予約にも対応した。これらの機能は夏以降にiOS、Android双方にて提供予定となっている。

ARナビゲーション機能も

目的地の近くまで来てGoogleマップを開いても、自分がどこの方向を向いているかを把握できない場合がある。しかし、今回発表されたARナビゲーション新機能では、スマートフォンのカメラをかざすと、映し出された周囲の映像の上に、建物の情報や道路の名前、目的地までのルートなどがオーバーレイ表示され、ユーザーが現在地を把握でき、目的地に容易にたどり着けるようになる。ARキャラクターが目的地まで案内するアニメーションも表示可能。

Google Lens

Google Lensは、カメラに写ったものをAIが認識し、様々な情報を表示したり文字をテキスト情報として読み込んだりといったことができる機能。これまでは、一度撮影したものをGoogleフォトに取り込むことでその機能が使えていたが、いよいよリアルタイム認識に対応することが今回発表された。

文字を認識してリアルタイムに翻訳

たとえば海外のレストランでメニューを見ても内容がわからない時、Google Lens対応のカメラをメニューにかざすと、リアルタイムに翻訳してくれたり、料理の写真を表示してくれたりする。読み込んだテキストはそのままコピー&ペーストすることも可能だ。

写ったアーティストの楽曲再生も

服やカバン、靴などにカメラを向けると、類似したアイテムをレコメンドしてくれる「Style Match」という機能も紹介された。照明などにカメラをかざすと、おすすめの照明カバーを検索してくれたりもする。そのほか、建物や動物にカメラを向けると、ビル名だったり、犬種だったりを知ることができる機能や、アーティストのポスターにかざすとそのアーティストの楽曲のYouTubeが再生されるといった使い方もできる。

Google Photos

写真に応じて最適な処理を提案

GoogleフォトのAI機能としては、写真を表示するとユーザーが見たいとAIが予測する関連する写真をサジェストする機能、机上の書類の写真を撮影するとそれをPDFに変換する機能、写真の目的対象にだけ色をつけたり、モノクロ写真をカラーにする機能などを紹介。いずれも数カ月後に使えるようになる見込み。
新機能では、例えば暗く写った写真を表示すると「Fix brightness」というボタンが中央に表示され、それをタップするだけで写真を明るく補正できる。人物が写った写真の場合、「Share 3 photos to Lisa」といったボタンが表示され、写っている人に写真をワンタッチで共有できる仕組みだ。印刷された文書を撮影した写真の場合は「fix document」というボタンが現れ、自動的に四角く補正したうえでPDFファイルに変換する機能も備わる。
モノクロ写真を表示した場合は「Colorize」というボタンが表示され、タップするとAIが被写体を判断して写真に色を付けることも可能。

Google News

アプリを使うたびにパーソナライズ化

新しいGoogle Newsは、デスクトップ版およびモバイル版の「Google Play ニューススタンド」および、モバイル向けの「Google ニュースと天気」アプリを置き換えるものとなる。
今回の刷新では新たなAI技術の活用により、ニュース記事のさまざまな人や物事、場所がどう関連するか、ニュースに対する反応や影響がどういうものかを理解するのに役立つとしている。
新しいGoogle Newsのローンチは、米国時間8日から順次開始される。Android、iOS、デスクトップ版が提供され、今後127カ国で利用できるようになる予定。

Wear OS by Google

スマートウォッチOSも進化

これまでのWear OSのアシスタントは、せいぜい質問に答えてくれるくらいの機能しかありませんでした。が、新しいWear OSのアシスタントは質問に答えたのち、的確なサジェスチョンを示してくれるようになっています。
そしてアシスタントの進化はサジェスチョンにとどまらず、様々なアクションが可能になっています。ロボット掃除機を起動したり、電車の時刻表を確認したり、株価のチェックなんかもできちゃうぞ。それも、スマートウォッチ単体で。

Waymoの自動運転技術

降雪をノイズと認識して処理

Googleから派生して今はAlphabetの子会社となったWaymoの自動運転技術が、GoogleのAIを活用する事でさらなる進化を果たしました。完全無人運転を実現するための「知覚力」と「行動予測力」が向上し、さらなる安全性を実現。また、従来は難しかった雪の中の運転も、AIでノイズを除去することによって実現。