Infoseek 楽天

Google検索も不要に? 検索AI「Perplexity」がスゴすぎてちょっと怖い

ITmedia NEWS 2024年7月5日 19時16分

 “AI検索”サービス「Perplexity」(パープレキシティ)がスゴい。

 Perplexityは、質問に対してテキストで答えてくれる、チャットbot型生成AIだ。ChatGPTと似ているが、検索に特化しており、「Webの最新情報をベースに検索できる」点が異なる。

 例えば、7月4日時点で東京都知事選(7月7日投開票)の最新状況を聞くと、こんなふうに答えてくれる。

 最新情報をベースに、有力候補4人を抽出した上で、石丸伸二氏が猛追する展開を簡潔にまとめている。

 「ドワンゴの情報流出について今分かっていることを教えて」とも聞いてみた。

 流出した情報の中身について、正確かつ簡潔にまとめている。重要な事項は太字で書かれて分かりやすい。

 こんな調子で、何を聞いても分かりやすく答えてくれる。簡単な単語を使い、箇条書きを交えながら、短い文章で概要をまとめるのがうまい。うますぎて怖いぐらいだ。

●自動で質問を深めてくれる

 Perplexityは、質問を自ら深めて新たな質問を提案してくれるのもスゴい。

 都知事選の質問なら、冒頭の回答の後に

・各候補者の政策主張はどれほどの支持を集めている

・投票率の推移はどのように進んでいる

・各候補者のSNS活動の影響はどれくらい

 といった質問候補を提示し、タップするだけで回答を生成する。最初の質問さえ考えつけば、新たに質問を考えることなく、どんどん知識を深めていくことができる。

●ChatGPTと違い、あんまり間違えない

 生成AIといえば、事実と異なる間違いを提示する「ハルシネーション」が起きることが知られている。

 Perplexityは「誤情報がないように、どの情報ソースが一番的確なのかを解析・判断することで、検索結果の正確性を最優先にしている」とのことだ。

 筆者はPerplexityで何十回も質問を繰り返してきたが、明らかな間違いに遭遇することはなかった。回答の参照元リンクを表示してくれるので、心配なときはリンクからソースを確かめられる。

 反面、ChatGPTはよく間違える。都知事選についての同じ質問を、ChatGPTの最新版「GPT-4o」に尋ねると、こんな回答だった。

 「2024年7月7日に行われる」「候補者は小池百合子氏など」といった正しい情報に混じって、立候補していない山本太郎氏の名前が出るなど、致命的な間違いがある。

 ドワンゴの情報流出については、保有している情報が古いのか、流出内容についての記述は得られなかった。

 他のAIはどうか。Googleの「Gemini Advanced」に都知事選について聞いてみたところ「現時点では選挙または政治家に関する回答には対応できません」と、つれない答え。Googleへは世間の監視の目が強いこともあり、政治的な回答はフィルターしていそうだ。

 ドワンゴの情報流出内容についてはかなり正確な答えが出た。

 MicrosoftのCopilot(旧Bing AI)も試した。都知事選は最新情報を比較的正確に反映しており、Perplexityに近い精度だ。ただ、タイミングによっては「このトピックには応答できないようです」と表示されることもあり、Googleと同様、政治的な内容にフィルターがかかるのかもしれない。

 ドワンゴの流出についてもCopilotの内容は正確だった。ただドワンゴのニュースリリースからの引用が多く「ご心配をおかけしている皆様に深くお詫び申し上げます」など余計な文章が入っているのが気になった。

●Perplexityにも、事実と異なる回答はある(らしい)

 Perplexityは他のAIと比較して文章が読みやすい上、正確性も比較的高いが、間違いはあるようだ。

 米WIREDが自社記事の見出しをプロンプトに入力したところ、誤報を生成したり、犯罪を犯してない人を犯罪者と扱ったことがあったという。他の生成AIと同様、「間違いがあるかもしれない」という前提で使うことが必要だろう。

●Google検索より便利かも?

 Google検索など通常の検索エンジンと比べた時の使い勝手はどうだろうか。例えば「都知事選の情勢」と検索すれば、各社がまとめた動向のニュース記事が表示され、動向を知ることはできる。

 ただこの場合は「記事を選んで読む」というワンステップがはさまる。さらに、各記事は、質問に対するダイレクトな回答にはなっておらず、各社の記事のフォーマットに合わせた書き口なので、不要な情報が挟まってくる。

 例えば、「都知事選の情勢」でトップに出た時事通信の記事は、1つのパラグラフが長い上、難しい熟語を使っていたり、抑揚が薄かったりすることもあり、しっかり読まないと理解しにくい。

 Perplexityの回答は、箇条書きや太字を多用し、パラグラフが短いため読みやすい。リアルタイムに生成される文字を追うエンタメ性もあり、「文章をしっかり読まねば」というプレッシャーを感じずに概要をつかめると感じた。

●ただ乗りAIか? 米メディアが激しく非難

 一方で、Perplexityはメディア記事への“ただ乗り”なのではないか、という批判もある。

 最新情報に正確に回答できるのは、最新情報を取材している高品質な記事をクロールし、参照しているためだ。記者が苦労して集めた情報にただ乗りしていると言える。

 筆者も「これはただ乗りでは?」と不安になる回答に遭遇した。先日、ガザ地区の情勢についてPerplexityで検索したところ、参照元とされたNHKの記事とかなり似た内容が出て戸惑った。

 Perplexityは、信頼できる回答を生成するため、高品質なニュースサイトだけをクロールしていると思われる。その結果、回答は「いろいろな情報をまとめた概要」ではなく、「特定のサイトにかなり似た内容」になる傾向がありそうだ。

 また、WIREDの記事によると、Perplexityは、検索エンジンのクロールを避ける「robots.txt」ファイルを無視したり、検索エンジンに残されたメタデータなどでコンテンツを再構成するなどして、無断でニュース記事をクロールして回答生成に利用しているという。“ただ乗り”した上に、誤情報を生成するとして、WIREDはPerplexityを「デタラメ製造機」(Bullshit Machine)と強く批判している。

●人間はAIとどう付き合う?

 Perplexityの「まとめる力」は驚異的だ。並の記者より読みやすい文章で、知りたいことを簡潔にまとめてくる。文体も「伝統的なニュース記事の型」に左右されず、分かりやすさを最優先している。

 Perplexityの読みやすさを見た記者は、「紙の新聞時代からWebに脈々と受け継がれてきた『ニュース記事の文体』は、Webで読みやすい情報の形とはかけ離れているのではないか」と感じて反省した。

 人間の記者もPerplexityにならい、Webやスマートフォンで読みやすいよう太字や箇条書きなどを含めたテキスト情報の提示の方法を考え直す時期かもしれない。

 一方で、人間にしかできないこともある。電話や足を使った、一次情報の取材だ。Perplexityのソースは、記者が取材して書き上げたニュース記事であり、記者がいなければPerplexityは情報を得られず、回答も生成できない。

 Perplexityは今、「どのメディアよりまとまって簡潔な記事」を生成することでメディアを脅かしている。だがメディアが死んでしまえば、Perplexityも存在できなくなる。

 Perplexityは記事を無断で引用してまとめるだけでなく、メディアと共存できるビジネスの方法を探るべきだろう。

●Perplexityとは

米サンフランシスコ発の生成AI系スタートアップPerplexityが提供する検索AI。「最先端テクノロジーを使うことで、AIが質問に関連するネット上の情報を読み、会話形式で答えを出すようゼロから設計」したという。

ソフトバンクと提携しており、ソフトバンクやワイモバイルなどの携帯電話を利用しているユーザは、有料のPro版を1年間無料で利用できる。

記事内で記者が使っているのPro版で、AIエンジンは「デフォルト」。

この記事の関連ニュース