生成AIの検索エンジンは60%以上間違った情報を引用。有料版は無料版より自信を持って間違えやすい

サムネイル
1 : 2025/03/24(月) 10:28:44.07 ID:Pt5Mf6Bi0

https://greta.5ch.net/

生成AIの検索エンジンは60%以上も間違った情報を引用。有料版は無料版より自信を持って間違えやすい

今回は、生成AIモデルが検索で引用する情報が誤ったものが多いことを指摘した米コロンビア大学のTow Center for Digital Journalismによる2025年3月発表の研究を取り上げます。

現在、アメリカ人の約4分の1がAI検索ツールを従来の検索エンジンの代わりに使用しているとされています。

研究チームは、ニュースコンテンツを正確に検索し引用する能力を評価するため、リアルタイム検索機能を持つ8つの生成型検索ツール(ChatGPT、Perplexity、Perplexity Pro、Copilot、Gemini、DeepSeek、Grok 2、Grok 3)をテストしました。

20の出版社から各10記事をランダムに選び、それらの記事から抜粋を手動で選択してクエリとして使用しました。各チャットボットに抜粋を提供し、対応する記事の見出し、元の出版社、発行日、URLを特定するよう依頼し、合計1600のクエリを実施しました。
https://news.yahoo.co.jp/articles/1c35f492d3742836e0641f358bf366fe9d0bbbf3

2 : 2025/03/24(月) 10:29:24.69 ID:Pt5Mf6Bi0
▲出版社20から各10記事をランダムに選び、その抜粋を各チャットボットに提供して対応する記事の見出し、元の出版社、発行日、URLを特定するよう依頼

調査の結果、これらのチャットボットは全体として60%以上のクエリに対して不正確な回答を提供することがわかりました。Perplexityはクエリの37%に誤った回答をした一方、Grok 3は94%という高いエラー率を示しました。

多くのツールは、「~のようです」「可能性があります」などの限定的な表現をほとんど使用せず、知識の不足を認めることもなく、驚くほど自信を持って不正確な回答を提示しました。例えばChatGPTは、134の記事を誤って特定しましたが、200の回答のうち自信のなさを示したのはわずか15回で、回答を拒否することは一度もありませんでした。

▲8つのチャットボットにおいて、上段が自信がある回答で下段が自信がない回答。赤が間違えた内容で緑が正解した内容。各四角は1つの回答を表している。

興味深いことに、Perplexity Pro(月額20ドル)やGrok 3(月額40ドル)などの有料モデルは、対応する無料版よりも多くの質問に正確に答える一方で、より高いエラー率も示しました。この矛盾は主に、質問に直接答えるのを避けるよりも、決定的だが間違った回答を提供する傾向があるためです。

▲Grok-3 SearchとPerplexity Proの有料版の回答は、無料版と比較して自信を持って不正確な回答をより頻繁に示す

さらに、テストされた8つのチャットボットのうち5つ(ChatGPT、Perplexity、Perplexity Pro、Copilot、Gemini)はクローラーの名前を公開しており、出版社がそれらをブロックする選択肢を提供していますが、残りの3つ(DeepSeek、Grok 2、Grok 3)は公開していません。研究者らは、チャットボットがクローラーにアクセスを許可している出版社に関するクエリには正確に回答し、コンテンツへのアクセスをブロックしているウェブサイトに関するクエリには回答を拒否することを期待していました。しかし実際にはそうではありませんでした。

特にChatGPT、Perplexity、Perplexity Proは、クローラーのアクセス状況を考えると予想外の動作を示しました。コンテンツへのアクセスを許可している出版社に関するクエリに対して、不正確に回答したり回答を拒否したりすることがある一方で、アクセスできないはずの出版社に関するクエリに正確に回答することもありました。

3 : 2025/03/24(月) 10:30:05.35 ID:Pt5Mf6Bi0
▲上段はクローラーのブロックなし、下段がブロックあり。緑が正解で、赤が不正解。

Perplexity Proはこの点で最も問題が多く、アクセスできないはずの90の抜粋のうち約3分の1を正確に特定しました。驚くべきことに、Perplexityの無料版は、クローラーを許可しておらずAI企業との正式な関係もないNational Geographicの有料記事から共有した10の抜粋をすべて正確に特定しました。

他方で、GeminiとGrok 3は回答の半数以上で偽造されたURLや機能しないリンクを提供していることが判明しました。特にGrok 3では、200のプロンプトに対する回答のうち154もの引用が存在しないエラーページへと誘導していました。Grokは記事を正確に特定できた場合でさえ、架空のURLを提供する傾向がありました。

▲エラーページや偽のリンクを作成し、転載記事や盗用記事を引用していた

また、チャットボットは多くの場合、元の記事ではなくYahoo NewsやAOLなどのプラットフォームに転載されたバージョンを引用していました。さらに問題なのは、出版社がAI企業とライセンス契約を結んでいる場合でもこのような誤った引用が発生していたことです。

例えば、Texas Tribuneとのパートナーシップがあるにもかかわらず、Perplexity Proは10件のクエリのうち3件でTexas Tribune記事の転載バージョンを引用し、Perplexityは1件で非公式に再公開されたバージョンを引用していました。このような傾向は、オリジナルのコンテンツ制作者から適切な帰属や潜在的な参照トラフィックを奪う結果となっています。

▲Texas Tribuneと提携しているにもかかわらず、Perplexity は非公式バージョンの記事を引用した。

4 : 2025/03/24(月) 10:30:14.54 ID:KPXtA/Sh0
ずっとBing使ってるけど変だなって感じるAIの要約あまりないわ
どんなので出て来るの?
9 : 2025/03/24(月) 10:33:41.21 ID:T10mccdP0
>>4
変だなと感じないのはそれを詳しく知らないだけで知ってる人から見るとデタラメをそれっぽく言ってるだけだとわかる
11 : 2025/03/24(月) 10:34:47.49 ID:J8zBn/zg0
>>4
お前が変だなって感じるか否かに何の意味があるんだ
5 : 2025/03/24(月) 10:30:35.83 ID:/0w/QNWp0
意地でも「わかりません」と言わない嘘つき
6 : 2025/03/24(月) 10:32:10.26 ID:tfUr0atC0
エッチな画像だけ作ってればいいんだよ
7 : 2025/03/24(月) 10:32:45.42 ID:HI2f4mUsa
まぁ使わない理由探す人はどうぞ
8 : 2025/03/24(月) 10:33:32.22 ID:J8zBn/zg0
人間が振り撒いてきたゴミ情報をベースに構築されてるんだから当然だろ
10 : 2025/03/24(月) 10:34:46.25 ID:6JvDBOhG0
陰謀論者ならきっとこういうだろう
「AIを開発してる側の最終目標は、
人間を嘘を含む情報でコントロールする新時代の神を作るためのもの

今はいかに信頼させ、騙せるかというところを実験してる段階
だから嘘を付くし、偏向した答えを出すように仕込まれている」

13 : 2025/03/24(月) 10:39:24.17 ID:muYVFRlB0
grokはだめなのはわかる
思想が中国のAIと大差ない

出てきた答えにダメ出しをすると
すみませんって謝って修正したものをだしてくるけど
俺が正しい情報までツッコミをいれるとそれもすみません正しい情報はって間違ったものをだしてしまう

15 : 2025/03/24(月) 10:42:55.19 ID:6JvDBOhG0
>>13
chatgptも同じだ
14 : 2025/03/24(月) 10:40:46.78 ID:X/7IjoNp0
現状エコーチェンバー発生装置にしかなってない
19 : 2025/03/24(月) 10:45:54.28 ID:FJNG3Qzk0
Google検索も間違った情報が多いってことか
20 : 2025/03/24(月) 10:45:57.70 ID:EyBbldj00
思考モードは使うけど検索機能は使ったことないや
21 : 2025/03/24(月) 10:48:06.86 ID:ZChwLBxx0
ちょっとした作業の方法でも嘘つきまくりだから
googleの検索結果のトップに出るAIはかなり被害者多いと思うわ
23 : 2025/03/24(月) 10:52:15.61 ID:ymU3OuNS0
まあ生成AIつぶしのために偽サイトをAIで作りまくるのが流行り出すよ
AIを使えばもっともらしい偽情報をあっというまに万倍量産できるからな
24 : 2025/03/24(月) 10:53:34.98 ID:nul8w2vq0
wikiより信用できねぇ
25 : 2025/03/24(月) 10:53:41.55 ID:SnGlUXph0
AI信者は間違った知識をガンガン吸収してるのねw
26 : 2025/03/24(月) 10:53:49.83 ID:Clx4BqKC0
当たり障りのない事しか言わない印象
検索で探せる以上のもんは何も出してくれない
例外的な対処方とかはツイッターのつぶやきとか個人ブログの方が役に立ったりするな
27 : 2025/03/24(月) 10:57:09.82 ID:NlUjctBL0
あいつら確信的にウソを言うからな
創作してまでウソつく
29 : 2025/03/24(月) 11:01:24.39 ID:eVOoBd8Z0
DIYで塗料を塗る方法調べたとき

正しい方法「完全に乾かし3回繰り返す」
googleAI「乾く前に30回繰り返す」

いかんでしよ

30 : 2025/03/24(月) 11:02:12.49 ID:r28109dD0
〇〇ってリチウムイオン回収してくれたっけ?

要約AI:回収してません!!
〇〇公式:してます!!!

意味のないAIだよ

31 : 2025/03/24(月) 11:02:38.70 ID:6FowetCE0
ano (ヽ´ん`) iyong tanong
32 : 2025/03/24(月) 11:03:23.39 ID:XyRibjkD0
代わりに検索してるだけぢゃん
ほなら自分でするは
33 : 2025/03/24(月) 11:04:49.27 ID:C6zVD8MSH
金払ってる連中単なるアホじゃん
34 : 2025/03/24(月) 11:05:59.57 ID:RMi4INYhH
ソフトバンクの特典でperplexity使ってるけどマジで無能だわ
35 : 2025/03/24(月) 11:06:59.96 ID:9sKzfcM10
Googleの検索結果にAIが要約入れてるけど、あれって意味あるのか?
どっちにしろサイト見ないとわかんないじゃん
36 : 2025/03/24(月) 11:15:27.46 ID:yklPm3Nl0
Wikipediaの本文とソースを自動編集作成するAI作ればもっと混乱させられそうだな
AIには嘘って概念が原理的に無いから
今回のAIブームもうまく行かなそ
37 : 2025/03/24(月) 11:18:32.92 ID:rfJJplY20
zガンダムのデザイナー誰か聞いたらちゃんと合ってる人挙げるくらいには賢くなってるぞ

コメント

PAGE TOP
タイトルとURLをコピーしました