[出典] 
  • 論文 "Durably reducing conspiracy beliefs through dialogues with AI" Costello TH, Pennycook G, Rand DG. Science. 2024-09-13. https://doi.org/10.1126/science.adq1814 [所属] Sloan School of Management (MIT), Department of Psychology (American U), Department of Psychology (Cornell U).
  • EDITORIAL "ChatGPT to the rescue?" Thorp HH. Science. 2024-09-12. https://doi.org/10.1126/science.adt0007 [所属] Editor-in-Chief, Science journals.
[Science 論文]

 相当にありえない、実証もされていない、陰謀論を信じる人々が広がっている。著名な心理学理論によれば、多くの人が陰謀説にハマるのは、根底にある心理的な「欲求」や動機を満たすためであり、したがって、多少の事実や反証を用いても、陰謀論の信者が説得されることは無い、とされている。著者らは、この常識に疑問を投げかけ、十分に説得力のある証拠によって、陰謀論的な「ウサギの穴」("rabbit hole": 不思議の国のアリス参照)から人々を説得することが可能かどうかを問うた。

 著者らはまず、これまでのような事実に基づいた正しい情報に基づく介入は、十分な深みと個別化に欠けるため、効果がないと思われるかもしれないという仮説を立てた。この仮説を検証するために、個人の能力の限界を超える膨大な情報をもとに、オーダーメイドの議論を生成する能力を持つ人工知能(AI)の一種である大規模言語モデル(LLM)の進歩を活用した。LLMはそれによって、各個人が陰謀論的信念を裏付けるものとして挙げた特定の証拠に直接反論することができる。

 具体的には、被験者とAIとの間のリアルタイムでパーソナライズされたインタラクションを利用して、行動科学研究を実施するためのパイプラインを開発した。2つの実験を通じて、2,190人のアメリカ人が、自分の信じる陰謀論と、その陰謀論を裏付けると思われる証拠を自分の言葉で明確にし、その上で、LLM GPT-4 Turboと3ラウンドの対話を行った。GPT-4 Turboは、参加者の陰謀説に対する信念を弱めようとしながら、この特定の証拠に反応するよう促した(あるいは、対照条件として、AIと無関係なトピックについて会話した)。

 GPT-4 Turboとの対話により、参加者が選んだ陰謀説に対する信念が平均20%減少した。この効果は少なくとも2ヶ月間減少することなく持続した。この現象は、ジョン・F・ケネディ暗殺、宇宙人、イルミナティなどの古典的な陰謀から、COVID-19や2020年のアメリカ大統領選挙などの話題の事件に関するものまで、幅広い陰謀論に一貫して観察された。

 注目すべきことに、AIは真の陰謀(true conspiracies)に対する信念を低下させなかった。さらに、ファクトチェックの専門家が、AIが主張した128のサンプルを評価したところ、99.2%が真実であり、0.8%が誤解を招くことはあったが、虚偽ではなかった。AIは、すでに知られている知見をベースにしていることから、このことは、陰謀論的な世界観が一般的に減少し、他の陰謀論信者に反論する意図が高まってきたとも、解釈できる。

[EDITORIAL]

 何年もの間、特にCOVID-19 パンデミック以来、このページやScience 誌やその他のジャーナルの多くのページは、科学的誤情報(scientific misinformation)の拡散を嘆き、それを防ぐ方法について手探りで考えることで埋め尽くされてきた。高速な情報共有とソーシャルメディアのインフルエンサーの絶え間ない活動が、この困難な問題をさらに悪化させている。例えば、COVID-19ワクチンに対する危険な懐疑論は、他のワクチンに対しても躊躇する人々を広げ、公衆衛生にとって悲惨な結果をもたらそうとしている。科学的に陰謀論の蔓延を鈍らせる解決策は、なかなか見つかっていない。今回、『Science』誌で報告された新たな研究は、人工知能(AI)が誤報を払拭する手段を提供する可能性を示唆している。
 
 科学に対する誤解に対処するための解決策のほとんどは、何年も前からあるアイデアである。曰く、すべての科学者をコミュニケーターにする、大学入学前教育を改善して科学的事実や数式に重点を置かず、科学的思考のプロセスに重点を置くようにする、科学機関に対する正当な不信感を払拭するために「人々のいる場所で」対話できる科学的スポークスマンを育てる、などである。しかしこうしたアプローチは、ソーシャルメディア、ポッドキャスト、24時間ニュース、オンライン・ディスカッション・フォーラムが放つナンセンスのジャガーノート(Juggernaut)に圧倒されてしまう。

 今回の研究は、ChatGPTのような大規模言語モデルを使うことで、陰謀論的な信念に対抗できる可能性があると報告している。この報告は、LLM(あるいはAI)は事実を捏造(幻覚 / hallucinating)し、誤った情報を広めることで悪名高いことから、少し皮肉に思えるかもしれない。

 LLMが脱・陰謀論にある程度成功したのは、LLMが膨大な情報にアクセスできることから、陰謀論者個々人の推論に特化した反証を容易に作り出すことができるところにある。この研究論文の著者の一人であるDavid Randは、論文が受理された後、こう語った:「(LLMの成功は)LLMが感情的になったり、人間との対話につきまとうような知覚的なバイアスを示したりしないことと、関係があるのではないかと思ったが、これまでのところ、そのような強いエビデンスは確認されていない」。そうだとすれば、科学的な誤情報の蔓延を減らすこれまでの努力が、メッセンジャーが誰であるか、また、メッセージの伝え方に、重点を置きすぎていたことが示唆される。なお、Randや他の研究者は、別の研究において、コミュニケーション・スタイルがオンライン上の誤った情報の訂正に「最小限の影響しか及ぼさない」ことを発見している。

 誤情報の発信者は、「ギッシュ・ギャロップ / Gish gallop」と呼ばれるテクニックを使うことがある。この用語は、このテクニックを得意とした創造論者の名前にちなんだもので、会話中に圧倒的な数の誤情報を氾濫させる。人間というものは、どんなに返答の仕方が巧みでも、こうした「量」に効果的に対応することはできない。しかし、LLMは圧倒されることはなく、無限に反証を挙げることができる

 AIが人間よりも誤った情報に対抗するのが得意かもしれないとことに、落胆するところもあるだろうが、最終的に説得するのは(AIが提示する)科学的な情報であるという事実は救いである。

[陰謀論の沼が広がる一例]

HIVは存在しないし、AIDS治療薬は毒薬だった
[出典] "How covid consipirary theories led to an alarming resurgence in AIDS denialism" Merlan A. MIT Tehcnology Review 2024-08-07. https://www.technologyreview.com/2024/08/07/1095762/covid-conspiracies-hiv-aids-denial-public-health/

 2024年2月、総合格闘技の解説者でpodcaster(ポッドキャスト配信者)として世界で最も稼ぐと言われているJoe Rogan が 「パーティー・ドラッグ 」が 「エイズの重要な要因 」であると虚偽を述べた時、数百万人が耳を傾けていた。The Joe Rogan Experience のゲストで、元進化生物学の教授から"逆張り(contrarian)"podcasterに転身したBret Weinsteinも、彼に同意した 。番組中、Roganはまた、AZTはAIDSの治療に使われた初期の薬で、病気そのものよりも「早く」人々を殺したと主張した。その後、これらの主張は、他のインフルエンサーを介して拡散していった。

 交通事故などと違って目に見えないウイルスが原因であるが故に、特に急激に、広がった「新型コロナウイルスは存在しない。ワクチンは新型コロナウイルスよりも危険だ」といった"陰謀論のパンデミック"は、HIV/AIDsやヒトパピローマウイルス/子宮頸がんなどの他の感染症に対する公衆衛生のあり方に深刻な打撃を与えるだろう。