1: 2025/12/07(日) 20:11:52.40 ID:8b+brg7v
secret-2681508_1280

「AIが引用した参考文献」の約3分の2が存在しない文献だったり間違っていたりしたとの調査結果

現代では仕事や調べ物にAIを利用する人が増えていますが、AIは虚偽の内容を捏造(ねつぞう)したり誤情報を生成したりする幻覚(ハルシネーション)を起こすこともあります。
OpenAIが開発した大規模言語モデル・GPT-4oを用いた調査では、専門的な内容を尋ねられたAIがどれほど幻覚を起こしやすいのかが明らかになりました。

 JMIR Mental Health – Influence of Topic Familiarity and Prompt Specificity on Citation Fabrication in Mental Health Research Using Large Language Models: Experimental Study
 https://mental.jmir.org/2025/1/e80371

(以下略、続きはソースでご確認ください)
Gigazine 2025年12月07日 11時00分
https://gigazine.net/news/20251207-ai-generated-citations-fabrication-errors/


続きを読む
Source: 理系にゅーす