AI技術を使いこなせる人と、そうでない人の違いは何か。成蹊大学客員教授の高橋暁子さんは「高学歴な弁護士でも生成AIに騙され、信用を失う人が出てきている。
平気でウソをつくAIを使いこなすには、人間側の試行錯誤とチェック作業が不可欠だ」という――。
■「無批判にAIを使う人」を炙り出す仕掛け
ハルシネーションとは、生成AIがまるで幻(ハルシネーション)を見ているように、事実に基づかない情報を生成してしまう現象を指す。生成AIの出力結果を必ず人の目でチェックしなければならないのは、誤りが多く含まれることが分かっているためだ。
慶應義塾大学湘南藤沢キャンパス(SFC)の「総合政策学」の授業では、ハルシネーションについて説明した上でPDF資料を配布。資料には、授業と無関係な福澤諭吉の著書『文明論之概略』に関する要約文や指示文が、人には見えずAIだけに見える形で仕込まれていた。
そのため、資料をAIに入力して要約や感想を生成すると、授業では扱っていない『文明論之概略』についてのコメントを生成するため、生成AIを使った学生が一目で分かる仕組みとなっていた。気づかずにそのまま提出した学生は評価対象外にしたという。
■生成AI製レポートを提出する学生たち
一流大学であるSFCの学生がそのようなことをしていたこと、AI時代ならではのプロンプトの仕掛けで話題となったが、これはSFCだけの話ではない。多くの大学で、類似のことが起きているのだ。
大学こそ違っても、多くの大学教員が「生成AIで書かせたレポートを出してくる学生は多い」と言う。ある教員は、「『AI使用の疑いあり』として毎回減点している。『抗議があれば受け付ける』としているが、抗議されたことはほとんどない」と話す。

また別の教員は、「レポートを見る時にはAIチェッカーは必須。自分が採点で使っていることを明かした上で、生成AIの文章の特徴、どういうレポートだと生成AI製と判定されるのかまですべて事前に指導している。そこまでやると(生成AI製は)減るけれど、それでもやはり出してくる学生はいる」。
■「詩賛新聞」の記事なんて存在しない
筆者も大学でレポートを出したところ、明らかに生成AI製と思われるものが混じっていたことがある。ChatGPTで見かけたことがある小さな小見出しに分けられた文章で、自分の体験などをまったく含まない当たり障りない内容。どのAIチェッカーにかけてもAI判定される。「生成AI製ではないか」と減点評価したが、抗議はこなかった。
タイパ世代の学生たちと、生成AIは親和性が高い。もはやどの大学でも、学生が生成AI製レポートを出してくることは珍しくないのだ。
学生のレポートで、根拠として明示させた作者、著作名、記事名、URLが間違っていることもあった。たとえばあるレポートでは、出典として「『大手求人サイトで闇バイト募集も!』詩賛新聞、2024年3月16日」とあったが、当然、そんな新聞はない。
■根拠となる出典を明示するのは苦手分野
別のレポートでは、根拠として載せられている記事のURLをタップすると、無関係の記事が開いた。
リンクが開かないものもある。それならばと記事タイトルで検索しても、そもそもそんな記事は存在しない。作者と著作名に覚えがないので調べたところ、そのような人はいないし、著作もない。
このようなことが起きるのは、生成AIが出してきた出力結果を確認せず、そのまま貼り付けているためだ。レポートは自分で書いているのに、出典のみ生成AI製を疑われたある学生は言う。「調べても根拠となる記事が見つからなかったので、AI使っちゃいました」。
「根拠となる出典(URL・記事名まで)を明示する」としたのは、生成AIが苦手とすることをあえて含めた、生成AI対策だ。ハルシネーションについても指導し、生成AIは事実や固有名詞などは間違っていることが多いことも指導しているが、それでもAIの言っていることを鵜呑みにしたレポートを提出する学生はいる。
■AIに騙され、信用が地に落ちた弁護士
学生だけでなく大人、それも弁護士が生成AIに騙された事例がある。2023年、ニューヨーク州の男性弁護士が民事訴訟の資料作成にChatGPTを使ったところ、存在しない判例を引用してしまったことが話題となった。
フライト中に食事配膳用カートが当たって怪我をした男性客が、コロンビアのアビアンカ航空を訴えた訴訟でのことだ。資料で引用されていた判例が見つからなかったため、ニューヨーク州連邦裁判所の裁判官が確認したところ、弁護士がChatGPTを使って資料を作成していたことが判明したというわけだ。

その後、この弁護士は訴訟に負けただけでなく、同僚の弁護士とともに米国連邦地方裁判所から5000ドルの支払いを命じられたという。
■まるで真実かのようにスラスラと嘘をつく
高学歴で、一般人より知識も豊富である弁護士でさえも生成AIに騙され、信用を失う羽目になってしまっている。なぜこのようなことが起きるのだろうか。
これには、若干同情すべき点はある。生成AIが、あまりに堂々と嘘を吐き出しているため、まさか嘘とは思わなかったと考えられる。間違ったことでも、流暢にすらすらと述べられると正しいと思ってしまいがちな心理を、「流暢性バイアス」と呼ぶ。生成AIの文章こそ、まさにその典型例と言えるだろう。
先ほど紹介した学生のレポートには、二つの存在しない記事が引用されていた。存在すらしない新聞の記事を、生成AIがわざわざ作り出すとは思えなかった気持ちは分かる。
あまりに堂々と引用していたので、即座に「存在しない」と判断した筆者も、評価前に念のため、「詩賛新聞」とは自分が知らないローカル紙、あるいは台湾あたりの新聞の可能性を考えて、調べてみたほどだ。
明らかにおかしな名前だから笑えるが、出典が「読売新聞」「朝日新聞」など実在の新聞で、それらしい記事見出しがついて引用までされていたら、大人でも騙されてしまうのではないか。
■使いこなすためには試行錯誤と確認が必須
生成AIは、こちらが要求すればそれっぽいURLも出してくる。
それでも確認すると存在しないページだったり、記事名とURL先の内容が異なっていたり、発表された日にちまで入れていても存在しない記事だったりするのが生成AIなのだ。
まだ学生でものを知らないことも大きいだろう。「詩賛新聞」という名称に引っかからず、調べもしないのは、新聞名について十分に知らなかったことも影響しているのではないか。作家の名前や著作名で違和感を持たなかったのも、知識がなかったためだろう。
生成AIを使うのも参考にするのも悪いわけではない。しかし、ファクトチェックをするという発想がないのは危険だ。調べればすぐにわかることをしなかったのは、自分だけは大丈夫という「正常性バイアス」にとらわれたためではないのか。
芥川賞作家の九段理江さんが、95%を生成AIで書いた小説『影の雨』を公開している。プロンプトも全文公開されているが、おそらく自分自身で書いたほうがずっと楽で早かっただろうと思えるだけのやり取りをして作成されている。本当に生成AIを使いこなすためには、それだけの試行錯誤が必要だし、出力の確認も必要なのだ。
LINEヤフーのように、業務における生成AI利用が義務化される会社まで出てきている時代だ。しかし本当に生成AIを使いこなすためには、適切なリテラシーとファクトチェックが必要不可欠だ。
われわれは、生成AIを使いこなせるだけの能力をいち早く身に付けることが求められている。

----------

高橋 暁子(たかはし・あきこ)

成蹊大学客員教授

ITジャーナリスト。書籍、雑誌、webメディアなどの記事の執筆、講演などを手掛ける。SNSや情報リテラシー、ICT教育などに詳しい。著書に『若者はLINEに「。」をつけない 大人のためのSNS講義』(講談社+α文庫)ほか多数。「あさイチ」「クローズアップ現代+」などテレビ出演多数。元小学校教員。

----------

(成蹊大学客員教授 高橋 暁子)
編集部おすすめ