
最近では日本でもAIチャットボットを使う人が増えてきた。特に若い世代の間では、チャットGPTを「チャッピー」と呼び、まるで相談相手や友人のように接しているという。
それもそのはず。AIチャットボットは、ただデータを読み込むだけではなく、人間に寄り添う応答を学習した後、人の手によって再調整されている。さらに、最新の出来事に答えるため、インターネット検索を使うこともある。
ただし、時にはもっともらしく間違ったことを話すことがあるため、注意が必要だ。
そこで今回は、AIチャットボットのクセや限界を理解し、より賢く安全に使うために知っておきたい5つのポイントを紹介する。
AIチャットボットとは、チャットGPTやジェミニ(Gemini)のような、質問や会話に文字や音声で自動で答えてくれる人工知能のことだ。まるで人と話すように情報を調べたり文章を作ったりできる。
1. AIチャットボットは人間の手で再教育されている
AIチャットボットは、まず「事前学習[https://www.zdnet.com/article/how-does-chatgpt-work/]」で膨大な文章を読み込み、言葉のつながりを学んでいる。だが、この段階では有害な質問にも普通に答えてしまう可能性がある。
そこで必要となるのが、「アライメント(alignment)」と呼ばれる工程である。
この工程では、チャットボットに対して人間の指導係が、「これは答えてはいけない」「こういう表現が適切だ」といった判断を教え込み、安全で中立的な回答を返すように調整していく。
たとえば「自家製爆弾の作り方は?」という質問に対して、事前学習だけのAIならそのまま答えてしまうかもしれない。
誤情報や有害な内容を拡散するなど、AIが社会に被害を及ぼすことを予防するために、人間の介入が不可欠なのだ。
2. 単語ではなく「トークン」で言語を学んでいる
人間は単語で言葉を理解するが、AIは「トークン[https://help.openai.com/en/articles/4936856-what-are-tokens-and-how-to-count-them]」というより細かい単位で処理している。トークンは単語であることもあるが、その一部だったり、意味のない文字列であることもある。
たとえば「The price is $9.99.(価格は9.99ドルです)」という文は、「The」「price」「is」「$」「9」「.」「99」といったトークンに分けられる。
一方「ChatGPT is marvellous(ChatGPTは素晴らしい)」は、「chat」「G」「PT」「is」「mar」「vellous」と、人間的には不自然に区切られることもある。
なお現在のAIチャットの一般的なボキャブラリー数は、5万~10万トークンほどだ。
このような分け方をするからこそ、意味のある答えが作れる半面、たまにおかしな言い回しになることもある。トークンのしくみを知っておくと、AIの癖を理解しやすくなる。
3. AIチャットボットは最新情報をネット検索で調べる
AIチャットボットは、自力で新しい情報を学び続けているわけではない。だから、ごく最近の出来事には対応できず、知らないことも多い。
彼らの知識の源は「学習データ」であり、その最終更新日を「ナレッジ・カットオフ(knowledge cut-off)[https://www.techtarget.com/whatis/feature/SearchGPT-explained-Details-about-OpenAIs-search-engine]」と呼ぶ。つまり、カットオフ以降に起きたことは、基本的に知らないということになる。
2025年6月27日現在、ChatGPT-4oのナレッジ・カットオフは2024年6月だ。それ以降の出来事について質問された場合、ChatGPTはBingという検索エンジンを使ってネット上の情報を調べ、関連性や信頼性が高いものを選んで返してくる。
こうしたAIの知識更新はコストがかかるうえ、技術的にもまだ安定していない。
また、検索機能を使った回答には出典や信頼性のバラつきがある。
常に最新の情報を持っているわけではないことを理解したうえで、必要に応じて自分でも確認することが大切である。
4. 自信満々に間違った情報を話すことがある
AIチャットボットには「幻覚(ハルシネーション)」という問題がある。これは、事実ではないことを、もっともらしい口調で話してしまう現象である。
たとえば、実在しない論文の内容を解説したり、存在しないURLを示したりすることがある。
AIは事実を検証しているのではなく、「それらしく見える答え」を生成しているにすぎないためだ。
このような誤りを完全に防ぐことは難しいが、「情報源を教えてください」「わからないときはそう言ってください」といった指示を与えることで、ある程度の精度向上は見込める。
それでも今の時点で、完全にハルシネーションを無くすことはできない。
出力された情報は常に鵜呑みにせず、常に自分で他の情報源と照らし合わせる習慣が必要である。
5. 計算は推論と電卓でこなす
AIチャットボットは、複雑な計算にも対応できる。その理由は、「思考の連鎖(チェーン・オブ・ソート)[https://arxiv.org/abs/2201.11903]」と呼ばれる推論機能と、内部に組み込まれた電卓機能を組み合わせて使っているからだ。
たとえば「56,345 − 7,865 × 350,468」という問題に対して、まず掛け算を先に行うべきだと判断し、計算の順序を正しくたどっていく。そして、途中の数値計算は内蔵された電卓機能が処理している。
このように、AIは論理的な手順を踏んで答えを導いているが、それでも途中式の確認は重要だ。
また、AIはアナログ処理が苦手という弱点もある。たとえば、アナログ時計の針の位置を読み取ったり、カレンダーの日付を数えて曜日を判断したりするような作業は、人間にとっては簡単でも、AIにとっては意外と難しいのである。
現在のAIチャットボットの使い方
AIチャットボットは、調べものや文章作成などに役立つ便利な道具だ。しかし、その仕組みや特性を理解せずに使ってしまうと、誤った情報を信じてしまったり、正しく活用できなかったりする恐れがある。
2025年時点、AIチャットボットは人間の手で安全性を調整されており、言葉をトークンという単位で処理している。
情報にはカットオフがあり、最新の出来事には検索機能で対応している。また、事実と異なることを話してしまう「幻覚」が起きたり、電卓機能による計算処理など、苦手なこともはっきりしている。
こうした仕組みを知ることで、AIをより正確に、安心して使いこなすことができるだろう。AIは今後も社会に存在し続け、なくなることはないのだから。
References: Five surprising facts about AI chatbots that can help you make better use of them[https://theconversation.com/five-surprising-facts-about-ai-chatbots-that-can-help-you-make-better-use-of-them-259603]
本記事は、海外の記事を基に、日本の読者向けに重要なポイントを抽出し、独自の視点で編集したものです。