【AIクイズ】ChatGPT使ってるのにコレ知らないはヤバい…🤥
更新日:
イチオシスト
ライター / 編集
イチオシ編集部 旬ニュース担当
注目の旬ニュースを編集部員が発信!「イチオシ」は株式会社オールアバウトが株式会社NTTドコモと共同で開設したレコメンドサイト。毎日トレンド情報をお届けしています。

【問題】
AIを使いこなしている人ほど、この現象に一度は騙された経験があります。知らずに使い続けると、大事な場面で大恥をかくかもしれません。
★ ヒント
AIが出した回答を鵜呑みにして、あとで「全然違うじゃん!」となった経験はありませんか?この現象は人間の脳科学用語から借りてきた言葉です。
【解説】

ハルシネーションとは、AIが実在しない情報や事実と異なる内容を、あたかも正しいかのように自然な文章で生成してしまう現象です。例えば、存在しない論文のタイトルや著者名をでっち上げたり、架空の法律条文を引用したりすることがあります。これはAIが「もっともらしい次の単語」を予測して文章を作る仕組みに起因しており、AIが本当に内容を理解しているわけではないために起こります。ビジネス文書の作成やリサーチにAIを使う際は、必ずファクトチェックを行うことが重要です。最近ではRAG(外部データベースとの連携)などの技術で、ハルシネーションを減らす取り組みも進んでいます。AIを「優秀だけどたまにウソをつくアシスタント」と捉えて付き合うのが、現時点でのベストな使い方です。
AI用語を知っているだけで、使いこなし度が一気に上がります。次回もサクッと学べるAIクイズをお届けするのでお楽しみに!
さらにもう一問!
▶ 【AIクイズ】これ知らずにプロンプト書いてるの?精度が激変する基本テクニック
記事提供元:脳トレ日和
※記事内容は執筆時点のものです。最新の内容をご確認ください。



