便利な生成AIだけど…安全に使うための注意事項。AIの嘘を見抜き、個人情報を守るために意識すべきことは?
プロンプトに考慮してほしい情報を追加することで、生成AIが学習していない情報を補う方法があります。たとえば、最新の論文やニュースなどを生成AIに読み込ませておけば、その情報をもとに出力できるようになります(知識生成プロンプティング)。
もし、比較的新しい情報を扱う必要がある場合は、利用する生成AIが「どの期間に収集されたデータを用いて学習しているのか」を把握しておくことが大切です。そして必要に応じて、生成AIが学習していない情報をユーザー側が提供する工夫も求められます。
その2:嘘を出力する
生成AIは嘘を出力する可能性があるため、出力された成果物のチェックは必ず行いましょう。
生成AIが嘘を出力する現象は「ハルシネーション」(Hallucinations)(※)と呼ばれ、とくに注意したいポイントです。
※日本語で「幻覚」という意味。

ハルシネーションが起こる原因のひとつは、学習したデータに間違った情報が含まれていることです。GPTの学習データは主にインターネット上の情報です。インターネットの情報には誤った情報や偏ったデータが存在するため、結果としてハルシネーションにつながります。
また、文章生成AIは次の単語を予測しているに過ぎないため、学習していない情報を求められた場合、あたかも真実のように嘘を出力することもありえます。
そのため、生成AIが出力した情報を鵜呑みにすると、嘘の情報が含まれる成果物を納品したり、誤った判断を下したりする可能性があります。とくに、医療や法律など、正確性が求められる分野での使用には注意が必要です。

ハルシネーションを減らすためには「Few-Shotプロンプティング」で回答例を与えたり「知識生成プロンプティング」で事前に事実を与えたりといったテクニックを使うことが有効です。また、プロンプトに「知らない情報を求められた場合は、知らないと答えてください。」のように入力することも有効です。
ハルシネーションは、生成AIが普及しきれていない原因のひとつです。しかし、ハルシネーションがあるからといって生成AIを使用しなければ、時代に置いていかれてしまいます。
無料会員登録はこちら
ログインはこちら