しかし、利用者がこの注意書きをどの程度重大なものと捉えているかは疑問だ。多くの人は、MicrosoftやGoogleが提供しているサービスであれば、信頼できると考えてしまうのではないだろうか? そして、結果を正しいものとして、そのまま使ってしまうことは大いにあり得る。
インターネット上には、信用できない記事が溢れている。そのとおりなのだが、生成系AIはそれをさらに間違って伝えるということになる。
ただし、これは、生成系AIが利用者を騙そうとして、意図的にやっていることではない。機能が不十分だから、こうしたことになるのだ。この現象は、「幻覚」とか「幻視」(Hallucination:ハルシネーション)と呼ばれるものだ。
生成系AIを通じてインターネットの記事を読むのは、かなり危険だ。
テキストファイルを貼り付ければ、要約や翻訳に使える
以上のような事故を防ぐには、記事をコピーしてテキストファイルにし、それを貼り付ければよい。
コピーするためには、目的の記事をすでに入手していることが必要だ。「入手している資料をAIに読んでもらっても何の意味もない」と思われるかもしれない。しかしそうではない。それを要約したり翻訳したりすることを生成系AIに依頼することができる(このサービスは、BingやBardだけでなく、ChatGPTもやってくれる)。
これは生成系AIの極めて便利な利用法だ。とくに、外国語の文献を翻訳してもらえるのは、非常に便利だ。これに関しては、生成系AIの出力を信頼することができる。
記事をマイページに保存
できます。
無料会員登録はこちら
ログインはこちら
印刷ページの表示はログインが必要です。
無料会員登録はこちら
ログインはこちら
無料会員登録はこちら
ログインはこちら