イーロン・マスクら警告「チャットボットの危険性」 ChatGPTなどの開発競争に警鐘ならす書簡
早ければ今年中に可決される予定のこの法案により、企業はAIテクノロジーのリスク評価を実施し、それを使用することが健康、安全、個人の権利にどのように影響するかを測定することが求められる。
GPT-4は、AI研究者がニューラルネットワークと呼ぶもので、データを分析することによってスキルを学習する数理的システムの一種である。ニューラルネットワークは、(アップル)「Siri(シリ)」やアマゾンの「Alexa(アレクサ)」などのデジタルアシスタントが音声コマンドを認識するため、また自動運転車が歩行者を識別するために使用するのと同じ技術である。
強力になるLLM
2018年頃、グーグルやオープンAIなどの企業は、本、ウィキペディアの記事、チャットログ、インターネットから抜粋されたその他の情報など、大量のデジタルテキストから学習するニューラルネットワークの構築を開始した。このネットワークは、大規模言語モデル(LLM)と呼ばれる。
このようなすべてのテキストから数十億のパターンを正確に指摘することで、LLMは、ツイート、期末レポート、コンピュータープログラムなど、自らテキストを生成することを学ぶのである。会話を続けることさえ可能となった。何年にもわたって、オープンAIや他の企業は、より多くのデータから学習するLLMを構築している。
これにより機能は向上したが、システムはまだ間違いを犯している。しばしば事実を誤って理解し、前兆もなく情報をでっち上げる。研究者が「幻覚」と呼ぶ現象だ。システムはすべての情報をまったく自信ありげに提供するため、何が正しく何が間違っているかを判断するのが難しいことがよくある。
専門家は、悪意のある人物がこれらのシステムを使用して、これまでよりも迅速かつ効率的に偽情報を広める可能性があることを懸念している。こうしたシステムがインターネット上の人々の行動に作為的に影響を与えるように使われることもありうる、と考えている。