「生成AI」今から活用したい人が知るべき驚く盲点 自分の考えを文章で書く「超アナログ能力」が必要
山本:「情報自己決定権」を基本権として認めるEUらしい考えです。EUの立場から言うと、「自分の個人データをSNSで公開しても、権利を放棄しているわけではない。公開したデータをAIの学習データに使うのであれば、本人の同意をとるか、正統な利益(レジティメイト・インタレスト)によって法的に正当化されなければならない」ということにもなる。
正統な利益は、基本的に「公共的な利益」ということになるので、民間企業が営利を目的に生成AIを開発する場合にはそれに当たらない可能性が高いですよね。そうなると、同意を取らざるをえないという話になります。
ただ、それは先生がおっしゃるように現実的に厳しいでしょうし、すでに個人データを学習データとして開発されたAIが存在する場合には運用を止めるのか、という話になる。今までのEUの個人データ保護の考え方では、生成AIと正面からぶつかってしまう可能性があります。EUは、AIの加速度的発展のために個人データ保護の概念を変えるのか、従来の個人データ保護を貫くためにAIの加速度的発展をあきらめるのか、という結構シビアな決断を迫られるのだろうと思います。
AIを使いこなせる人と使えない人の差
山本:生成AIの現状をざっとうかがったところで、アテンション・エコノミーへの影響についてうかがいたいと思います。
アテンション・エコノミーの課題として、例えば「フィルターバブル」ですとか「エコーチェンバー」、さらにこれらとも関連しますが、「フェイクニュース」の増幅・拡散といった問題が挙げられます。こうした課題の先には、社会的・政治的分断や民主主義の衰退がある。
以前、栗原先生と雑談していた際に、生成AIはアテンション・エコノミーの課題を悪化させることもあれば、それを克服する“救世主”になることもある、というご指摘をされていました。
栗原:まずアテンション・エコノミーは過度な格差を生み出すわけですが、これまでもデジタル機器を使える人・使えない人の格差の話があったと思います。そして、今後は人工知能を使える人・使えない人、人工知能で利益をもらえる人・もらえない人との格差が残念ですが、確実に出てくると思います。
ただ、使える人・使えない人の差がどこで出てくるのかというのは面白い点で、それは「自分の考えを文章として書くというアナログな能力」の有無なのです。
生成AIを使いこなすためには、人工知能にどう入力するか(プロンプトという言い方をします)が重要です。普通の人は大体ひと言・ふた言ぐらいしか書き込みませんが、それでは実は生成AIのよさをほとんど引き出せないのです。
入力するところには数千字、GPT-4に至っては数万字、書けます。より適切に細かく書けば、その分だけ巧妙に答えてくれるわけです。
つまり生成AIを使うためには、ちゃんとした文章を書かないといけない。「アナログは古い、これからはデジタルだ」という時代が久しく続いていましたが、生成AIが登場してきたいま、なんと蓋を開けたら、「最新型の人工知能を使うには超アナログな能力が必要だった」ということです。
山本:なるほど。おもしろいですね。