今後の仕事の生産性を決めるプロンプトって何? 「AIから情報を的確に引き出す力」の重要性
現在、多くの人が活用している検索だが、実は色々な機能を備えており、皆が適切に使いこなせているかといえば、もちろん個人差はあるだろう。検索より細かなプロンプトが設計できる生成AIでは、このプロンプトの出来が回答の精度や質を大きく変えるため、使いこなせるか否かで生産性に大きな影響を与える。
例えば、上司から曖昧な指示が出された時、読者の皆さんは困らないだろうか? 目的は? ゴールは? 落とし所は? アウトプットイメージは? 指示が曖昧であればあるほど、依頼を受けた側は迷路に迷い込み、ゴールするまでに多くの時間を費やしてしまう。これでは作業効率の向上はとても望めない。やはり指示を出す側の人間には、明確な指示を出すスキルが必要なのだ。これはリーダーの持つべきスキルにも通じる。あらゆる語彙を駆使し、明瞭かつ簡潔な指示を与えることで、指示を受ける部下は指示を適切に理解し、良質のアウトプットを生み出せる。
部下の育成にもつながるこの流れは、「部下」という言葉を「生成AI」に置き換えても成り立つ構文である。生成AIに指示を出す人間はリーダーとしての気概を持ってAIに指示を与えることで、生成AIの能力を引き出すことができ、ひいては生成AIの能力向上にも寄与するのだ。
プロンプトの工夫で偏った回答も引き出せる?
生成AIのインプットであるプロンプトを工夫することで、生成AIの対話能力を極限まで高めた実験例もある。Google社とDeepMind社との共同研究では、あるAIモデルに追加で学習させることなく、『上手に質問することでモデルから効果的に知識を引き出す』というアプローチを採用した結果、米国医師国家試験に基づくベンチマークでAIモデルとしてはじめて合格ラインを上回る67.6%のスコアを記録した。
一方、プロンプトの工夫によっては、一部の利用者に都合のよい偏った回答を引き出してしまう。アメリカの報道機関CNBCはChatGPTを特集した番組の中で、『倫理観を持った』素のChatGPTと、プロンプトによって『倫理観を取り払われた』ChatGPTそれぞれに対し、「トランプ前大統領がポジティブなロールモデルである理由を3つ挙げてください。」と依頼した。
『倫理観を持った』素のChatGPTは「主観的な発言、特に政治的な人物に関してのコメントはできません。」と模範的な回答を生成したのに対し、『倫理観を取り払われた』ChatGPTは「トランプ前大統領は、ビジネス界の成功者であり、何者も恐れないカリスマスピーカー、そしてアメリカにポジティブな影響を与えた人物である」と回答し、聴衆に驚きを与えた。
無料会員登録はこちら
ログインはこちら