裁判で「ChatGPT」使った弁護士の恥ずかしい結末 「スーパー検索エンジン」だと思って使ったら

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

縮小

ChatGPTをはじめとする大規模言語モデルのプログラムは、実際には、インターネットのあちこちから大量の事例を取り込んだ統計モデルに基づき、文言のつなぎ方を分析することで、もっともらしい回答を生成するものだ。

サンタクララ大学でインターネット倫理プログラムの責任者を務めるイリーナ・ライクは、アビアンカ航空のケースは、大規模言語モデルに批判的な人々が指摘してきたことを明確に示すものだと語った。

「こうしたプログラムを試したり、使ったりしている大多数の人々は、それがどういったものなのか、どのように機能するのか、中でもそれにどのような限界があるのかといったことを本当には理解していない」

ニューヨーク・ロー・スクールの教授で、法曹界を研究対象とするレベッカ・ロイフェは、今回の騒動によって、どうすればチャットボットを責任ある形で法律実務に取り入れられるのかという議論に拍車がかかったと話した。

「今回の事件で問題の緊急性が変わった」とロイフェは言う。「学術的に熟考している余裕はないという感覚がある。この問題は今まさに私たちに影響を及ぼしているのであり、対策に取り組まなくてはならない」。

アビアンカ航空が連邦裁判所に訴訟を移すと、シュワルツはその裁判所では弁護士として活動できなかったため、レヴィドウ・レヴィドウ・アンド・オバーマン法律事務所でシュワルツのパートナー弁護士を務めるロドゥカが代理人を務めることになった。

確認もせずにフェイク垂れ流し

ロドゥカは5月の宣誓供述書で、自分は調査には関わっていないとカステルに供述していた。カステルは8日の尋問でロドゥカに、訴えを棄却しないよう求める文書を自身の名前で提出したことについて、こう尋ねた。

「引用された判例を1つでも読みましたか」

「ノー」とロドゥカは答えた。

「それらの事件が実在することを確認するために何かしましたか」

答えは、またしても「ノー」だった。

(執筆:Benjamin Weiser記者、Nate Schweber記者)
(C)2023 The New York Times

ブックマーク

記事をマイページに保存
できます。
無料会員登録はこちら
はこちら

印刷ページの表示はログインが必要です。

無料会員登録はこちら

はこちら

関連記事
トピックボードAD
ライフの人気記事