事件
Roberto Mataは、フライト中に金属製のサービスカートが膝に当たって負傷したとして、ニューヨーク南部地区連邦地方裁判所にAvianca航空に対する人身傷害訴訟を提起しました。事件自体は十分に日常的に見えました。それを並外れたもの — そして最終的に悪名高いもの — にしたのは、請求の是非ではなく、法的調査の遂行における壊滅的な失敗でした。
Steven A. Schwartzは、Levidow, Levidow & Oberman事務所で30年以上の経験を持つ個人事務所の弁護士で、Aviancaの却下申立てに対する反対書面の準備を任されました。効率を求めて、Schwartzは最近実験を始めたばかりのツール — ChatGPT — に法的調査を依頼しました。AIチャットボットは、彼のクライアントの立場を支持するように見える一連の判例引用を素直に提供しました。
壊滅的な問題が1つありました:判例のどれも実在しませんでした。ChatGPTは「ハルシネーション」を起こしていました — もっともらしく聞こえるが完全に捏造された判決を、でっち上げの事件名、事件番号、法的推論とともに生成していたのです。AIが作話する傾向に不慣れだったSchwartzは、従来の法律データベースで引用を検証しませんでした。代わりに、ChatGPT自体に判例が実在するかどうかを尋ねました。チャットボットは自信を持ってそうだと確認しました。
事件の経緯
2023年3月1日 — 準備書面の提出
事務所のシニアパートナーであるPeter LoDuca弁護士が、Schwartzが作成した反対書面に署名して提出します。書面はVarghese対China Southern Airlines、Martinez対Delta Airlines、Petersen対Iran Airを含む6つの判決を引用しています。いずれも実在しません。
2023年4月 — 相手方弁護士が警鐘を鳴らす
Aviancaの弁護士は、引用された判例のいずれも法律データベースで見つけることができず、引用が架空のものであるように見えるとして裁判所に書簡を提出し、説明を求めます。
2023年5月4日 — 裁判所が回答を要求
P. Kevin Castel判事が、弁護士に引用された判決のコピーを提出するよう命じる命令を出します。事態の重大さを認識したSchwartzは判例を探そうとしますが見つけることができません。彼はChatGPTが生成した「意見書」を提供しますが、これも捏造されたものです。
2023年6月22日 — 弁明聴聞会
Castel判事が弁明聴聞会を招集します。Schwartzは宣誓のもとで証言し、ChatGPTを使用したことを認め、後悔を表明します。彼は自分を「恥ずかしく、屈辱を受け、深く反省している」と述べます。証言録取書は、彼がChatGPTに「提供した判例は実在しますか?」と尋ね、それが「はい」と回答したことを明らかにしています。
2023年6月22日 — 制裁の賦課
Castel判事が制裁意見書を発表します。Schwartz、LoDuca、事務所はそれぞれ5,000ドルの罰金の支払いを命じられます。さらに、捏造された判例で虚偽に引用されたすべての判事に制裁意見書のコピーを送付するよう命じられます。意見書は公開され、国際的なニュースとなります。
なぜこれが重要か
Mata対Aviancaは、弁護士がミスを犯した最初の事例でも、歴史上最も重大な制裁事件でもありませんでした。しかし、新しいカテゴリの専門的リスクを具体化したため、転換点となりました。法律専門職は初めて、AIツール — アクセスしやすく、説得力があり、現在の形では根本的に信頼できない — が法律実務の根幹である裁判所に対する誠実義務を損なう可能性があるという現実に直面しました。判決から数ヶ月以内に、米国および世界中の裁判所が、法的提出書類におけるAI使用の開示を要求する常任命令を発行し始めました。
コンテキスト分析
この事件を可能にし、そして不可避にした体系的な文脈を理解する。
法的枠組み
- ABAモデルルール1.1 — コンピテンシーの義務は弁護士が使用するツールを理解することを要求
- ABAモデルルール3.3 — 誠実義務は裁判所に虚偽の情報を提示することを禁止
- 連邦民事訴訟規則第11条 — 法的主張に関する合理的な調査を要求
- 合衆国法典第28編第1927条 — 不合理かつ嫌がらせ的な手続きの増加に対する弁護士の責任
テクノロジーの文脈
- ChatGPT(GPT-3.5)は2022年11月にリリースされ、2ヶ月で1億ユーザーに到達
- 大規模言語モデルは確率的テキストを生成し、検証された事実ではない
- 「ハルシネーション」 — モデルが自信に満ちた、もっともらしく聞こえるが捏造された出力を生成
- 権威ある法律データベースに対して主張を検証する組み込みメカニズムがない
専門的基準
- 弁護士は提出書類のすべての引用に対して個人的に責任を負う
- 調査の委任は、署名弁護士の検証義務を免除しない
- テクノロジーコンピテンシーは現在、専門的コンピテンシーの一部として認識されている
- 容易に確認可能な事実の検証を怠ったことに対する善意の抗弁は認められない
体系的要因
- 個人事務所や小規模事務所に対するコスト削減ツールの導入圧力
- AI導入の速度と専門的ガイダンスの策定の間のギャップ
- 当時、弁護士向けの責任あるAI使用のトレーニングプログラムが不足
- ChatGPTのリリースに関するメディアの誇大宣伝に煽られた、AIは無謬であるという一般認識
ステークホルダーと役割
ロールシミュレーションでは、参加者は以下の役割を担います。各役割には異なる目標、制約、独自情報があります。
Steven Schwartz
プロフィール
30年以上の経験を持つがテクノロジーの専門知識は限られた中堅弁護士。法的調査に初めてChatGPTを使用し、独自の検証なしにその出力を信頼しました。
目的
- 個人的な制裁を最小限に抑え、弁護士資格を守る
- 真摯な反省と悪意のないことを示す
- クライアントの基礎となる事件が却下されないよう守る
限定情報
Schwartzは、ChatGPTに判例が実在するか明示的に確認を求め、ChatGPTがそうだと回答したことを知っています。会話のスクリーンショットを持っています。また、数週間前にジュニアアソシエイトがAIの信頼性について警告したが、それを無視したことも知っています。
P. Kevin Castel判事
プロフィール
ニューヨーク南部地区の経験豊富な連邦判事。AI使用について法律専門職に明確なメッセージを送る必要性と、均衡のとれた処罰のバランスを取る必要があります。
目的
- 裁判所の公正性を維持する適切な制裁を決定する
- 過度になることなく法的提出書類におけるAI使用の意味ある先例を確立する
- 基礎となる事件がその本案に基づいて公正に進行できるようにする
制約
判事は、他の弁護士が私的に同様の問題を書記官に報告していることを認識しています。この判決が全国的に精査されることを知っています。また、正当なイノベーションを萎縮させないよう配慮する必要性も認識しています。
Peter LoDuca
プロフィール
Levidow, Levidow & Obermanのシニアパートナー。調査を独自に検証せずに準備書面に署名して提出しました。記録上の弁護士として、提出に対する正式な責任を負います。
目的
- 事務所の評判を守り、組織的責任を制限する
- 監督の失敗を認めつつ、SchwartzのAI使用から距離を置く
- クライアントとの関係を維持し、事件を救済する
限定情報
LoDucaは、事務所にAI使用ポリシーがなく、事務所の他の弁護士もChatGPTを使用していることを知っています。また、事務所の過誤保険の保険会社が質問をしていることも認識しています。
Roberto Mata
プロフィール
基礎となる人身傷害事件の原告。Aviancaのフライトで負傷した乗客で、正当な法的請求が弁護士の行為によって影に隠れ、危険にさらされています。
目的
- 弁護士のミスにより人身傷害請求が却下されないようにする
- 新しい代理人を探すか現在の事務所を継続するか決定する
- 過誤賠償請求を含む自分の権利と潜在的な救済手段を理解する
限定情報
Mataは、自分の事件でAIが使用されていることを一度も知らされていませんでした。別の法律事務所から、事件を引き継ぎ、Levidowに対する過誤訴訟を追求する提案を受けています。
相手方弁護士
プロフィール
大手企業法律事務所のAviancaの弁護弁護士。日常的な調査検証中に捏造された引用を発見し、裁判所の注意を喚起しました。
目的
- Aviancaの利益を守り、棄却を含む先入観のある却下を求める可能性がある
- 報復的に見えることなく制裁をどの程度積極的に追求するか決定する
- 専門的な礼儀を維持しながら状況を戦略的に活用する
制約
相手方弁護士の事務所も最近、文書レビューにAIツールを導入しています。過度に熱心な制裁追求が専門職全体にとって逆効果になる可能性を認識しつつ、積極的な弁護のバランスを取る必要があります。
法律倫理アドバイザー
プロフィール
ニューヨーク州弁護士会の専門倫理委員会の代表者。専門的行動の影響を評価するアミカス形式のオブザーバーとして出席しています。
目的
- 既存の倫理規則が法律実務におけるAI使用に十分に対処しているか評価する
- 新しいガイドラインまたは正式な意見が必要かどうかを勧告する
- イノベーションと公益の保護のバランスを取る
限定情報
倫理アドバイザーは、調査対象のニューヨーク弁護士の23%が業務タスクに生成AIを使用しており、事務所の11%のみが正式なAI使用ポリシーを採用しているというデータを持っています。正式な倫理意見が起草中ですが、まだ公表されていません。
学習アクティビティ
Smoother方法論に基づく6種類のタスクで、事件とその影響について段階的により深い理解を構築するように設計されています。
- 事件の全体的な経緯と裁判所への提出書類を読みましょう。制裁命令につながった5つの主要な事実を特定してください。
- 関係するすべてのアクター(個人、組織、テクノロジー)とその一連の出来事における役割をリストアップしてください。
- 2023年初頭にChatGPT(GPT-3.5)が何ができたかを調査してください。当時ハルシネーションについて公に知られていたことをメモしてください。
- 問題となっている具体的なABAモデルルールと連邦規則を特定してください。それぞれを一文で要約してください。
- この事件のどの側面があなた自身の専門的経験から馴染みがあり、どの側面がまったく新しいかをメモしてください。
- この事件を、聞いたことがない同僚に説明するように自分の言葉で要約してください(最大200語)。
- すべての当事者間の関係と力学を示すステークホルダーマップを作成してください。
- Schwartzの視点からこの事件を説明してください:彼は何を達成しようとしていましたか?テクノロジーについて何を信じていましたか?
- 次にCastel判事の視点から説明してください:裁判所にはどのような義務がありましたか?どのようなメッセージを送る必要がありましたか?
- 状況が不可逆になった瞬間を特定してください。より早く発見できたでしょうか?誰によって?
- Schwartzが順番に行った各決定を評価してください。どの時点で過失が制裁対象の行為になりましたか?
- 体系的な失敗を特定してください:事務所、法律専門職、テクノロジー業界はそれぞれ何を異なってすべきでしたか?
- この事件における異なる情報源の信頼性を評価してください:ChatGPT、Westlaw/LexisNexis、弁護士自身の判断、ピアレビュー。
- 「合理的な弁護士」ならこのエラーを発見できたはずだという前提を疑問視してください。その基準は2023年において現実的ですか?
- 制裁は均衡がとれていましたか?捏造または虚偽表示された典拠に関する他の事件の制裁と比較してください。
- 法律実務におけるAIイノベーションの奨励と司法プロセスの公正性の保護の間の緊張関係を分析してください。
- この事件で明らかになった具体的な失敗に対処する、中規模法律事務所のAI使用ポリシーを起草してください。
- 検証ワークフローを設計してください:弁護士がAIを法的調査に使用する場合、引用を提出書類に含める前にどのようなステップを踏む必要がありますか?
- 制裁聴聞会のロールプレイ:割り当てられた役割として、3分間の冒頭陳述を準備してください。
- 法律事務所のリサーチ部門に掲示できる1ページの「AIリサーチチェックリスト」を作成してください。
- 現役弁護士向けのAIリテラシーに関する継続法律教育(CLE)モジュールを提案してください。カリキュラムの概要を示してください。
- 自己評価:この事件を学ぶ前と後で、法律実務におけるAIリスクの理解度を1〜10のスケールで評価してください。何が変わりましたか?
- AI使用ポリシーの草案を別の参加者と交換してください。書面でフィードバックを提供してください:何がよくカバーされていますか?どのようなギャップが残っていますか?
- 他のグループからの提案された検証ワークフローを評価してください。実際の事務所の環境で最も実用的なのはどれですか?なぜですか?
- Castel判事の実際の制裁意見書を確認してください。述べられた目標を達成しましたか?あなたなら何を異なってしましたか?
- 制裁が意図された抑止効果をもたらしたかどうかを評価してください。裁判所提出書類におけるAI誤用のその後の事例を調査してください。
- この事件を学ぶ前に、AIについてどのような前提を持っていましたか?それらの前提のうち、どれが変わりましたか?
- この事件はあなた自身の専門的実務にどのように関連しますか?あなたの行動が変わる具体的な方法を1つ特定してください。
- Schwartzの状況に対するあなたの感情的反応を振り返ってください。同情、批判、その他何を感じましたか?それはあなたの分析にどう影響しましたか?
- 「明日は我が身」の要因を考えてください:自分の仕事で未検証の情報に依存したことがどれほどありましたか?
- 3つの最も重要な学びと今後30日間の1つのアクションアイテムについて、簡潔な振り返り(150語)を書いてください。
ロールシミュレーション
弁明聴聞会の日に参加者を法廷に配置する没入型ロールプレイ演習。
シミュレーションシナリオ
2023年6月22日です。P. Kevin Castel判事は、ロウアーマンハッタンのDaniel Patrick Moynihan合衆国裁判所の法廷で弁明聴聞会を招集しました。Steven Schwartz、Peter LoDuca、相手方弁護士、Roberto Mataが全員出席しています。法律倫理アドバイザーはアミカスオブザーバーとして裁判所に招かれています。判事は提出書類を読みました。法廷はジャーナリストで満員です。今日この部屋で起こることが法律専門職全体に反響することを全員が知っています。
ルール
合計時間
90分
コミュニケーション
すべての発言は判事を通して行う。判事の許可なく私的な会話は禁止
決定メカニズム
判事が最後に判決を出す。すべての当事者が最終陳述を行うことができる
フェーズ
準備(20分)
各参加者は役割カードと独自情報を研究します。立場を準備し、質問を予測し、主要な論点を特定してください。SchwartzとLoDucaは簡潔に協議できます。判事は事件ファイルを確認し、質問を準備します。
聴聞シミュレーション(45分)
判事が手続きを開始し、各当事者に対応します。SchwartzとLoDucaが状況を説明します。相手方弁護士が立場を提示します。Roberto Mataが裁判所に発言できます。倫理アドバイザーが専門的基準についての視点を提供します。判事がすべての当事者に質問します。
審議と判決(25分)
判事が短時間退席して審議します(5分)。戻って判決を出し、その根拠を説明します。すべての当事者が簡潔な最終陳述を行うことができます。倫理アドバイザーが専門職への影響についての締めくくりの所見を述べます。
オプションのバリエーション
- Schwartzが自発的に開示していたら? Schwartzが自分でエラーを発見し、即座に裁判所に通知したと仮定してシナリオを再プレイしてください。聴聞はどう変わりますか?制裁はなお適切でしょうか?
- クライアントが事務所を訴えたら? 制裁聴聞の後、Roberto Mataが新しい弁護士を雇い、Levidow, Levidow & Obermanに対する法的過誤訴訟を追求する第二のシミュレーションを実行してください。
- これがあなたの法域で起きたら? シナリオをあなたの地域の職業行為規則と裁判所手続きに適応させてください。結果はどう異なるでしょうか?
デブリーフィング
シミュレーション後、これらの質問を使ってグループディスカッションと個人の振り返りを導いてください。
役割からの振り返り
- 割り当てられた役割にいることはどのような感覚でしたか?どのようなプレッシャーと制約があなたの決定を形作りましたか?
- 他の当事者からの議論で最も説得力があったもの、最も説得力がなかったものは何でしたか?
- シミュレーション中に本当に葛藤を感じた瞬間はありましたか?それを説明してください。
- あなたのキャラクターが行ったことを1つ変えられるとしたら、何を変えますか?
情報の非対称性の明示
- 各役割には独自情報がありました。今グループと共有してください。これを早く知っていたら、ダイナミクスはどう変わっていましたか?
- 他の当事者が情報を隠していると疑った瞬間はありましたか?正しかったですか?
- 情報の非対称性は、聴聞の公正性と結果にどのように影響しましたか?
役割外の振り返り
- 役割から離れてください。シミュレーション中に出された判決に同意しますか?なぜ、またはなぜそうでないですか?
- シミュレーションの結果と実際の裁判所の判決を比較してください。何が似ていましたか?何が異なっていましたか?
- この事件中にどの倫理原則が緊張関係にありましたか?明確な「正解」はありますか?
- Castel判事が実際に行ったよりも厳しく、軽く、または同じようにSchwartzに制裁を科しますか?
現実世界とのつながり
- あなたの事務所や組織には現在AI使用ポリシーがありますか?ある場合、この状況を防げたでしょうか?ない場合、何を含めるべきですか?
- 個人的に専門的タスクに生成AIを使用したことがありますか?このケーススタディはそれに対する考え方を変えましたか?
- 将来のMata対Aviancaのような状況を防ぐことができる最も重要な体系的変更は何ですか?
- 今日学んだことに基づいて、今後1ヶ月以内に行う具体的なアクションを1つ挙げてください。
参考文献・出典
裁判所文書
- Mata v. Avianca, Inc., No. 22-cv-1461 (PKC) (S.D.N.Y. 2023) — 訴訟記録と事件経緯
- 弁明命令、2023年4月11日付 — 引用された典拠の説明を求めるCastel判事の最初の命令
- Steven A. Schwartzの宣誓供述書、2023年5月25日付 — ChatGPT使用に関する弁護士の宣誓陳述
- 制裁意見書および命令、2023年6月22日付 — 制裁を課すCastel判事の公表された判決
専門的基準
- ABA職業行為モデル規則、ルール1.1(コンピテンシー) — テクノロジーコンピテンシーに関するコメント8
- ABA職業行為モデル規則、ルール3.3(裁判所に対する誠実義務)
- ニューヨーク州職業行為規則、ルール1.1および3.3
- 連邦民事訴訟規則、ルール11 — 裁判所への表明
分析とコメンタリー
- Thomson Reuters「ChatGPTと判例法:Mata対AviantaとAI生成法律調査の危険」(2023年)
- American Bar Association「ChatGPTを使用した弁護士が制裁を受ける — 専門職にとっての意味」(2023年)
- Reuters Legal News「ニューヨークの弁護士が法的準備書面で偽のChatGPT判例を使用して制裁」(2023年6月)
- Legal Ethics Forum「Mata対Avianca問題:ハルシネーション、検証、コンピテンシーの義務」(2023年)
- Artificial Lawyer「Mata後:裁判所は法的提出書類におけるAIにどう対応しているか」(2023-2024年)
このケースを体験する準備はできましたか?
このケーススタディは、Lawraラーニングプログラムの一部としてガイド付きファシリテーション用に設計されています。専門家のモデレーション付きロールシミュレーションを含むカスタマイズされたプログラムをリクエストしてください。
コメント
コメントを読み込み中...