探求する

やってはいけないこと

デンジャーゾーン。これらは、すでに弁護士の評判、金銭、資格を犠牲にしたミスです。すべてが実際の事件、実際の結果、実際の教訓に裏付けられています。他者のミスから学び、自分自身のミスから学ばなくて済むようにしましょう。

Lawra
他者のミスから学ぶ方が、自分のミスから学ぶよりはるかに安く済みます。そして法律では、AIのミスには代償が伴います。

なぜこれが重要か: AIツールは強力ですが完璧ではありません。法律専門職では、不適切なAI使用から生じる制裁、資格停止、過誤賠償請求がすでに発生しています。すべてのケースに共通するのは同じことです — 弁護士がAIの出力を出発点ではなく完成品として扱ったことです。

1

AI出力を一語一句読まずに提出してはならない

弁護士は裁判所に提出するすべての文言に個人的な責任を負います。AI生成テキストには捏造された引用、ハルシネーションされた判例法、自信に満ちたナンセンスが含まれている可能性があります。

リスク

専門職としての制裁、過誤責任、訴訟却下、弁護士会懲戒当局への司法付託

実例

Mata v. Avianca, Inc.(S.D.N.Y. 2023)において、弁護士Steven SchwartzとPeter LoDucaは、ChatGPTによって生成された完全に捏造された6件の判例引用を含む準備書面を提出しました。相手方弁護士とP. Kevin Castel判事が当該判例を見つけられなかった際、彼らはさらにChatGPTに判例の存在を確認させるという行動に出ました。Castel判事は各弁護士に5,000ドルの罰金を科し、AIの出力を検証しなかったことが不誠実な行為であると認定しました。この事件は世界的な警鐘となりました。

リスク軽減

AI生成出力のすべての文言を読んでください。すべての引用をWestlaw、LexisNexis、または公式裁判所データベースの一次資料と照合して検証してください。AI出力を完成した成果物ではなく、信頼性の低いインターンからの未検証の初稿として扱ってください。

わかります——AIの目的は時間を節約することですよね。でも、偽の判例を提出して『時間を節約する』のは、過誤保険を払わないで『お金を節約する』ようなものです。パラリーガルが書いた準備書面を読まずに提出することはないでしょう。ロボットが書いたものは、なおさら読まずに提出すべきではありません。AIは失う弁護士免許を持っていません。あなたは持っています。

-- Lawra
2

機密のクライアント情報を公開AIツールに貼り付けてはならない

ChatGPT、Gemini、Claude(無料プラン)などのコンシューマー向けAIツールは、あなたの入力をモデルの訓練に使用する場合があります。クライアントデータをこれらのツールに貼り付けることは秘密保持義務違反です。

リスク

弁護士・クライアント間秘匿特権の侵害、秘密保持義務違反、過誤責任、規制上の罰則、クライアントの信頼の崩壊

実例

2023年4月、Samsung Electronicsはわずか20日間で3件の別々のデータ漏洩を経験しました。エンジニアが独自のソースコード、社内会議のメモ、ハードウェアテストデータをChatGPTに貼り付けたのです。Samsungはその後、全従業員の生成AIツール使用を禁止しました。これは企業のインシデントでしたが、弁護士が直面するリスクをまさに示しています:一度情報が公開AIシステムに入力されると、それに対するすべての制御を失います。法的な文脈では、ニューヨーク市弁護士会がFormal Opinion 2023-7でこのリスクについて弁護士に特に警告を発しました。

リスク軽減

最も安全な選択肢:自分のコンピュータにローカルAIをインストールすることです——データが自分のマシンから出ることはありません(ローカルAIガイドをご覧ください)。あるいは、契約上のデータ保護保証を備えたエンタープライズグレードのAIツール(Azure OpenAI、ChatGPT Enterprise、Claude for Businessなど)を使用してください。無料プランのコンシューマー向けAIツールに識別可能なクライアント情報を絶対に貼り付けないでください。クライアント関連のタスクにAIを使用する前に匿名化および墨消しを行ってください。AIデータ取り扱いに関する事務所全体のプロトコルを確立してください。

弁護士・クライアント間秘匿特権について言えば、それは単なるルールではなく、法制度全体の基盤です。クライアントがあなたに秘密を打ち明けたのは、あなたを信頼しているからです。その秘密をChatGPTに貼り付けることは、クライアントのファイルを公園のベンチに開いたまま放置して、誰にも読まれないことを願うようなものです。いえ、もっと悪いです——少なくとも公園のベンチは、その上に置かれたものから学習しませんから。

-- Lawra
3

AIがあなたの法域を理解していると思い込んではならない

AIモデルは、複数の国や法域の法体系が混在する膨大なデータセットで訓練されています。コモンローとシビルローの混同、連邦法と州法の規則の混同、ある国の法令と別の国の法令の混同が日常的に発生します。

リスク

間違った法域の法律に基づく提出、誤った法的助言の提供、過誤責任、裁判所での信頼性喪失

実例

2023年にリーガルテクノロジー研究者が記録した事例では、米国の弁護士がChatGPTを契約法リサーチに使用した際、統一商事法典(米国)、1979年物品売買法(イングランドおよびウェールズ)、国際物品売買契約に関する国連条約(CISG)の原則をシームレスに混合したアドバイスを受け取りました——3つの異なる法体系が混合されていることの表示は一切ありませんでした。その弁護士は、純粋に国内の契約紛争に外国の法的基準を組み込むところでした。別件では、2023年のZachariah C. Crabillの懲戒事件(コロラド州)において、弁護士がAIが複数の米国法域から吸収したパターンで構成された存在しないコロラド州の判例を引用するAI生成の申立書を提出しました。

リスク軽減

プロンプトには常に正確な法域を指定してください——州、連邦巡回区、国、適用される法体系。すべてのAI出力を法域固有の資料と照合して確認してください。AIが暗黙のうちにどの法律が適用されるかを前提としていることを決して信用しないでください。

AIモデルは、あちこち旅行したけどどこも同じ場所として記憶しているあの友人のようなものです。『テキサスにいるの?この素晴らしい先例について教えてあげるよ……*メモを確認*……イングランドおよびウェールズ高等法院のね。』法域の精度は「あったら良い」ものではありません——法的助言と法的フィクションを分けるものです。

-- Lawra
5

開示を要求する裁判所にAI使用を隠してはならない

AIツールが書面の作成に使用された場合に開示を要求する裁判所が増加しています。要求された際に開示を怠ることは、制裁と信頼性喪失への近道です。

リスク

裁判所命令違反に対する制裁、司法的信頼の喪失、懲戒手続き、事件に影響を与える結果

実例

2023年6月、テキサス州北部地区連邦地方裁判所のBrantley Starr判事は、書面中のAI生成テキストが人間によって検証済みであることをすべての弁護士に証明させる最初の常任命令の一つを発出しました。2024年初頭までに、第五巡回区がAI開示証明を要求する巡回区全体のルールを採用しました。第十一巡回区、複数の連邦地方裁判所、および英国、カナダ、オーストラリアの裁判所が同様の要件に続きました。2024年2月、ペンシルベニア州東部地区の連邦治安判事が、AI開示を要求するローカルルール採用後にAI使用を開示しなかった弁護士に制裁を科しました。

リスク軽減

提出前に、すべての法域のAI開示に関する現行の常任命令とローカルルールを確認してください。透明性の側に誤ってください——明示的に要求されていない場合でも、自発的な開示は信頼を構築します。事務所の標準AI開示証明書を策定してください。

裁判所は告白を求めているのではありません。プロフェッショナルであることを求めているのです。開示ルールは、裁判官が「どの引用が本物か当てっこ」をすることに疲れたから存在するのです。AIを使ったことを裁判官に伝えるのが恥ずかしいなら、それはおそらくもっと慎重にAIを使うべきだったというサインです。透明性は弱さではありません——あなたが自分の成果物に対して責任を取っていることの信号です。

-- Lawra
6

AI出力をリーガルリサーチとして扱ってはならない

AIはもっともらしく聞こえる法的テキストを生成しますが、検証された法的分析ではありません。リサーチのように見えるテキストを生み出しますが、実際にはリサーチされていません。AI出力を適切なリーガルリサーチの代替として扱うことは専門職上の危険です。

リスク

捏造された典拠への依拠、不完全な法的分析、支配的な典拠の見落とし、過誤リスク、制裁

実例

研究者Varun MageshとDaniel E. Hoが率いる2024年のスタンフォード大学の研究は、主要なAIモデル(GPT-4、Claude、Llama 2)のリーガルリサーチ能力をテストし、直接的な法的リサーチの質問に対して69%から88%の確率で法的引用をハルシネーションすることを発見しました。引用が実在する場合でも、モデルは判旨を誤って伝え、不正確な基準を適用し、または支配的な反対典拠を省略することが頻繁にありました。『Hallucinating Law(法のハルシネーション)』と題されたこの研究は、現行のAIモデルで単独のリーガルリサーチツールとして信頼できるものはないことを実証しました。

リスク軽減

AIを使ってリサーチの仮説を生成し、潜在的な検索用語を特定し、予備的なアウトラインを作成してください。その後、権威あるデータベース——Westlaw、LexisNexis、Fastcase、Google Scholar、または公式の裁判所・立法データベース——を使用して実際のリーガルリサーチを実施してください。AIはブレインストーミングパートナーであり、Westlawが真実のソースです。

準備書面にWikipediaを引用しないでしょう。では、なぜ基本的にWikipediaが法学位のコスチュームを着たようなものを引用するのですか?AIはリサーチしません。テキストを予測します。これらは根本的に異なる活動です。リサーチの起点として使うのは大いに結構ですが、「ChatGPTがそう言った」を「法律がそう言っている」として扱い始めた瞬間、あなたは弁護士であることをやめ、非常に高価な自動補完になっています。

-- Lawra
7

感情的知性を要するタスクにAIを使用してはならない

クライアントカウンセリング、繊細な交渉、証人準備、困難な知らせの伝達には、AIが根本的に提供できない人間的な共感、感情的な同調、対人判断が必要です。

リスク

クライアント関係の損傷、不十分な代理、倫理違反、信認義務の不履行、脆弱な個人への損害

実例

2023年、全米摂食障害協会(NEDA)は人間のヘルプラインカウンセラーを「Tessa」というAIチャットボットに置き換えました。数日以内に、ユーザーはTessaが摂食障害を悪化させる可能性のあるアドバイス——拒食症の助けを求める人にカロリー計算や減量を推奨するなど——を提供していると報告しました。NEDAは1週間以内にTessaをシャットダウンしました。これは法的事件ではありませんが、感情的感受性と繊細な人間理解を必要とする文脈にAIが投入された場合に何が起こるかを完璧に示しています。法的な文脈では、複数の弁護士会がクライアントカウンセリング、特に家族法、刑事弁護、移民法などの繊細な実務分野においてAIが必要な判断を代替することはできないと警告しています。

リスク軽減

共感、感情的知性、行間を読む能力、人間的なつながりを必要とするタスクは、人間の専門家に委ねてください。これらのやり取りをサポートする背景調査や起草にはAIを使用しますが、人間的なやり取りそのものの代替としては決して使用しないでください。

あなたのクライアントが親権争いについて統計的に確からしい回答を必要としているわけではありません。目を見て「あなたが経験していることを理解しています。こうやって戦いましょう」と言ってくれる人が必要なのです。AIは申立書を起草できますが、その場を支えることはできません。控訴が棄却されたことをクライアントに伝えるメールを書くためにChatGPTを使っているなら、その瞬間にクライアントがあなたから必要としているものを根本的に誤解しています。

-- Lawra
8

弁護士会のAIガイドラインを無視してはならない

米国内外の弁護士会は、加速するペースでAI固有のガイダンスを発出しています。これらは提案ではありません——実際の結果を伴う既存の倫理的義務の解釈です。

リスク

懲戒処分、業務停止、弁護士資格剥奪、過誤認定、専門職としての地位の喪失

実例

2024年1月、フロリダ州弁護士会理事会がAI使用に関する詳細なガイダンスを発出し、続いてカリフォルニア州弁護士会、ニューヨーク州弁護士会、および多数の他の法域が迅速に続きました。ABAは2024年7月にFormal Opinion 512を発出し、全国レベルのガイダンスを提供しました。初期のガイダンスを無視した弁護士は結果に直面しました:Crabill懲戒事件(コロラド州、2024年)において、審判所は特に、AI固有のガイダンスがなくても既存の倫理規則が弁護士が果たせなかった義務を創出していたことを指摘しました。メッセージは明確です:「AIルールがあることを知らなかった」は、既存の能力義務と監督義務がすでに適用されている場合、弁解になりません。

リスク軽減

あなたの弁護士会のAIガイダンスを直ちに確認し読んでください。弁護士会の倫理情報の更新を購読してください。あなたの法域がまだAI固有のガイダンスを発出していない場合は、既存の倫理規則——能力(規則1.1)、秘密保持(規則1.6)、監督(規則5.1および5.3)、誠実義務(規則3.3)——をAI使用に適用してください。コンプライアンスを文書化してください。

わかっています、わかっています——「弁護士会のガイドラインを読め」は法律専門職版の「野菜を食べなさい」です。でもこういうことです:これらのガイドラインはあなたの盾です。何かが間違ったとき——そしていつか、誰かにとってはそうなります——懲戒委員会が最初に尋ねるのは「適用されるガイダンスに従いましたか?」です。あなたの答えが「ガイダンスがあることを知りませんでした」なら、すでに負けています。そして正直に言うと、これらのガイドラインのほとんどは実際によく書かれています。弁護士会は助けようとしているのです。その助けを受け入れてください。

-- Lawra
9

AIに準備書面全体を書かせてはならない

AI生成の準備書面には、効果的な法的弁護を際立たせる戦略的ビジョン、説得力のある声、繊細な論証が欠けています。AIが完全に書いた準備書面は、特定のクライアントの利益に資さない汎用的な文書です。

リスク

弱い弁護、説得に失敗する汎用的な議論、見逃される戦略的機会、弁護士の専門職としての声と信頼性の喪失

実例

Ex parte Allen Michael Lee(テキサス州刑事控訴裁判所、2024年)において、人身保護令状の申立てが、汎用的な言語、異常なフォーマットパターン、および事件の具体的事実に即していない議論に基づき、AI生成の可能性が高いとフラグが立てられました。裁判所は、提出書面が事件固有の分析を欠き、事実上あらゆる事件に適用可能な一般化された法的命題に依拠していることを指摘しました。申立てがAI作成の疑いだけを理由に却下されたわけではありませんが、裁判所の精査はAI生成の準備書面がいかに信頼性を損なうかを示しています。ハーバード・ロースクールの2024年のAI生成法律文書の分析は、AIが文法的に正確で構造的に健全な法的テキストを生成できる一方で、事件に勝つための戦略的で説得的な論証を展開することには一貫して失敗していることを発見しました。

リスク軽減

リサーチ、アウトライン作成、初稿セクションの生成にAIを使用してください。その後、広範囲に書き直してください——あなたの戦略的ビジョン、裁判官についての知識、事件の独自の事実への理解、説得的な声、どの議論を強調し、控えめにし、または完全に省略するかに関する専門的判断を加えてください。

秘密を教えましょう:裁判官にはわかるのです。彼らは何年も準備書面を読んできました。AI生成の準備書面は法的衣装を着たWikipediaの記事のように読めます——技術的には正確で、包括的に凡庸で、準備書面を実際に説得的にする戦略的なひらめきが完全に欠けています。あなたのクライアントはWikipediaを雇ったのではありません。あなたを雇ったのです。足場にAIを使い、それからあなたにしか作れなかったものを築いてください。

-- Lawra
10

今日の限界が永続的だと思い込んではならない

AIの能力は指数関数的なペースで進歩しています。今日AIにできないことが、明日には有能にできるようになるかもしれません。現在の限界に基づいてAIを軽視する弁護士は、急速な改善に不意を突かれるリスクがあります。

リスク

専門職としての陳腐化、競争上の不利、進化する機能に合わせた実務の適応の失敗、専門職が変革するにつれてクライアントに効果的にサービスを提供できなくなること

実例

2022年、法律専門家はAIが司法試験に合格する能力がないと広く否定していました。2023年、GPT-4は統一司法試験に合格し、約90パーセンタイルのスコアを記録しました。2024年、LegalBenchなどの研究によると、特化型法律AIモデルは契約レビューやリーガルリサーチなどの特定のタスクでジュニアアソシエイトを上回り始めました。Thomson Reutersは、GPT-4搭載の法律AIツールCoCounselが文書レビュータスクにおいて経験豊富な弁護士に匹敵する正確率を達成したと報告しました。変化のペースは一貫して専門家の予測を上回り、機能がスケジュールより数年早く到来しています。

リスク軽減

信頼できる情報源を通じてAIの動向に関する情報を常に把握してください。四半期ごとにAIの機能とワークフローを再評価してください。実務に適応性を組み込んでください——AI能力を一回限りの学習イベントではなく、進化するスキルとして扱ってください。継続的な教育と実験に投資してください。

2020年には、『賢い』見方はAIが法的なニュアンスを処理できないというものでした。2023年までに、司法試験に合格していました。AIがXをできないという前提にキャリア戦略を構築するなら、AIがそれをできるようになった日に備えたプランを持っておいた方がいいですよ。AIが弁護士に取って代わるとは思いません——本当にそう思います。しかし、AIを理解することを拒否する弁護士には絶対に取って代わるでしょう。成功する弁護士は、「AIにこれができるか?」と尋ねるのをやめ、「AIを使ってこれをもっとうまくやるにはどうすればいいか?」と尋ね始めた弁護士です。

-- Lawra

次は正しいやり方を学ぶ

何を避けるべきかを知ることは不可欠ですが、それは全体像の半分にすぎません。AIを効果的に、倫理的に、自信を持って使用するためのベストプラクティスを学びましょう。

体系的な学習の準備はできましたか? 学習プログラムを見る →

コメント

コメントを読み込み中...

0/2000 コメントは承認後に表示されます。