米国の裁判所で、弁護士がAIツールで生成した架空の判例を提出し発覚する事例が続出。言い訳は「ハッキングされた」「ログイン情報を失った」など。法曹界でAI利用の適切な管理が課題に。
米国で弁護士のAI誤用が続出、架空判例提出で「ハッキングされた」と言い訳
米国の裁判所で、弁護士がAI(人工知能)ツールを使って作成した架空の判例を法廷文書に含めてしまう事例が相次いでいます。これらの弁護士が発覚後に述べる言い訳が、法曹界で問題視されています。「自分のアカウントがハッキングされた」「ログイン情報を紛失した」「これは下書きだった」「ウィンドウの切り替えが難しかった」といった説明が実際に法廷で述べられました。AIツールは質問に対して流暢な文章で回答しますが、存在しない判例を本物らしく創作してしまうことがあります。この問題は、法律実務におけるAI利用の管理体制と、専門職としての責任の在り方について、重要な課題を投げかけています。弁護士には提出する文書の正確性を確認する義務があり、AIが生成した内容をそのまま使用することの危険性が浮き彫りになっています。
相次ぐAI誤用事例と弁護士の言い訳
2023年以降、米国の複数の裁判所で、弁護士が提出した法廷文書に架空の判例が含まれていた事例が報告されています。これらの判例は、ChatGPTなどの生成AIツールが作り出した、実在しない裁判の引用でした。発覚後、弁護士たちは様々な言い訳を述べています。
ある弁護士は「自分のアカウントがハッキングされた」と主張しました。別の弁護士は「ログイン情報を失ったため、誰が文書を作成したか確認できない」と説明しました。「これは正式な提出物ではなく、単なる下書きだった」と弁明する例もありました。さらに、「複数のウィンドウを切り替える作業が難しく、間違えて提出してしまった」という技術的な困難を理由にする弁護士もいました。
これらの言い訳は、裁判官や法曹界から厳しい批判を受けています。弁護士には、提出する文書の内容を自ら確認し、その正確性に責任を持つ職業上の義務があるためです。AIツールを使用したこと自体が問題なのではなく、その出力を検証せずに提出したことが問題視されています。
背景と経緯
この問題が広く知られるようになったのは、2023年にニューヨークの連邦裁判所で起きた事例がきっかけでした。ある弁護士がChatGPTを使って判例調査を行い、AIが生成した架空の判例6件を含む準備書面を提出しました。裁判官がこれらの判例を確認できないことに気づき、問題が発覚しました。
この事例以降、同様のケースが全米各地で報告されるようになりました。生成AIツールの普及により、法律実務でもこれらのツールを使用する弁護士が増えています。しかし、AIツールの特性を十分に理解せずに使用する専門家がいることが明らかになりました。
法曹界では、AI利用に関するガイドラインの整備が進められています。複数の州の弁護士会が、AI使用時の注意事項や確認義務について指針を発表しました。しかし、具体的な罰則や管理体制については、まだ議論が続いています。
AIが架空判例を生成する仕組み
ChatGPTなどの生成AIは、大量のテキストデータから学習した言語モデルです。質問に対して、統計的に最も自然な文章を生成します。法律の判例を尋ねられると、実在する判例の文体や形式を学習しているため、本物らしい判例を創作してしまうことがあります。
例えば、「契約違反に関する判例を教えて」と尋ねると、AIは実在しない事件名、裁判所名、判決日、判例番号を含む、もっともらしい回答を生成することがあります。判決文の引用も、法律用語を適切に使った流暢な文章で提示されます。専門家でも、一見しただけでは架空の判例と気づかない場合があります。
この現象は「ハルシネーション」(幻覚)と呼ばれます。AIが事実に基づかない情報を、自信を持って提示する現象です。AIツールは、情報の真偽を判断する能力を持っていません。学習データのパターンから文章を生成しているだけで、その内容が事実かどうかは確認していないのです。
できること・できないこと
現在のAIツールは、法律実務において補助的な役割を果たすことができます。例えば、契約書の下書き作成、法律文書の文章校正、一般的な法律概念の説明といった作業では有用です。大量の文書から特定の情報を抽出する作業や、定型的な文書の作成にも活用できます。
一方で、判例調査や法律意見の作成など、正確性が絶対に必要な作業では、AIの出力をそのまま使用することはできません。AIが提示する判例や法律情報は、必ず人間が原典を確認する必要があります。特に、裁判所に提出する文書や、依頼者への法律助言では、AIの出力を検証せずに使用することは職業倫理に反します。
将来的には、法律専門のAIツールが開発され、判例データベースと直接連携することで、より信頼性の高い情報提供が可能になるでしょう。しかし、現時点では、AIはあくまで作業効率を上げる道具であり、専門家の判断を代替するものではありません。
私たちへの影響
このニュースは、弁護士に依頼する可能性のあるすべての人に関係します。自分の代理人がAIツールを適切に使用しているか、提出される文書の正確性が確保されているかは、訴訟の結果に直接影響するためです。
短期的には、弁護士を選ぶ際に、AI利用に関する方針を確認することが重要になります。「AIツールを使用していますか」「使用している場合、どのように内容を検証していますか」といった質問をすることが推奨されます。また、受け取った法律文書に不自然な点がないか、引用されている判例が実在するかを確認する意識も必要です。
中長期的には、法律サービスの質と費用に変化が生じる可能性があります。AIツールの適切な活用により、定型的な作業の効率が上がり、費用が下がることが期待されます。一方で、AI利用の管理コストや、検証作業の重要性が増すことで、一部のサービスでは費用が上昇するかもしれません。
ただし、過度に心配する必要はありません。多くの弁護士は職業倫理を重視し、提出する文書の正確性を確保しています。この問題は、新しい技術の導入期に起こる一時的な混乱と考えられます。法曹界全体でAI利用のルールが整備されれば、より安全で効率的なサービスが提供されるようになるでしょう。
