法の世界でAIに頼ることの危険性
ChatGPTのようなAIを法廷で活用することには大きなリスクもつきまといます。
AIは「ハルシネーション」と呼ばれる現象、つまり「それらしいけれど実際には存在しない判例や論拠」を作り出してしまうことがあります。
アメリカの法曹界では、AIの誤用による深刻なトラブルも続出しています。
たとえば、ある弁護士がAIの提案をそのまま法廷文書に記載したところ、23件中21件の判例が“完全な架空のもの”であると判明し、裁判官から厳しく糾弾されたというケースも報道されています。
AIを提供する企業側も「法的アドバイスには使わないでほしい」と警告していますが、実際の現場ではその“ガードレール”は簡単に乗り越えられてしまいます。
誰でもAIに頼ることで、それっぽい法律文章が出てきてしまうのが現状です。
弁護士のロバート・フロイント氏は、AIと法廷の関係について次のようにコメントしています。
「弁護士がいない人や経済的な理由で弁護士に頼れない人がAIツールに頼りたくなる気持ちはよく分かります。
しかし、専門家である弁護士がAIの誤った情報をそのまま使い、クライアントを危険にさらすなど、決して許されることではない。理解できません」
AIの法廷利用は、「一発逆転」のギャンブル的な面を否定できません。
ホワイトさんの事例は確かに魅力的な成功例であり、「家にハーバード大学法学部の教授がいる」という夢のような話にも見えます。
しかし、まさにこれは「夢のような話」です。
今回ホワイトさんは大きな賭けに勝ちましたが、多くの場合は「同じやり方で失敗に終わる」リスクの方がはるかに高いのです。
ChatGPTなどAIツールの法廷利用は、現状では非常に高いリスクを孕んでいます。
現在、AIは万能の弁護士ではなく、人間には到底及びません。
今後も、こうしたAI活用の課題と可能性の両方を冷静に見つめ、私たち自身が賢く使いこなす力が求められます。
機械学習は通常人間が教師データを与えてAIに学習させるが、AIを教師にして人間が学習した成果なのが興味深い。
例に挙がっている人の場合は自分の主張の穴をAIに埋めてもらっている使い方であって、AIが彼女の代わりに主張しているわけではないのですから、他のケースとはだいぶ違う気がしますね。
そういう使い方であればハルシネーションの影響はほとんど受けないでしょう。
ですが正直なところ業務でAIを使う際に一番期待される時間の短縮や作業の効率化には全く寄与しないので、悪い言い方をすればAIである必要がないわけです。