生成AIは、もう“試しに使うもの”ではなくなってきました。
最近は、裁判所での活用が議論され、国会では質問文や答弁づくりにAIを使う動きも話題になっています。実際、政府は2025年に行政機関向けの生成AI利活用ガイドラインを整備し、活用とリスク管理をセットで進める方針を示しました。
ただ、人の人生を左右する裁判や、国の方向を決める政治の場でAIが入ってくると、やはり少し身構えます。便利だから使う、では済まないからです。問われるのは、AIの性能よりも、その結果に誰が責任を持つのかなのだと思います。
結論
裁判所や国会でAIを使うこと自体は止められない流れです。けれど、判断や発信の責任までAIに預けてはいけない。便利さを広げるほど、人間の責任はむしろ重くなる。
要点3つ
裁判でAIが使われても、最後の判断は人であるべき
共同通信の記事では、最高裁で裁判実務への生成AI活用の議論が本格化している一方、裁判官の判断過程そのものには使わない考え方が示されています。大量の資料整理や検索補助のような周辺業務には可能性があっても、有罪・無罪や量刑のような核心部分まで委ねるのは別問題です。
人の罪を裁く場面で怖いのは、「AIもそう言っているから」という空気が責任を薄めてしまうことです。誤りが起きたときに必要なのは、AIの説明ではなく、人が説明責任を果たせることです。
国会でAIが文章を作れても、政治の責任は消えない
2023年には、ChatGPTで作成した国会質問が実際に使われ、大きな話題になりました。また、AIに「日本国憲法改正案を示して」と入力すると、30秒足らずでそれらしい案文まで出てきたと報じられました。
ここで見えてくるのは、AIが“整った文章”を作る力です。けれど、整って見えることと、政治的に妥当であることは同じではありません。質問文も答弁も、最終的には議員や政府が自分の言葉として出す以上、内容の責任は人間側から消えません。むしろAIが入るほど、「誰が考え、誰が確認し、誰が引き受けるのか」をはっきりさせる必要があります。
AI活用が広がるほど、「使い方のルール」が主役になる
政府は2025年に、行政向けの生成AIガイドラインを策定し、活用促進とリスク管理を表裏一体で進めるとしています。また、総務省・経産省のAI事業者ガイドラインでも、AIの利用は技術の問題だけでなく、ガバナンスや人の関与を含めて考えるべきだと整理されています。
つまり今の論点は、「AIを使うか、使わないか」ではありません。
使うなら、どこまで任せ、どこからは人が責任を持つのか。
そこを曖昧にしたまま広げると、便利になったはずなのに、何かあった時だけ誰も責任を取らない――そんな危うさが残ります。
背景ちょい足し
裁判所でも行政でも、AI導入の理由は共通しています。
人手不足、業務の複雑化、文書量の増大。AIはそこを埋める“補助者”としてはかなり優秀です。だから導入の流れ自体は、たぶん止まりません。
ただ、補助者が優秀になるほど、責任者が見えにくくなる。ここが今のAI時代のいちばん難しいところです。
ひとこと
AIが裁判や政治の現場に入る時代になって、少し驚きました。
でも本当に大事なのは、「AIを使ったかどうか」ではなく、「その内容を自分の責任で出したのかどうか」なのだと思います。
便利さの時代だからこそ、最後に問われるのは人の覚悟。
私は、そこだけは薄れてほしくないと感じます。
一次情報・参考情報
- 裁判所広報誌「司法の窓」
- 共同通信「裁判にAI、活用は可能? 最高裁で議論本格化」
- デジタル庁「行政の進化と革新のための生成AIの調達・利活用に係るガイドライン」
- 総務省・経産省「AI事業者ガイドライン(第1.1版)」
- 共同通信「チャットGPTがたった30秒で作った『憲法改正案』、その中身とは?」

