こんにちは。弁護士の浅見隆行です。
今回は半分雑談、半分情報セキュリティやガバナンスの話しです。
Anthropic社が2026年5月12日、法律分野に特化した「Claude for Legal」を正式に発表しました。
同社の発表によれば、法律実務に特化した12種類のプラグインと、20以上の外部サービスとの接続機能(MCPコネクター)が新たに追加されています。
Thomson ReutersのWestlawやPractical Law、Harvey、DocuSign、Everlawといった海外の主要な法律関連サービスとClaudeが直接やり取りできるようになり、Microsoft 365(Word、Outlook、Excel、PowerPoint)との連携も強化されたと公表されています。
法律分野での生成AIの本格活用に向けた、これまでで最も大きな動きだと考えています。
Claudeはすでに業務に欠かせないツールになりつつある
Claudeをはじめとする生成AIは、すでに多くの中小企業・ベンチャー企業の現場で日常的に使われています。
契約書のたたき台を作る、社内文書を要約する、英文メールを下書きする、社内規程の論点を洗い出すなどよく使われているようです。
法務担当者がいない会社では、社長や総務担当者、経理担当者が、こうした作業を片手間に一人で抱え込んできました。
そこにClaudeが入ることで、最初のたたき台や論点整理を数分で終えられるようになったと聞きます。
法務担当者を雇う余裕がない会社にとって、生成AIは欠かせない補助役になり始めていると思います。
私も研修資料の準備や下調べ、執筆にClaudeやGeminiを大いに活用しています。ChatGPTはプライベートでのみです。
また、法律に関わる調査では、Legalscape をよく使ってます。
Claude for Legalで法律分野の業務支援が一段進んだ
今回の Claude for Legal の登場で何が変わるのかを、簡単に整理しておきます。
企業法務、雇用法務、紛争対応、コーポレート(M&A・組織再編)、プライバシー、AIガバナンスといった分野ごとに、専用のプラグインが用意されました。
Anthropic社の説明では、各プラグインは導入時に利用者へインタビューを行い、その組織独自の判断基準や社内ルール、エスカレーションの仕組みを学習する設計になっています。
加えて、Westlawの裁判例データベースやPractical Lawの実務手引書、CoCounselやHarveyといった専門サービスにClaude(正確にはClaude Cowork)から直接アクセスできるようになりました。
これまで「Claudeに質問する」ことと「専門データベースで判例を確認する」ことは別の作業でしたが、それが一つのワークフローに統合されたことになります。
実用性は高く、今後の展開に期待が持てると思います。
私もさっそく Claude Cowork にプラグインを設定してみました。
実用性がどんなものかはこれから様子見です。
日本法・日本判例のデータベースとはまだ繋がっていない
今回連携対象となっているのは、Westlaw(米国判例)、Practical Law(英米法中心の実務手引)、CoCounsel、Harveyなど、いずれも米国・英米法を主戦場とするサービスです。
Claude に質問して確認したところ、日本の法令(e-Gov)、判例データベース(第一法規、TKCローライブラリー、LEX/DBインターネット、Westlaw Japan等)や、日本の主要な法律書籍・法律雑誌のサービスは、現時点では連携対象に含まれていないそうです。
今のところ、日本法に関する具体的な事案を扱う場面では、Claude for Legalの出力は、Claude本体が学習段階で得た(Claudeユーザーの誰かが学習させた)一般的な知識に依存することになります。
判例の正確な事件番号、最新の改正法令、実務での運用感覚といった部分まで踏み込むと、日本法の領域では依然として精度に揺らぎがあると考えられます。
便利そうに見えるが、日本の法務にそのまま使うにはまだ早い局面がある、というのが、現時点での率直な印象です。
とはいえ、e-Govをはじめ日本の判例データベースや書籍類のサービスと接続したときには、他の追随を許さない脅威的なツールになるかもしれません。
情報漏えいリスク:Samsung事案が示したこと
便利なサービスになることが予想されるにしても、リスクがなくなったわけではありません。
情報漏えいの問題で広く知られているのが、2023年3月に報じられたSamsungのケースです。
複数のメディアによれば、Samsung電子は社内でChatGPTの利用を解禁した直後の20日間で、エンジニアが半導体に関する社内ソースコードや会議の音声データをChatGPTに入力してしまい、複数件の情報漏えいが発生したと報じられています。
同社はその後、社内での生成AIの利用を一時禁止する措置を取ったとも報じられています。
法務担当者のいない会社では、顧客情報、未公開の契約条件、人事評価、取引先との交渉経緯といった、本来「外に出してはならない情報」が、契約書チェックや交渉メモ作成のためにそのままAIへ入力されるリスクがあります。
特に最近はAIで議事録を作成することがもてはやされていますが、社外秘の情報を扱っている取締役会、経営会議、企画・開発会議、取引先との新商品や新サービスに関する打ち合わせの内容をAIに入れて議事録を作成することには情報漏えいリスクや取引先との守秘義務違反のリスクがあります。
「ちょっと意見を聞いてみよう」「効率的に仕事しよう」という気軽さが、結果として外部サーバーへの機密情報の送信になっている。そのことに本人が気づかないまま使い続けてしまう怖さがあります。
学習を回避する設定にしていない無料プランや個人アカウントで業務情報を入れていないかという基本的な確認は、まず最初にしておきたい点だと思います。
ハルシネーションリスク—存在しない判例や条文が引用される
もう一つは、生成AIが「もっともらしい嘘」を返すハルシネーションの問題です。
2023年に米国で発生したAvianca航空事件が有名です。
複数のメディアによれば、ニューヨーク州の弁護士スティーブン・シュワルツ氏が、ChatGPTを使って訴状を作成したところ、引用された6件の判例がすべて実在しないものだったとされています。
米国連邦地方裁判所は、当該弁護士と所属事務所に対して5,000ドルの制裁金を科したと報じられています。
同種の事案はその後も繰り返し起きていると報じられています。
法律の専門家ですら判例の真偽を見抜けないことがある、という事実は重く受け止めるべきでしょう。
法務担当者のいない会社では、AIが出してきた条文や判例の事件番号が正しいかどうかを社内で確認できる人が、そもそもいません。
「AIが言っているから合っているだろう」という前提のまま、そのまま契約書や社内規程に反映されてしまう怖さがあります。
日本の弁護士業務にも変化のきざし
ここまでは、AIを使う企業側の話を中心に書いてきました。並行して、弁護士の側でも業務の進め方は確実に変わり始めていると思います。
国際取引や英文契約を多く扱う大手法律事務所では、Claude for Legalのような道具は早期に取り入れられていくと考えます。
英米法のリサーチ、デュー・デリジェンスの初期作業、英文契約のドラフトといった作業のうち、これまで若手弁護士やパラリーガルが時間をかけていた部分が、相当程度AIに置き換わっていくと思います。
一方、日本の中小・個人事務所が中心に扱う国内案件、特に労務、契約、債権回収、紛争対応といった分野では、日本法・日本判例のローカルなデータが連携されるまで、Claude for Legalの実用性は限定的でしょう。
むしろ、判例の射程感、行政の運用、業界の慣行、相手方の出方の読みといった日本法務の実務感覚は、AIが容易に代替できない領域として残っていきます。
弁護士の側にもう一点付け加えると、AIに依頼者情報を入力する際の守秘義務(弁護士法23条、弁護士職務基本規程23条)の問題があります。
便利だからといって、依頼者の事案を識別できる情報をそのまま生成AIに入力することは、業務用プランであっても慎重な検討が必要です。
依頼する側に話しを戻すと、「AIで足りる相談」と「AIでは足りない相談」の見分け方が、これからの数年で問われていく気がします。
「AIに判断を任せる」という落とし穴
ここまで述べてきたリスクを別の角度から眺めると、法務担当者のいない会社特有の構造が見えてきます。
法務担当者がいる会社では、「これは法律上問題ない」と最終的に判断する人が組織内にいます。その人が責任を持って弁護士に確認し、専門家の目でチェックしてもらいます。
一方、法務担当者がいない会社では、その役割が誰にも明確に割り振られていません。営業の責任者、総務の担当者、社長自身が、片手間に法律判断をする状態が続きます。
ここに生成AIが入ってくると、「Claudeに聞いてみたら問題ないと言われたから、たぶん大丈夫だろう」という言葉で、判断そのものが止まってしまうことになります。
本来であれば弁護士に確認すべき場面で、AIの回答が「弁護士に相談しなくても済む理由」として使われてしまう。AIを「下調べのツール」として使うのではなく、「判断そのものを肩代わりしてくれる存在」として受け取ってしまう。AIに判断を任せておけば問題ないという錯覚や誤解が生じるのです。
この錯覚や誤解が怖いのは、本人に悪意がないことです。
むしろ、まじめに業務を進めようとしている担当者ほど、AIの整然とした回答を信頼してしまう傾向があると思います。
法務担当者のいない会社こそ、AIとの距離感を決めておく
今回のClaude for Legalの登場は、確実に法務分野の景色を変えていくと考えています。
それでも、日本法に関する具体的判断は当面、人間の専門家の目を通すべき領域として残ると思います。
法務担当者を置けない会社にこそ、社内でいくつかの取り決めを持っておくことをお勧めします。
- AIへの入力は「外に出ても困らない情報」に限るというルール
- AIが示した条文番号・判例番号は原典で必ず確認するという習慣
- 契約書・社内規程・対外文書として「最終的に世に出るもの」については、必ず弁護士に一度通すという線引き
この三つを社内で明確にしておく(ルール化しておく)だけで、日々の使い方は大きく変わると思います。
AIを使うこと自体を恐れる必要はありません。
むしろ、こうした安全な距離感さえ作っておけば、生成AIは法務担当者のいない会社にとって最も心強いツールの一つになると考えています。
怖いのは、ツールそのものではなく、「AIに任せておけば間違いない」という利用する側の錯覚の方だと思います。

