ChatGPT、BingAI、GoogleBardなど生成系AIを会社の業務で使うときの情報セキュリティの観点からの課題と、社内ルール(ガイドライン)案

こんにちは。
弁護士の浅見隆行です。

2023年は生成系AI元年といってもいいでしょう。
ChatGPT、BingAI、GoogleBardと相次いで生成系AIが登場し話題になっています。

実際に試してみると、「よくまとめたな」と驚くような正確な結果と、「嘘ばっかりだな」とイラッとしてしまう不正確な結果(幻覚=ハルシネーション)との両方が生成されるので、生成された内容を仕事に使うにはキチンと裏取りをしながらでないとダメそうです。

ChatGPTなど生成系AIに対する企業や行政の動き

そんな中、会社の業務にChatGPTなどを積極的に活用しようという動きや、ChatGPTを利用する際のルールを定めようとする動きも出ています。

神戸市は、5月12日、生成系AIが業務で使用できるようにした条例案を市議会に提出しています。
「与えてはならない」と定めてあるので、生成系AIへの入力(情報提供)を制限するものです。

本市の機関等の職員は、職務上知り得た情報のうち神戸市情報公開条例(平成13年7月条例第29号)第10条各号に掲げるものを含む指令を、次の各号に掲げるものに対して与えてはならない。ただし、安全性が確認されたものとして市長が別に定める場合を除く。
(1)AIチャットボット(人工的な方法により学習、推論、判断等の知的機能を備え、かつ、質問その他の電子計算機に対する指令に応じて当該知的機能の活用により得られた結果を自動的に回答するよう作成されたプログラムをいう。)
(2)その他前号に類するもの

神戸市情報通信技術を活用した行政の推進等に関する条例 改定案

こういう動きを見ていると、生成系AIを仕事に使うのは止める、という選択肢は無さそうです。

生成系AIを業務に使用する場合の7つの課題とリスク

生成系AIを無条件に会社の業務に使って良いかというと、いくつかの課題が考えられる気がします。

課題をリスクとして踏まえて、生成系AIへの向き合い方をビジネスパーソンとしてのマナーにする、あるいは社内ルール(ガイドライン)を作る必要があると思います。

私が使った限りで感じた課題とリスクは、以下の7点です。

  1. 生成された情報の最新性の問題
  2. 生成された情報の正確性の問題
  3. 生成された情報の根拠の所在(透明性)
  4. 生成された情報の質・程度の問題
  5. 生成された情報の適法性の問題(主に著作権侵害)
  6. 生成系AIに入力する情報漏えいの問題(情報セキュリティ、情報管理)
  7. シンギュラリティ(生成系AIの制御)

1つ1つ見ていこうと思います。最後に「まとめ」として社内ルールの文案も載せています。

生成された情報の最新性の問題

ChatGPTなどの生成系AIから生成される結果は、必ずしも最新のデータに基づくものではありません。

一般的なGoogleなどの検索では、ネットニュースで報じられたものはその日のうちに検索結果に反映されます。

これに対して生成系AIの場合はネットをクロールして学習するまで時間がかかるようです。

昨日投稿した豊田自動織機の不正についてもGoogleBardでは直近2週間の情報(既に行政処分を受けていること)については情報として反映されていませんでした。

そのため、生成された情報を業務に利用するときには、情報の発信元を確認して、最新の情報を確認する必要があります。

特に法改正に関わる部分など施行日も含めた確認が必要だと思います。

ここは社内ルールで定めるよりも、ビジネスパーソンとしての仕事の質の問題かもしれません。

もちろん、社内ルールで「生成された情報について最新性を確認すること」と義務づけても良いと思います。

生成された情報の正確性の問題

最新性と同様に課題なのが、生成された情報の正確性の問題です。

現状、生成系AIから生成された情報は正確性を欠くものが含まれています。

しかも、正確でないにもかかわらずあたかも正確なように答える。まるで詐欺師のようです。幻覚=ハルシネーションとか呼ばれたりしています。

そうなると、会社の業務に使用するためには、情報を鵜呑みに刷るのではなく、生成された情報の発信元を確認することは必須でしょう。

これも社内ルールで定めるよりも、ビジネスパーソンの仕事の質の問題かもしれません。

ただ、鵜呑みにした時の影響度が大きいので、社内ルールで「生成された情報の結果については、正確性を確認すること」と義務づけた方がよいかもしれません。

生成された情報の根拠の問題(透明性)

最新性、正確性とがセットになったような問題ですが、生成系AIから生成された情報は、どこが情報源なのかがわからないものが存在します。

BingAIやPerplexityAIは毎回情報源が出てきますが、ChatGPTなどは情報源は出てきません。情報源を質問しても、存在しない情報源を出してくることさえあります。

そうなると、情報の最新性、正確性を確認する前に、そもそも「どこの情報?」という情報源の存否を確認する必要があります。

その際には情報源が信頼できるものなのかについても確認が必要です。
個人で書いたブログや陰謀論などが根拠になっていれば眉唾物の情報だからです。

要は、やるべきことは、Googleが検索品質評価ガイドラインに示している

  • E(専門性=Expertise)
  • E(経験=Experience)
  • A(権威性=Authoritativeness)
  • T(信頼性=Trustworthiness)

の4項目を人間がアナログで確認するということです。

これもビジネスパーソンとしての仕事の質の問題ですが、最新性、正確性と同様に社内ルールに定めたほうがよいかもしれません。

生成された情報の質、程度の問題

生成系AIで生成された情報を会社の業務に使うなら、情報の質、程度が一番重要かもしれません。

生成系AIで情報をまとめた結果、Wikipediaに載っているような事実が並べられただけなら、あえて生成系AIを利用する必要はありません。調べる時間の短縮にはなりますが・・。

より専門的なことを調べたいときに、そんな結果しか出てこないの?と思ったら、追加で質問して次の結果、さらに次の結果と深掘りしていく必要はあります。

その意味では、生成系AIに対する質問力、使いこなし方を磨くことが必要です。

これは、現在のGoogle検索でも、検索を使いこなせない人としてよく話題になっています。
検索を使いこなす能力の差がますます広がるのが生成系AIかもしれません。

会社の業務で生成系AIを使用するなら、当分の間は、生成系AIに対する質問の仕方のようなマニュアルを作ったり、生成系AIを使いこなしている人からノウハウを社内に共有することも必要でしょう。

生成された情報の適法性の問題

生成系AIを利用するときには、生成された情報の適法性、特に第三者の著作権その他知的財産権を侵害していないかについての確認が必要です。

ここについては、生成系AIに詳しい弁護士の対談でも指摘されています。
この対談が書き起こされているので、資料と一緒に見たら勉強になります。

生成系AIの適法性の問題は、時系列に合わせて

  1. 生成系AIによる情報の学習の段階
  2. 生成系AIによる情報の管理の段階
  3. 生成系AIによる情報(結果)の生成の段階
  4. 生成系AIによって生成された情報(結果)を利用する段階

と大きく4段階にわけられる、と私は考えています。

※追記 2023年5月30日に文化庁と内閣府から「Alと著作権の関係について」のペラ一枚が公表されました。

私が整理した4段階のうち1と2でひとくくり、3と4でひとくくりにしているようです。

生成系AIによる情報の学習の段階

1の生成系AIによる情報の学習の段階での課題は、2つあります。

1つは、生成系AIがネットに存在している情報をクロールするという課題です。
ここは著作権法では既に違法性がなく許されることになっています。

もう1つは、ユーザーが生成系AIを利用するときに質問として入力する情報が生成系AIに学習されて吸い取られてしまうという課題です。
これは、生成系AIに入力する情報漏えいの問題の箇所で説明します。

生成系AIによる情報の管理の段階

2の生成系AIによる情報の管理の段階は、生成系AIを提供している会社のサーバーでの情報管理の問題です。

生成系AIを提供している会社がどれだけ信頼できるかということです。

2015年には、”I Love Translation”という無料の翻訳サービスを提供しているサイトに入力した原文と訳文が誰でも閲覧可能な状態となっていたという問題が起きました。

このときには、中央官庁や銀行の業務メール、弁護士と依頼者とのメール、採用情報など、企業や個人が特定できる状態で閲覧できてしまったので、情報処理推進機構(IPA)が注意喚起を行う事態に発展しました。

こうした事例が再発しないとは限りません。

会社の業務で使って良い生成系AIがどれなのかを選択していく時代だと思います。

社内ルールに「会社が許可する生成系AIは以下のものだけである」などと、セーフリスト(ホワイトリスト)を作る必要があるでしょう。

生成系AIによる情報(結果)の生成の段階

3の生成系AIによる情報(結果)の生成の段階は、これは、ユーザーが生成系AIに質問を入れて情報(結果)を生成してもらうとき、つまり生成系AIの利用時のことです。

ここでは第三者の著作権を侵害した情報(結果)が生成されるリスクがあります。

生成系AIによって生成された情報(結果)が例えばイラストやアニメのようなときには、特に著作権侵害が問題になります。

ユーザーがまったく知らないイラストやアニメなどの著作物と酷似した情報(結果)が生成され、それを会社の業務に利用すると著作権侵害として訴えられる可能性があります。

イラストやアニメではなくビジネスモデルや事業計画、商品のデザインなどの場合は特許権侵害、意匠権侵害や不正競争防止法の問題も出てくるかもしれません。

中には、酷似した情報(結果)が出てくることを期待して生成系AIを利用するユーザーもいるかもしれません。

その場合には、「知らないところで生成系AIが著作権侵害をしてしまった」=無過失・軽過失、という弁明はできないのではないでしょうか。

いずれにせよ、生成された情報(結果)について著作権をはじめ特許権、意匠権など第三者の知的財産権を侵害していないかは利用する前にキチンとアナログで調査することが必要だと思います。

これは社内ルール、あるいは社内手続として定めるべきでしょう。

生成系AIによって生成された情報(結果)を利用する段階

ユーザーが生成系AIで自ら情報を生成し利用するという場合は、生成された情報の権利侵害を確認すれば足ります。

しかし、イラストやアニメなどを会社で利用するときには、その会社の従業員が自ら生成系AIで生成するのではなく、どこか専門の制作会社・協力会社に業務委託したものを会社の業務に利用することも多いと思います。

そうすると、制作会社・協力会社から納品されたものについても、注文した側として著作権その他の知的財産権の侵害などがないかを受入検査し検収することが求められます。

ここも、社内ルールまたは社内手続として定めるべきだと思います。

会社の業務で生成系AIを利用するときには、何らかの質問を入力する必要があります。
この入力という作業は、生成系AIにとっては学習になります。

つまり、利用する側は生成される情報に期待して情報を入力しているけれど、その入力した情報は生成系AIに吸い取られ管理され、第三者のために利用、開示されてしまうことがあるということです。

”I Love Translation”事件のように、利用する会社によっては意図せぬ情報漏えいになってしまいます。

そうなると、会社がとるべき対策は2つ考えられます。

1つは、生成系AIによる情報の管理の段階でも書いたように、会社が利用を認める生成系AIを選別することです。

そのうえで会社が推奨しない生成系AIには社内からアクセスできないようにするなどのフィルタリングを設定することです。

しかし、テレワークを併用している場合や従業員一人ひとりが私用のスマートフォンを業務で利用している場合にはフィルタリングにも限界があります。

もう1つは、生成系AIに入力することが許される情報、禁止される情報の選別です。

結局、ここが会社が取れる対策の終着点だと思います。

簡単に要約すると、「個人情報(特定個人情報、要配慮個人情報を含む)、企業秘密、特許権やノウハウを含めた知的財産権、設計・企画・開発に関する技術情報、財務情報、取引先から提供された情報、その他事業計画、新しいプロジェクトに関する情報など公開していない事業に関する一切の情報などは生成系AIに入力してはならない」などと、社内ルールに定めるべきだと思います。

個人情報、企業秘密など言葉が抽象的なものは、具体例を入れるとなお良いのではないでしょうか。

ここは、経産省の秘密情報の保護ハンドブックが参考になると思います。
2022年5月に改訂されているので、一度見直すと良いと思います。

冒頭で引用した神戸市の条例改定案では「神戸市情報公開条例10条各号に定める情報を含む指令」の入力を制限しています。

具体的には、以下の情報を生成系AIには入力することを禁じようとしています。

市の条例なので企業秘密や知的財産権、技術情報、財務情報などの文言は入っていませんが、参考になると思います。

(1) 特定の個人が識別され、若しくは識別されうる情報(事業を営む個人の当該事業に関する情報を除く。)であって次に掲げるもの又は特定の個人を識別することはできないが、公にすることにより、なお個人の権利利益を害すると認められる情報(いずれの場合も、人の生命、身体又は健康を保護するため、公にすることが必要であると認められる情報を除く。)
ア 公にしないことが正当であると認められるもの
イ 実施機関の要請を受けて、公にしないとの条件で個人から任意に提供されたもの

(2) 法人その他の団体(国並びに地方公共団体及び市が設立した地方独立行政法人を除く。以下「法人等」という。)に関する情報又は事業を営む個人の当該事業に関する情報であって、次に掲げるもの(人の生命、身体又は健康を保護するため、公にすることが必要であると認められるものを除く。)
ア 公にすることにより、当該法人等又は当該個人の競争上の地位その他正当な利益を害すると認められるもの
イ 実施機関の要請を受けて、公にしないとの条件で任意に提供されたものであって、法人等又は個人における通例として公にしないこととされているものその他の当該条件を付することが当該情報の性質、当時の状況等に照らして合理的であると認められるもの

(3) 公にすることにより、人の生命、身体若しくは健康の保護又は生活の安全の確保に支障を生じ、又は生じるおそれがあると認められる情報

(4) 実施機関並びに国及び他の地方公共団体の内部又は相互間における審議、検討又は協議に関する情報であって、公にすることにより、率直な意見の交換若しくは意思決定の中立性が著しく損なわれ、市民の間に著しい混乱を生じさせ、又は特定の者に不当に利益を与え若しくは不利益を及ぼすと認められるもの

(5) 実施機関又は国若しくは他の地方公共団体が行う事務又は事業に関する情報であって、公にすることにより、次に掲げる支障を生じると認められるものその他当該事務又は事業の性質上、当該事務又は事業の適正な遂行に著しい支障を生じると認められるもの
ア 監査、検査、取締り又は試験に係る事務に関し、正確な事実の把握を著しく困難にし、又は違法若しくは不当な行為を著しく容易にし、若しくはその発見を著しく困難にするもの
イ 契約、交渉又は争訟に係る事務に関し、市若しくは市が設立した地方独立行政法人又は国若しくは他の地方公共団体の財産上の利益又は当事者としての地位を著しく損なうもの
ウ 調査研究に係る事務に関し、その公正かつ能率的な遂行に著しい支障を生じるもの
エ 人事管理に係る事務に関し、公正かつ円滑な人事の確保に著しい支障を生じるもの
オ 市若しくは市が設立した地方独立行政法人又は国若しくは他の地方公共団体が経営する企業に係る事業に関し、その企業経営上の正当な利益を著しく損なうもの

(6) 法令若しくは条例若しくは神戸市会会議規則(昭和31年10月20日市会議決)の定めるところにより、又は法律若しくはこれに基づく政令による明示の指示(地方自治法(昭和22年法律第67号)第245条第1号ヘに規定する指示その他これに類する行為をいう。)により、公にすることができないと認められる情報

神戸市情報公開条例10条

シンギュラリティの問題

最後の課題はシンギュラリティの問題です。

生成系AIが人間の手を離れて成長しすぎたとき(暴走したとき)に、会社が生成系AIを利用することを止めないと何が起きるのか予測ができない、という話しです。

まだ生成系AIが始まったばかりなのでシンギュラリティが目の前に現れているわけではありませんが、最近の生成系AIの進化の速度を見ていると、シンギュラリティも近いように思います。

そうした予兆が見られたときには、会社が自己防衛として生成系AIを業務に利用することをいったん止める経営判断をすべきでしょう。

ここは特に社内ルールなどではなく、経営陣の心構えとして抑えておいて欲しいポイントです。

生成系AIを会社の業務に利用するための社内ルール(ガイドライン)案

以上を踏まえると、生成系AIを会社の業務に利用するためには、次のような社内ルール(ガイドライン)を作成する、あるいは対策を講じる必要があると思います。

また、単にルールを作成するだけではなく、役員・従業員に理解してもらうための研修も不可欠です。

  1. 最新性、正確性、透明性の3点については、「生成系AIによって生成された情報(結果)については最新性、正確性、情報源の有無とE-E-A-Tを確認してから業務に用いること」と社内ルールに定める
  2. 質・程度の問題については、社内で生成系AIに対する質問力を磨くノウハウの共有や質問の作り方に関するマニュアルを作成する
  3. 適法性の問題については、「第三者の特許権、意匠権、著作権その他の知的財産権を侵害することを意図した利用はしてはならない」「生成された情報(結果)及び取引先が生成系AIを利用して生成した情報(結果)を業務に利用するときには、事前に第三者の特許権、著作権、意匠権、著作権その他の知的財産権を侵害していないか調査すること」と社内ルールに定める
  4. 情報漏えいの問題については、「個人情報(特定個人情報、要配慮個人情報を含む)、企業秘密、特許権やノウハウを含めた知的財産権、設計・企画・開発に関する技術情報、財務情報、取引先から提供された情報、その他事業計画、新しいプロジェクトに関する情報など公開していない事業に関する一切の情報などは生成系AIに入力してはならない」などと、社内ルールに定める
  5. シンギュラリティの問題については、経営陣はいつでも生成系AIの利用を止める経営判断ができるように警戒心を高めておく

各大学が出した生成系AIとの向き合い方についてのメッセージも、従業員向けのメッセージとして参考にできると思います。

アサミ経営法律事務所 代表弁護士。 1975年東京生まれ。早稲田実業、早稲田大学卒業後、2000年弁護士登録。 企業危機管理、危機管理広報、コーポレートガバナンス、コンプライアンス、情報セキュリティを中心に企業法務に取り組む。 著書に「危機管理広報の基本と実践」「判例法理・取締役の監視義務」「判例法理・株主総会決議取消訴訟」。 現在、月刊広報会議に「リスク広報最前線」、日経ヒューマンキャピタルオンラインに「第三者調査報告書から読み解くコンプライアンス この会社はどこで誤ったのか」、日経ビジネスに「この会社はどこで誤ったのか」を連載中。