株主総会の想定問答の作成に生成系AIを利用することの効率性と相当性・妥当性

こんにちは。弁護士の浅見隆行です。

2023年6月16日付で日経ビジネスに「チャットGPTが株主総会に参戦、想定問答を自動生成」という記事が掲載されていました。

効率的でおもしろいなと思う反面、本当にそれでいいのと疑問も感じたので、今日はこのテーマです。

ChatGPTなど生成系AIを株主総会の想定問答の作成に利用するメリット

日経ビジネスで照会されていたサービスの内容は次のとおりです。

利用に当たり、有価証券報告書や決算説明会などの資料をシステムに入力しておく。すると、資料の過去と直近の内容から記述の違いなどを見つけ出し、出席者から出そうな質問を予想する。質問に正対した回答案も生成する。文章生成に当たってどんな要素を重視したかを示し、参照した資料の箇所を表示する。利用者はこれを見て、必要な内容だけを含む回答を作成できる。

株主総会の想定問答を作成する作業は、総務の担当者の皆さんには非常に負担となる仕事です。

私も株主総会前に想定問答のチェックをしますが、その都度、よくこんなに思いつくなと感心します。もちろん、細かすぎる問答や、回答案の内容が不足し株主を満足させないだろうものも散見されますが・・。

現在も商事法務からでている「株主総会想定問答集」や、信託銀行が提供する想定問答に関するツールを、自社の想定問答の作成の参考資料やネタ本として使っている会社が多いと思います。

そのため、ChatGPTをはじめとする生成系AIを利用して想定問答を作成することは、業務の効率化には非常に有効、有益だと思います。

特に、会社が公表・開示済みの資料やデータとの整合性をとった回答案を作成するには、生成系AIを利用することは得意そうな印象を受けます。

また、株主総会が行われる時期のトピカルなテーマに対する回答案を作成するのも向いているかも知れません。

今後増えていくことはあれど、使わない選択肢はないと思います。

ChatGPTなど生成系AIを株主総会の想定問答の作成に利用するデメリット

しかし、現時点では、想定問答の作成を生成系AIに100%依存することには危惧もあります。

気になる点は、ザッと挙げるだけでも次のようなものがあります。

  1. 回答の言い回しの熟成度
  2. 質問と回答との対応度
  3. 回答内容の深度
  4. 回答内容の正確性
  5. 回答内容の画一性
  6. 勇み足な回答

回答の言い回しの熟成度

回答の言い回しの熟成度は「こなれ感」「自然さ」と言ってもいいかもしれません。

生成系AIを利用したことがある人ならわかると思いますが、生成系AIが出力する回答は日本語として不自然な言い回し、違和感を覚える言い回しが多々あります。

そのため、生成系AIを利用してできた想定問答の回答案は、あくまで叩き台として、その回答の言い回しを自然な言い回しに修正する作業は不可欠だと思います。

質問と回答との対応度

質問と回答との対応度は、訊いたことに的確な回答をしているか、です。

これも生成系AIを利用したことがある人ならわかると思いますが、生成系AIは自分がデータを持っている中でしか回答が出てきません。

質問に対して不十分な回答が生成されたときに、二の矢、三の矢でツッコミの質問をすると同じ回答を生成するだけ、堂々巡りの回答を生成するだけになりがちです。

以前、女性役員の選任についてChatGPTに質問したときには、結局、堂々巡りの同じ回答しか出てきませんでした。

生成系AIを利用して作成した回答案のまま答えて、株主から「そんなことを質問したのではない」とツッコミが入ることが容易にイメージできます。

特に、質問と回答とが噛み合っていない場合には、「ある目的事項について株主が賛否の態度を決定するために通常必要な説明をすべき義務が尽くされなかった」と判断され、その目的事項に関する総会決議が取り消されるリスクが残ってしまいます。

総会屋最盛期(の最後の頃)を知っている私としては、その経験からも、想定問答の作成を生成系AIに100%依存することには「怖い」という感覚しか抱きません。

もっとも、株主総会当日に、回答する取締役が、状況を理解してアレンジできる能力があれば話しは別です。

回答内容の深度

回答内容の深度は、上の質問と回答の対応度とも関連しますが、質問した株主の理解力・理解の程度に見合った回答ができているか、です。

例えば、公表・開示済みの資料を見てその内容に疑問を呈している株主に、公表・開示済みの資料のまま回答したのでは、何も回答したことになりません。

株主総会での説明義務の程度は、平均的な株主が議案・議題について合理的な理解・判断ができる程度でよいというのが判例として確立しています(九州電力事件判決福岡地裁1991年5月14日、日本交通事件判決広島地裁松江支部1996年9月27日、東京スタイル事件判決東京地裁2004年5月13日など)。

「平均的な株主」との言葉は使われていますが、裁判所は「株主総会において、決議事項の内容、株主の質問事項と当該決議事項との関連性の程度、質問がなされるまでに行われた説明の内容及び質問事項に対する説明の内容に加えて、質問株主が既に保有する知識ないしは判断資料の有無、内容等も総合的に考慮して、審議全体の経過に照らして」説明義務の程度を充たしているかを判断するとしています(東京スタイル事件判決、東京製鐵事件判決2012年7月19日など)。

つまり、公表・開示済みの資料を見てその内容に疑問を呈している株主には、守秘義務違反にならない程度で、資料に書かれていない内容や要素を追加して、説明する必要があります。

生成系AIでは公表・開示済みの資料からしか回答を作成できないので、生成された回答をそのまま利用したのでは説明不足故に説明義務違反になって決議が取り消されるリスクがあります。

取締役が質問に応じて想定問答案をアレンジすることや、事務局に入る弁護士が現場で指示・判断する作業は、生成系AIを利用して想定問答を作成するようになっても変わらない気がします。

回答内容の正確性

回答内容の正確性は、そのままです。

生成系AIはもっともらしく嘘をつくのが特徴です(生成系AIは嘘をついているつもりはないのかもしれませんが)。

虚偽の回答をしたら、それだけで説明義務違反で、決議取消しです。

そのため、生成系AIを利用して想定問答案を作成した後には、その内容が正しいのかどうか、公表・開示済みの資料との整合性がとれているか、他の想定問答の回答案との整合性がとれているのかなどを必ずチェックすることが必要です。

回答内容の画一性

回答内容の画一性は、生成系AI故にすべて同じフォーマットでの回答になり、会社ごとの回答の個性がなくなってしまうということです。

上記の質問と回答の対応度回答内容の深度とも関連しますが、質問した株主や質問内容にあわせて回答内容はアレンジしていく必要があります。

似た質問でも、株主が訊いているポイントが微妙に違うことはよくあります。

そうした点に対応できるのかということでもあります。

想定問答を作成する際に生成系AIを利用することの問題というよりも、株主総会で回答する役員の説明の仕方の問題かもしれません。

勇み足な回答

勇み足な回答は、説明が禁止される内容を回答案に含んでしまうことです。

  • 他社の名誉や信用を毀損・低下する内容
  • 自社のインサイダー情報を開示する内容
  • 守秘義務に違反する内容
  • 役員が要らぬ約束をしてしまう回答

などは、避けなければなりません。

回答の言い回しの熟成度回答内容の正確性と同様に、生成系AIを利用して作成した想定問答の内容を事後的にチェックすることは必要です。

まとめ

生成系AIを利用して株主総会の想定問答の叩き台を作成することは業務の効率化には有益ですが、100%依存することはリスクが高いので、人の目によるダブルチェックがなくなるわけではありません。

アサミ経営法律事務所 代表弁護士。 1975年東京生まれ。早稲田実業、早稲田大学卒業後、2000年弁護士登録。 企業危機管理、危機管理広報、コーポレートガバナンス、コンプライアンス、情報セキュリティを中心に企業法務に取り組む。 著書に「危機管理広報の基本と実践」「判例法理・取締役の監視義務」「判例法理・株主総会決議取消訴訟」。 現在、月刊広報会議に「リスク広報最前線」、日経ヒューマンキャピタルオンラインに「第三者調査報告書から読み解くコンプライアンス この会社はどこで誤ったのか」、日経ビジネスに「この会社はどこで誤ったのか」を連載中。
error: 右クリックは利用できません