chatGPT・AIと個人情報保護法・人権保護

さいとうゆたか弁護士

イタリアの個人情報保護当局は、個人情報保護の観点から、chatGPTの利用を暫定的に停止させました(現時点で停止は解かれています)。

このようにchatGPTは個人情報に与える影響が大きく、日本でも個人情報保護法の解釈上・立法上、検討すべき課題があります。

以下、簡単に説明します。

1 chatGPTの運営業者の義務について

個人情報保護委員会の「OpenAIに対する注意喚起の概要」では、

・要配慮個人情報については、同意なく機械学習のために取得してはならないこと

は指摘しています。

しかし、それ以外の個人データについては、特段の記載はありません。

確かに、日本の個人情報保護法では、要配慮個人情報以外は、本人の同意等なくして個人データを取得できることになっています。

しかし、それで個人情報、ひいては個人の尊厳を十分に守ることができるのでしょうか?

要配慮個人情報以外についても、正当な根拠なくして個人データを取得できないとする規制の立法が求められると考えます。

2 chatGPTを利用する事業者の義務について

個人情報保護委員会の「生成 AI サービスの利用に関する注意喚起等」では、利用の仕方(個人データが機械学習されないことを確認する等)に注意すれば、個人データをプロンプトに入力しても問題ないかの記載があります。

確かに、chatGPTについては、オプトアウトによりプロンプトに入力した個人情報が機械学習に使われないようにできるとはされています。

しかし、chatGPTについては、機械学習以外の個人データ利用(悪用防止目的等)がありうるとされています。

そのような利用がされる場合には、個人データの第三者提供に該当し、同意なくしては許されないとの解釈がありえます。

仮に、これが第三者提供に該当しないとしても、本人の同意がないままプロンプトに入力してよいのか、それで個人情報や個人の尊厳が守られるのか、根源的な疑問が生じます。

日本の個人情報保護法についても、プロンプトへの入力、つまり個人データの利用について、正当化根拠を求める等の規制が必要だと考えます。

3 PIAと事後チェック

AIについては、社会に存在する偏見を再生産し、ひいては人権侵害を発生させることが懸念されます。

そのため、そのような弊害を未然に防止するため、AIシステムの導入にあたり、その人権侵害等への弊害の有無をチェックするPrivacy Impact Assesment(PIA)の導入が検討されるべきです。

PIAについては、すでにEUのGDPRにおいて導入されています(35条1項  取扱いの性質、範囲、過程及び目的を考慮に入れた上で、特に新たな技術を用いるような種類の取扱いが、自然人の権利及び自由に対する高いリスクを発生させるおそれがある場合、管理者は、その取扱いの開始前に、予定している取扱業務の個人データの保護に対する影響についての評価を行わなければならない。類似の高度のリスクを示す一連の類似する取扱業務は、単一の評価の対象とすることができる。)

しかし、AIについては、直接的には差別につながらないように思われる情報を入力しても、差別的な結果が生ずることがありえます。このような結果は事前にはわからないことが多いです。そのため事後的に、問題が生じた都度対応することが現実的であるという側面もあります。

この点、イリノイ州が採用場面で用いられるAIビデオインタビューについて規定したAIビデオインタビュー法20条は、以下のとおり規定しています。

a 誰が対面の面接に選ばれるかをAIによる動画インタビュー分析のみに依存している雇用者は以下の人口統計学的データを集め、報告しなければならない。

1号 AIを利用した分析の使用後に直接の面接の機会を与えられた・与えられなかった応募者の人種と民族

2号 雇用された人の人種と民族

b aで収集された人口統計学的データは商業と経済的機械省に毎年12月3

1日までに報告されなければならない。報告は、報告のファイリングに先立っ

て、11月30日に終わる12ケ月に集められたデータを含まなければならない。

c 省庁は報告されたデータを分析し、毎年2月1日までに、データがAI使用における人種差別を明らかにするかどうかについて、知事と議会に報告しなければならない。

この仕組みでは、AIビデオインタビューにより人種による偏りが生じたかどうかをチェックすることができ、システムの補正につなげることができます。

4 個人の選択を認める制度

AIについては完全な透明性は認めがたいです。いくらPIAや事後の補正をしたとしても、偏見と人権侵害のリスクは残ります。それにも関わらずAIによりある人について重大な決定がなされることは重大な人権侵害となる可能性があります。

そのため、少なくとも、人は、人生に関わる重大な決定については、AIによる判断を受けるか受けないか、選択する権利を与えられなければなりません。

GDPR22条1項は、「 データ主体は、当該データ主体に関する法的効果を発生させる、又は、当該データ主体に対して同様の重大な影響を及ぼすプロファイリングを含むもっぱら自動化された取扱いに基づいた決定の対象とされない権利を有する。」としています。

イリノイ州のAIビデオインタビュー法20条5条は、「応募者に録画されたインタビューを求め、応募者が提出した動画をAIで分析する雇用者は、イリノイにおける仕事のための応募者を検討するときは、動画インタビューの提供を求める前に、以下のことをすべてすべきだ。・・・3号 応募者から、インタビュー前に、提供された情報において記述されたとおり、AIによって評価されることの同意を得ること。雇用者は、AIの分析の使用に同意しなかった応募者を評価するためにAIを使ってはいけない。」と規定しています。

このように、諸外国の立法例においては、AIによる判断を拒否する権利を認めています。GDPRは分野限定的ではなく、イリノイ州法は分野限定的だという違いがあります。よって、AIによる判断を拒否する立法をすべきかどうか、すべきだとして分野限定をすべきかどうかを検討すべきです。

chatGPTの判断の適正さは全く担保されていません。

5 新潟でAI,chatGPTのお悩みはご相談ください

まずはお電話(025-211-4854)か、メールでご連絡ください。

弁護士費用はこちらの記事をご参照ください。
さいとうゆたか法律事務所トップはこちらです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です