icon-angleicon-facebookicon-hatebuicon-instagramicon-lineicon-linked_inicon-pinteresticon-twittericon-youtubelogo-not
People 弁護士等紹介

多岐にわたる分野の専門的知識と実績を持つ弁護士が機動的にチームを組み、質の高いアドバイスや実務的サポートを行っています。

Publications 著書/論文

当事務所の弁護士等が執筆したニュースレター、論文・記事、書籍等のご紹介です。多様化・複雑化する法律や法改正の最新動向に関して、実務的な知識・経験や専門性を活かした情報発信を行っています。

Seminars 講演/セミナー

当事務所では、オンライン配信を含め、様々な形態でのセミナーの開催や講演活動を積極的に行っています。多岐にわたる分野・テーマの最新の企業法務の実務について解説しています。

Who We Are 事務所紹介

長島・大野・常松法律事務所は、国内外での豊富な経験・実績を有する日本有数の総合法律事務所です。 企業が直面する様々な法律問題に対処するため、複数の弁護士が協力して質の高いサービスを提供することを基本理念としています。

SCROLL
TOP
Publications 著書/論文
ニュースレター

生成AI(Generative AI)を巡る近時の動向

NO&T Technology Law Update テクノロジー法ニュースレター

※本ニュースレターは情報提供目的で作成されており、法的助言ではありませんのでご留意ください。また、本ニュースレターは発行日(作成日)時点の情報に基づいており、その時点後の情報は反映されておりません。特に、速報の場合には、その性格上、現状の解釈・慣行と異なる場合がありますので、ご留意ください。

はじめに

 ChatGPTをはじめとする生成AI(Generative AI)や大規模言語モデル(LLM)の急速な進展が大きな注目を集めています。AIが人間のようにクリエイティブな成果物(画像、音声、文章、プログラムのコードなどの多様なコンテンツ)を生成することができる点が従来のAIとは異なっており、汎用型対話ボットであるChatGPTのほか、画像生成AIのMidjourney、Stable Diffusionも一例として挙げられます。ChatGPTは2022年11月末の提供開始後、2ヶ月のうちに1億人のアクティブユーザー数を記録したと言われています。

 生成AIの利用によって業務効率が向上するなどの利便性が強調される一方で、法的な懸念や課題も指摘されています。例えば、生成AIの学習時の学習用データや利用時にプロンプトとして入力するデータに第三者の著作物、個人情報、営業秘密等が含まれる場合の問題や、出力されたAI生成物が他人の著作物に類似する場合の著作権侵害の問題等があります。例えば、個人情報に関しては、イタリアのデータ保護当局が、2023年3月にChatGPTの一時的な停止を要請したり、日本の個人情報保護委員会が同年6月2日に「生成AIサービスの利用に関する注意喚起等について」を公表する等の動きも見られます。また、AI全般に関わる社会的リスクとして、生成物に不正確な情報が含まれるおそれ、重大な人権侵害(特定のグループが不当に差別されるなど)、経済安全保障、民主主義への介入、環境への過大な負荷といった既存の法令では十分に対処できない可能性がある課題が指摘されています。

 こうした課題に対処するアプローチは各国で異なり、日本ではこれまでソフトローによる対応が重視されてきました。他方、海外では、生成AIを含むAIの課題に対処するための法規制の整備・検討が進んでいます。そのような状況の中、日本が議長を務めた本年のG7広島サミットでも生成AIについて議論が行われ、国際ルール形成に向けた動きが見られるなど今後の動きが注目されるところです。

 そこで、本ニュースレターでは、生成AIを巡る日本国内及び主要各国における近時の動向について紹介したいと思います。

日本国内における近時の動向

 日本政府は、これまで、AIに関する法的拘束力のある横断的な義務規定は不要との立場※1に基づき、AI原則やその実践ガイダンスといった法的拘束力のない中間的なガイダンス※2を公表し、民間における自主的なルール策定を後押ししてきました。その上で、自動運転やAIを利用した医療機器の分野など、個別の法令レベルでは法改正を行うことにより規制を整備しているほか、関連する省庁がそれぞれ所管する法令の範囲内で、分野や用途ごとにAIに関連する法執行を担っていました。

 もっとも、昨年から生成AIの利用が急速に拡大する中、その潜在的な影響力の大きさを踏まえた新たな議論が急ピッチで進められています。

1. 日本政府等

(1) 自民党「AIホワイトペーパー」(2023年4月)

 上記のような生成AIによる社会・経済への影響を踏まえ、自民党デジタル社会推進本部は、2023年2月に「AIの進化と実装に関するプロジェクトチーム」(座長・平将明衆議院議員、以下「AI PT」といいます。)を立ち上げ、同年4月「AIホワイトペーパー~AI新時代における日本の国家戦略~」を公表しました※3。基盤モデル(foundation model)※4の急速な進展を「AI新時代」として、「国内におけるAI開発基盤の育成・強化」、「行政における徹底したAI利活用の推進」、「民間におけるAI利活用の奨励・支援」、「AI規制に関する新たなアプローチ」について、AI新時代を前提とした日本における新たなAI国家戦略を提言したものです。

 このうち、「AI規制に関する新たなアプローチ」においては、「(1)重大なリスク分野に関する法規制の検討」として、「EU、米国、中国など諸外国のAI規制の検討状況を分析し、①重大な人権侵害、②安全保障、③民主主義プロセスへの不当介入など、AI新時代において法規制を含む対策が必要と考えられる分野につき具体的な検討を行うこと」が提言されています。また、「(2)AI新時代への臨機応変な規制適応」として、「知的財産法の解釈を巡る議論につき、AI技術の進歩を促進しつつ、濫用的な使用を防ぎ、我が国の強みであるコンテンツ産業がより発展できるようガイドライン等の作成を検討すること」等が提言されています。

 AIホワイトペーパーは、自民党の「デジタル・ニッポン2023 〜ガバメント・トランスフォーメーション基本計画〜」(2023年5月16日)に取り込まれ、今後、政府の政策検討に活用されることが期待されます。なお、AIホワイトペーパーを公表した後も、AI PTは関係者からのヒアリング等を継続しており、日々進化するAIや実務上の課題・問題点について検討を進めています※5

(2) G7広島サミット・「広島AIプロセス」創設(2023年4月~5月)

 日本が議長国を務める本年のG7広島サミット及びG7デジタル・技術大臣会合等においても、生成AIの取扱いが議論されました。2023年5月20日に公表されたG7広島首脳コミュニケにおいては、「我々が共有する民主的価値に沿った、信頼できる人工知能(AI)」という共通のビジョンと目標が確認され、生成AIに関する議論の場として、閣僚級の枠組みである「広島AIプロセス」の創設が表明され、本年度中に結果をとりまとめることとなりました。議題には、ガバナンス、知的財産権の保護、透明性の促進、偽情報を含む外国からの情報操作への対応、生成AI技術の責任ある活用といったテーマを含み得るとされています。

 AIに関する法規制については、G7広島首脳コミュニケにおいて、「法的拘束力を有する枠組みを尊重」するとしつつも、上記の共通のビジョンと目標を達成するためのアプローチと政策手段が、G7諸国間で異なり得ることを認識」するとされ、法規制に対する多様なアプローチに配慮する記載となっています。その上で、AIガバナンスの枠組み間の相互運用性の重要性を強調するなど、各国で異なる規制を前提としつつも、それらが相互に乗り入れ可能なものとなるよう、国際協調を進めていく考えが示されています。

(3) AI戦略会議の設置・「AIに関する暫定的な論点整理」公表(2023年5月)

 2023年5月9日、岸田首相は、AIを使った政策の方向性を検討する「AI戦略会議」(座長・松尾豊教授)の設置を表明しました。同会議は、これまで「AI戦略2021」や「AI戦略2022」を議論した「AI戦略実行会議」を改組したもので、新たな検討体制のもとで、生成AIについても議論することとされています。議論の内容や結果は、今後の「統合イノベーション戦略」、「骨太の方針」等の政府方針や、国際ルール作りに反映することとされています。

 AI戦略会議は、同年5月26日に「AIに関する暫定的な論点整理」(本文要旨)を公表しています。本論点整理の主旨の⼀つは政府への提案であるとされており、本論点整理で指摘されている、AIの透明性と信頼性の確保の重要性を踏まえた積極的な情報開示の要請や、以下の「懸念されるリスクの具体例」及びその対応の内容は、今後の日本におけるAI規制の動向をうかがう上でも重要であると考えられます。

① 機密情報の漏洩や個⼈情報の不適正な利⽤のリスク

② 犯罪の巧妙化・容易化につながるリスク

③ 偽情報等が社会を不安定化・混乱させるリスク

④ サイバー攻撃が巧妙化するリスク

⑤ 教育現場における⽣成AIの扱い

⑥ 著作権侵害のリスク

⑦ AIによって失業者が増えるリスク

① 機密情報の漏洩や個⼈情報の不適正な利⽤のリスク

② 犯罪の巧妙化・容易化につながるリスク

③ 偽情報等が社会を不安定化・混乱させるリスク

④ サイバー攻撃が巧妙化するリスク

⑤ 教育現場における⽣成AIの扱い

⑥ 著作権侵害のリスク

⑦ AIによって失業者が増えるリスク

(4) 個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」公表(2023年6月)

 個人情報保護委員会は、生成AIサービスが普及していることを踏まえて、2023年6月2日、「生成AIサービスの利用に関する注意喚起等について」を公表し、同時に、ChatGPTの開発・提供事業者であるOpenAI社に対して注意喚起を行っています。

 これらは、特定の行為が違法であることを認定したものではなく、また、生成AIに関して新たな規制を課すものでもなく、あくまで現行の法令の解釈に従った注意喚起を行うものであると考えられます。その中でも、個人情報取扱事業者における注意点として、①生成AIサービスの利用時に個人情報を含むプロンプトを入力する場合には、特定された当該個人情報の利用目的を達成するために必要な範囲内であることを十分に確認すること、及び②あらかじめ本人の同意を得ることなく生成AIサービスの利用時に個人データを含むプロンプトを入力し、当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合(例えば、AIの機械学習に利用される場合)、個人情報保護法の規定に違反することとなる可能性があることが指摘されている点に留意が必要です。

 特に、上記②の指摘を敷衍すると、少なくとも利用目的が「プロンプトに対する応答結果の出力」に限定されている限りは、個人データを含むプロンプトを入力する場合であっても、個人情報保護法上、個人データの第三者提供時の同意取得は不要であることが示唆されているように思われます。これまでも、クラウドサービス提供事業者が、個人データを取り扱わないこととなっている場合には、クラウドサービス提供事業者に対して個人データを提供したことにはならないため、クラウドサービス利用者は、クラウドサービスの利用に際して本人の同意を得る必要はなく、かつ、「委託」(同法27条5項1号)にも該当しないためクラウドサービス提供事業者を監督する義務もないとされていましたが(「個人情報の保護に関する法律についてのガイドライン」に関するQ&A7-53)、クラウドサービスとして提供される生成AIサービスについても同様の解釈が当てはまるのか、さらなる明確化が望まれます。

2. 民間・教育機関

 企業において、Azure OpenAI Serviceなど生成AIの企業内での積極的な活用や、生成AIを組み込んだサービスの活用事例が増えています。また、教育現場においても、ChatGPTをはじめとする生成AIの活用の是非・方法論が活発に議論されています。

 他方、生成AIの利用においては、既存の法令との関係でも注意すべき点が少なくありません。例えば、生成AIによる成果物が、教師データとして利用された第三者の著作物に係る著作権を侵害することにならないかが問題になることがありますが、著作権法の解釈上、生成AIの成果物について、どのような場合に「依拠性」が認められ著作権侵害になるか、確立した基準はない状況です※6

 このような状況も踏まえ、民間団体や教育機関が、データ入力時や生成物利用時の留意点をガイドライン等によって示しています。

(1) 日本ディープラーニング協会「生成AIの利用ガイドライン」(2023年5月)

 2023年5月1日、一般社団法人日本ディープラーニング協会が「生成AIの利用ガイドライン(第1版)」を発表しました。生成AIを利用する民間企業や各種組織向けに、生成AI(ChatGPTが例示されています。)を利用する際の留意点について、社内ガイドラインで最低限定めておくべき事項が説明されています。

 同ガイドラインは、生成AIの利用をめぐる法的論点について、上記のように議論が確立していない状況も踏まえ、現時点のベストプラクティスを示したものとして有益です。

(2) 教育現場における生成AIの利用

 教育現場におけるChatGPTの利用については、教育効果の向上への期待が示されている一方で、学生の創造性への影響、個人情報や著作権保護といった観点からの懸念が指摘されており、各教育機関が利用時の留意点等についてコメントを出しています※7。こうした状況を受け、文部科学省は、教育現場での生成AI活用について、夏前を目処にガイドラインを公表する考えを示しました※8

各国の状況

1. EU

 EUでは、現在検討中のAI法案や、既存のデータ保護法によって、生成AIがもたらす課題やリスクに対処しようとする動きが見られます。

 まず、EU全体では、現在審議中の包括的なAI法(Artificial Intelligence Act)※9において、2023年5月、生成AIのプロバイダーに対する義務が新たに追加されました※10。具体的には、基盤モデル(foundation models)のプロバイダーは、EUのデータベースへの登録義務を含む様々な義務が課され、さらに、ChatGPTを含む生成基盤モデル(generative foundation models)のプロバイダーは、生成コンテンツが人間ではなくAIシステムによる生成物であるという事実に関する透明性を確保することが求められています。AI法は未成立であるものの、仮に上記の内容で成立すれば、EU向けに生成AIを組み込んだ製品・サービスを提供する日本企業にとって、大きな影響があると思われます。

 EU加盟国では、同年3月、イタリアのデータ保護当局が、GDPR(一般データ保護規則)違反(データ処理の法的根拠の不明確性や子どもの年齢確認の未実施等)の疑いで、OpenAI社に対してChatGPTの一時的な停止を要請しました。その後、停止要請は解除されたものの、これを受けて欧州データ保護会議(EDPB、EUの各国データ保護当局からなる会議体)にChatGPTに関するタスクフォースが設置されるなど、GDPRとの整合性につきEU加盟国で足並みを揃えた検討が行われる状況にあります。

2. 米国

 米国では、2023年4月11日、商務省国家電気通信情報庁(NTIA)がAIの監査、評価メカニズム開発を支援する政策ツールに関して、意見募集を開始しました※11。また、同年4月25日、連邦取引委員会(FTC)、司法省(DOJ)、消費者金融保護局(CFPB)、雇用機会均等委員会(EEOC)が、AIを含む自動システムがもたらす悪影響に取組む旨の共同声明を発出しました※12。同声明では、AIの利用によってもたらされる違法なバイアスや差別の問題に対し、消費者保護法や競争法等の既存の法令を厳格に適用する旨の方針が示されています。

 ホワイトハウスでは、同年5月11日、大統領科学技術諮問委員会(PCAST)が生成AIのワーキンググループを立ち上げ、生成AIに関して意見募集を開始しました※13。米国では既に「AI権利章典の青写真」やNIST(国立標準技術研究所)の「AIリスク管理フレームワーク」といった非拘束的な枠組みが公表されていますが、今後、PCASTにおいて、生成AIに特化した議論が行われる見込みです。

 米国議会でも、法規制に対する議論が活発に行われています。2023年4月28日、上院議員が、AI政策について連邦政府に提言を行う閣僚級のタスクフォースを設置する法案を提出しました※14。また、同年5月16日、米上院議会の公聴会において、OpenAI社のCEOがAIに対する規制の必要性を訴えたことも大きく報道されているところです。

3. 中国

 4月11日、中国国家インターネット情報弁公室(CAC)は、生成人工知能サービス管理弁法(パブコメ版)を公表しました※15。同弁法は、2021年11月までに施行された中国データ3法(中国サイバーセキュリティ法、中国データセキュリティ法、中国個人情報保護法)の下位法令として位置づけられています。生成AI製品を開発・利用し、中国国内の公衆向けにサービスを提供する場合を対象とし、サービスの提供前に当局に対して安全性評価の結果を提出すること、生成AIの出力は共産主義の基本的な価値観に沿うものとすべきこと等を求めています。違反行為に対しては、データ3法に基づく罰則等が課せられます。

今後の見通し

 日本においては、生成AIについても、これまでのAIに関する法規制の議論と同様に、包括的な法規制を導入するのではなく、既存の法令の解釈の明確化やガイドラインなどのソフトローによって対応するアプローチが維持される可能性があります。

 もっとも、海外においては、生成AIを念頭に置いた法規制を導入・検討する動きがあり、これによって日本の検討状況にも影響が及ぶ可能性があります。例えば、EUのAI法が上記の内容どおりに成立すれば、EU向けに生成AIを組み込んだ製品・サービスを提供する日本企業にも影響があり得るほか、個人データ保護におけるGDPRと同様に、他国も追随して同水準の規制を導入する可能性があり、日本も例外ではありません。したがって、海外における生成AIの規制の動向次第では、日本国内でも法規制を含む対応についての検討が加速することが考えられます。その場合にどのような規制を課すべきか、事業者に一定の開示義務・報告義務を課した上で行政がそれをチェックする共同規制のような形も含めて、更なる検討が必要と思われます。

 引き続き、国内外の規制動向を含め、生成AIを巡る議論の動向に注意が必要です。

脚注一覧

※1
AI原則の実践の在り方に関する検討会「我が国のAIガバナンスの在り方 ver. 1.1」(2021年7月9日)29頁。

※2
内閣府「人間中心のAI社会原則」(2019年3月29日)、経済産業省「AI原則実践のためのガバナンス・ガイドライン Ver. 1.1」(2022年1月28日)等。

※3
本ニュースレターの著者である殿村は、AI PTのワーキンググループメンバーとして、AIホワイトペーパーの策定に関与しました。

※4
「基盤モデル」とは、「GPTやBertなど、大規模な一般データを使って事前学習を行い、その後再トレーニングを通じた微調整を通じて幅広いタスクに適応できる機械学習のモデルをいう。」と定義され、ChatGPTなどの大規模言語モデルを代表例としています(同ホワイトペーパー2頁脚注4参照)。

※5
AI PTの開催状況や会議資料は、AI PT事務局長の塩崎彰久衆議院議員のnote「自民党AIの進化と実装に関するプロジェクトチーム」において公開されています。

※6
本ニュースレターでは個別の論点の解説には立ち入りませんが、例えば、日本ディープラーニング協会「生成AIの利用ガイドライン【簡易解説付】」の解説部分が参考になります。

※8
文部科学省中央教育審議会初等中等教育分科会デジタル学習基盤特別委員会(第1回)資料6

※9
欧州議会のプレスリリースでは、欧州議会本会議での決議が同年6月中に行われる予定とされています。なお、当初のAI法案の内容については、テクノロジー法ニュースレターNo.6「EUがAIに関する包括的な規則案を公表」をご参照ください。

※10
欧州議会が公表したDraft Compromise Amendments(2023年5月16日)の28b条及び関連する前文をご参照ください。

※15
より詳しくは、テクノロジー法ニュースレターNo.35「生成系AIに関する規制(生成系人工知能サービス管理弁法(パブコメ版)の公表)」をご参照ください。

本ニュースレターは、各位のご参考のために一般的な情報を簡潔に提供することを目的としたものであり、当事務所の法的アドバイスを構成するものではありません。また見解に亘る部分は執筆者の個人的見解であり当事務所の見解ではありません。一般的情報としての性質上、法令の条文や出典の引用を意図的に省略している場合があります。個別具体的事案に係る問題については、必ず弁護士にご相談ください。


全文ダウンロード(PDF)

Legal Lounge
会員登録のご案内

ホットなトピックスやウェビナーのアーカイブはこちらよりご覧いただけます。
最新情報をリリースしましたらすぐにメールでお届けします。

会員登録はこちら

弁護士等

テクノロジーに関連する著書/論文

AI・ロボットに関連する著書/論文

知的財産に関連する著書/論文

知財関連取引に関連する著書/論文

個人情報保護・プライバシーに関連する著書/論文

決定 業務分野を選択
決定