声優の声AI無断利用に法務省がメス|7月指針策定の全貌

伊東雄歩
監修者 伊東 雄歩

株式会社ウォーカー CEO。東北大学卒。MENSA会員、JDLA認定講師、健全AI教育協会理事。生成AI×教育・学習科学を専門とし、2億円超のシステム開発プロジェクトを統括。

taolis.net X note Voicy YouTube
  • 2026年4月17日、法務省が生成AIによる声・顔の無断利用に関する有識者検討会の設置を発表
  • 座長は東京大学の田村善之教授、メンバーは知財法・民法の学者と弁護士8人、初会合は4月24日
  • 7月までに計5回開催し、民法709条の不法行為に当たるかを類型別に整理したガイドラインを公表予定
  • 対象は「俳優そっくりのAIアクション動画」「歌手の声で歌わせたAI音源」など収益化の具体事例
  • 背景には声優26人のNOMORE無断生成AI運動やディープフェイクの国内28倍急増があり、判例不足という法の空白を埋める狙い

「推しの声優さんが歌っていない曲を、AIが勝手に歌わせてSNSで何十万回も再生されている…」──そんな光景、見たことはありませんか?2026年4月17日、ついに日本政府が動きました。法務省が生成AIによる声や顔の無断利用にメスを入れる有識者検討会を設置。夏までに実務ガイドラインを公表します。本記事では何が決まったのか、なぜ今なのか、あなたの仕事や創作にどう関わるのかを、中学生にもわかる言葉で徹底解説します。

法務省が動いた!4月17日に発表された検討会の概要

まず事実関係を整理します。2026年4月17日、法務省が「生成AIによる肖像・声の無断使用に関する検討会」の設置を発表しました。初会合は4月24日7月までに計5回開催し、夏にガイドラインを公表する予定です。

座長は東大の田村善之教授、メンバーは8人

検討会の座長を務めるのは東京大学大学院の田村善之教授。知的財産法の第一人者で、民法709条と知財法の交差領域を長年研究してきた学者です。メンバーは知財法や民法を専門とする学者と弁護士の計8名法律の最前線を走る顔ぶれで構成されています。たとえるなら、医療分野で最難関手術のチームを組む医師団のような布陣。それだけ今回の課題が難題であることを物語ります。

作るのは「指針」であり「法律」ではない

ここ、勘違いしがちなポイントです。今回まとめられるのは法的拘束力のないガイドライン。新法を作るわけではありません。ではなぜ意味があるのか?──裁判所や弁護士、AI企業、クリエイターが「迷ったときに参照する共通のものさし」になるからです。いわば交通ルールの「青信号は進んでOK」という取り決めを作るイメージ。明文化された法律ではなくても、社会が一斉に従えばルールとして機能します。

検討会が扱う具体的な事例

公表された資料では2つの代表例が挙げられています。1つ目は「ある俳優の画像からそっくりな人がアクションシーンを演じている動画」。つまり本物と見分けがつかない偽俳優動画です。2つ目は「歌手の声の音源から、歌手が特定の楽曲を歌っている音源」──実際に歌っていない楽曲を、そのアーティストの声で生成した音源を指します。どちらもAIを利用して収益を得るケースを想定しており、営利目的の無断利用にどこまで賠償責任を問えるかが論点の中心です。

なぜ今このタイミング?背景にある3つの危機

「政府ってだいたい動くのが遅いよね」と思う人も多いはず。でも今回は3つの現実的な危機が重なったことで、動かざるを得なくなりました。

危機1:ディープフェイク国内28倍の急増

2023年に日本国内で確認されたディープフェイク動画は、前年比28倍に急増。日経新聞の調査によれば、日本語の壁が崩れ、海外産ツールが日本人になりすます事例が激増しました。元首相の岸田文雄氏が卑猥な言葉を発する偽動画がSNSで拡散したり、日本テレビのアナウンサーが偽の投資勧誘広告に使われたり──被害は芸能人・政治家・一般企業にまで広がっています

危機2:声優26人の「NOMORE無断生成AI」ムーブメント

2024年10月21日、山寺宏一・梶裕貴・甲斐田裕子・かないみか26人の人気声優が「NOMORE無断生成AI」という運動を立ち上げました。自分の声が勝手にAIで合成され、アニメ・広告・さらにはアダルト音声にまで使われている実態を告発。日本俳優連合と日本音声製作者連盟を含む音声業界13団体が連携し、政府に法整備を訴え続けてきました。今回の検討会は、この2年間の業界の声に政府が応えた形です。

危機3:判例不足で現場が混乱

実は現行の日本の法律でも、肖像権・パブリシティ権の侵害で訴えること自体は可能です。しかし、AIが作った動画や音声がどこまで似ていたら違法なのか、判断の目安がない。裁判例も少なく、弁護士すら答えに迷う状況が続いてきました。「似てるようで似てない」グラデーションのどこに線を引くのか──今回の検討会は、この実務の空白を埋めるのが最大のミッションです。

検討会の核心:民法709条と「どこまで似てたら侵害?」

ここから少し法律の話が入ります。でも難しくはありません。「どこまでが冗談で、どこからが犯罪か」を決める話です。

民法709条とは?──誰かに損害を与えたら賠償する原則

民法709条は「故意または過失によって他人の権利を侵害したら、損害を賠償しなければならない」という日本の民事ルールの大黒柱たとえば道で肩がぶつかって相手がケガをしたら治療費を払う、あの原則の法律版です。検討会ではこの条文を軸に、AIで作った音声や動画が他人の権利をどう侵害するのか類型別に整理していきます。

3つの大きな論点

公表資料や報道から、議論の焦点は以下3つに絞られそうです。第1に「どこまで似ていたら侵害か」──声質が90%似ていればアウトなのか、70%ならセーフなのかという線引き。第2に「表現の自由との兼ね合い」──パロディや風刺、ファンアートはどこまで許されるのか。第3に「収益化した場合の扱い」──広告収入やグッズ販売で儲けた場合、賠償額はどう計算するのか。まるで料理の「辛さレベル」を決めるような微妙な線引きを、専門家がひとつずつ詰めていきます。

AI学習は合法でも、出力は別物

意外と知られていませんが、日本の著作権法ではAIに著作物を学習させること自体は広く認められています(著作権法30条の4)。問題は「学習の結果として生成された出力物」の扱い入り口(学習)は広く開いているのに、出口(生成物)のルールがないというガラス張りのドアだけある部屋のような状態です。今回の検討会は、この出口のルール整備を急ぐ動きとも言えます。

海外ではどうしている?米・EU・中国の最新動向

「日本が遅れているだけじゃ?」と思ったあなた、鋭いです。実はこの分野、世界中が試行錯誤中で、日本だけが慌てているわけではありません。

アメリカ:NO FAKES法案で州ごとに動く

米国では連邦議会にNO FAKES Act(声と容姿のAI偽造防止法案)が提出され、テネシー州では2024年にELVIS Act(エルヴィスの故郷から名付けられた法律)が成立済み。ハリウッド俳優組合(SAG-AFTRA)の大規模ストライキを経て、AI複製の同意と報酬を義務化する動きが加速しています。

EU:AI Actで世界最強の規制

EUは2024年施行のAI Actで、ディープフェイクに強制的な表示義務を課しています。「これはAIで作ったコンテンツです」と明示しなければ違法という世界で最も厳しいルール。違反すれば最大3500万ユーロ(約60億円)の罰金という重さ。

中国:2023年から「深度合成」管理規定で先行

実は中国は2023年1月10日施行の「インターネット情報サービス深度合成管理規定」で、既にディープフェイクに厳格な規制を導入済み。AIで作ったコンテンツには必ずマークを付けるなど、世界で最も早く実装した国の一つです。

日本のポジション:規制後発組の利点を活かせるか

日本は規制では後発組ですが、各国の試行錯誤を学んだ上で設計できるアドバンテージがあります。表現の自由を守りつつ、悪質な無断利用だけを的確に叩く──そんな日本的バランス感覚のガイドラインが作れるか、世界中のエンタメ業界が注目しています。

クリエイター・企業・ファンに与える影響

シーン1:フリーランスの声優Aさん(34歳)の場合

大阪在住のフリー声優Aさんを想像してください。過去にアニメや企業VTRの仕事で提供した音源が、本人の許可なくAI学習データに使われ、SNSで別の楽曲を歌わされているケース。これまでは「違法っぽいけど訴えるには弁護士費用が…」と泣き寝入りでした。今後は法務省指針を根拠に、無断利用者への損害賠償請求がぐっとやりやすくなる見込みです。

シーン2:AI動画を活用したい広告代理店Bさん(29歳)

東京の中堅広告代理店で働くBさんは、クライアントから「AI生成の有名俳優で動画作れない?」と相談されました。従来はグレーゾーンとして押し切るケースもありましたが、指針が出た後は「指針違反=訴訟リスク大」になります。本人の許可取得と契約書への明記が必須に。適法な利用の道筋が明確になる一方、コストとスピードは犠牲になります

シーン3:推し活で二次創作するファンCさん(22歳)

大学生のCさんは、推しのアイドルの声でオリジナル楽曲を作ってSNSに投稿するのが趣味。収益化していないファンアートはどうなるのか──ここは検討会の最大の争点です。「非営利なら原則OK、ただし明示的な嫌がる意思表示があれば削除」といった落としどころになる可能性が高いと見られています。海外ではフェアユースの範囲として保護される場合が多いため、日本でも柔軟な運用が期待されます。

シーン4:AI音声サービスを提供するスタートアップDさん(38歳)

京都の音声AIスタートアップCEOのDさんは、学習データの出所と利用者の同意を改めて整備する必要に迫られます。既存の音声ライブラリに「許可なし」のデータが混ざっていないか、ログを遡って検証する作業が発生。短期的には負担増ですが、長期的には「クリーンなデータで作られたAI」として差別化でき、海外展開でも有利になります。

よくある質問(FAQ)

Q. 今回のガイドラインはいつから効力を持つ?

A. 2026年夏(7月〜8月頃)の公表後、即参照開始できる見込みです。ただし法律ではなく指針なので「強制力」はありません。ただ、裁判所が判決を書くとき、弁護士が交渉するときの「事実上の標準」として機能するため、実質的な影響は大きいといえます。

Q. AIで声優や俳優の声を真似るのは今すでに違法?

A. ケースバイケースです。肖像権・パブリシティ権の侵害になり得る行為ですが、判例が少なく線引きが曖昧商用利用で誰かを特定できるほど似ていれば違法の可能性が高い一方、非営利のファンアートや明らかなパロディはグレーゾーンというのが現状です。

Q. 自分の声や顔がAI無断利用されていたら、まず何をすべき?

A. 第1ステップは証拠保全。問題のURL・投稿日時・スクリーンショットを保存します。第2ステップはプラットフォームへの削除申請(YouTube、TikTok、Xなど、各社に申請窓口あり)。第3ステップは弁護士相談日本俳優連合や日本音声製作者連盟に相談すれば、専門窓口を紹介してもらえる場合もあります。

Q. 企業がAIで有名人の声や顔を使うには何を押さえる?

A. 最低限3つを押さえてください。第1に本人または事務所からの明示的な許諾(口頭ではなく書面)。第2に学習データと出力物の両方の取り扱いを契約に明記。第3に「AIで生成したコンテンツである旨の表示」──EUや中国では既に義務化、日本でも近い将来ルール化されそうです。

Q. ファンがAIで推しの声を真似る動画を作るのはOK?

A. 非営利・身内の楽しみレベルなら現時点で大きな問題にはなりにくいですが、SNSに投稿すれば公開行為となり、本人が不快なら削除を求められる可能性があります。収益化(広告やサブスク)は絶対にNG愛情表現も「推しが嫌がること」はやらないのが鉄則です。

Q. AIの学習データから除外してもらう方法は?

A. 一部の大手AIサービスは「オプトアウト(学習拒否)」申請窓口を設けています。ただし日本語対応の窓口は少なく、個人での除外は実務的に難しいのが現状。業界団体を通じた一括申請が現実的な選択肢です。今回の指針では、こうしたオプトアウトの仕組みにも言及される可能性があります。

まとめ

  • 2026年4月17日、法務省が生成AIによる声・顔の無断利用に関する有識者検討会を設置
  • 座長は東大・田村善之教授、メンバー8人、4月24日初会合、7月までに5回開催
  • まとめるのは法的拘束力のない指針だが、裁判や交渉の事実上のものさしとして機能
  • 背景にはディープフェイク28倍急増と声優26人のNOMORE運動、判例不足の法の空白がある
  • 次の一手法務省発表の報道NOMORE無断生成AI公式サイトをブックマークし、7月の指針公表を見逃さないようにしましょう

生成AI技術が指数関数的に進化する中で、権利と表現の自由、創造と保護のバランスをどう取るか──これは日本だけでなく世界中の社会課題です。今回の法務省の一歩は、国内エンタメ業界とAI企業双方に「ルールに則って前に進もう」というシグナルを送りました。あなたがクリエイター・企業担当者・ファン・一般ユーザーのどの立場でも、7月公表の指針は「自分ごと」です。ぜひ続報を追いかけてください。

参考文献

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です