Opinion:生成系AIの法的課題

Harbottle & LewisのKostya Lobov氏は,開発プロセスでAIを使用する際に起こりうる落とし穴と,それを回避する方法について説明する

Opinion:生成系AIの法的課題

 ご存じないかもしれないが,生成系AIは今ちょっとした盛り上がりを見せている。

 ChatGPTのおかげで,わずか数か月の間に比較的ニッチな関心事から一般的なものとなったようだ。そのさまざまな実装は,2023年の技術的な見出しを独占しそうで,ベンチャーキャピタリストの間で急速に流行となりつつある。

 このような技術的な大流行には,以前にも遭遇したことがある。VR/AR,Web3,大文字のMで表記されるメタバースなどだ。その中には,軌道に乗るまでに時間がかかるものや,本当に普及しないものもあった(3DTVを覚えているだろうか)。しかし,生成系AIがほかと一線を画し,よりエキサイティングに感じられるのは,ゲームだけでなく,さまざまな産業ですぐに実証可能な使用例があることだ。これは解決すべき問題を探すことを苦にしない技術である。

Harbottle & LewisのKostya Lobov氏
Opinion:生成系AIの法的課題
 最近の話を聞いていると,誰もが(現段階では主に非公開で)生成系AIの実験を行い,それが自分たちのプロセスにどのように適合するかを考えているようだ。ゲーム業界では,アート,音楽,コード,レベルデザイン,ピッチ/マーケティング資料,さらにはジョブスペックやビジネスプランの初稿のような社内文書など,潜在的なユースケースは多岐にわたる。

 新しい技術が普及するスピードは,しばしば法律を不意打ちにするものであり,裁判所や法律家がどのように対処すべきかを検討するために,適応の時間が設けられる。これが現在,生成系AIで起きていることだ。

 さらに,各国には独自の法律や判決があり,生成系AI現象に対応するための段階が異なるという事実が,この立場を複雑にしている。これは,ほとんどのゲームが多くの法域にまたがるプラットフォームで同時にリリースされるという事実とは不釣り合いだ。

 この技術が持つ意味を理解するのはまだ初期段階であるが,すでにいくつかの重要な問題,すなわち知的財産権の侵害と所有権に関する問題が明らかになっている。

侵害


 まず,最もよく知られているのが,生成系AIを使って素材を作る過程で,他者の知的財産権を侵害してしまうというリスクだ。より正確には,著作権を侵害することが主なリスクとなる。

 これは,いくつかの点で起こりうる。まず,AIを学習させた素材が,著作権者からのライセンスなしに(そして適用される例外なしに)使用された場合,学習させた人たちによる侵害行為があったとみなされる。

 2022年,英国政府は著作権侵害に対するテキスト・データマイニング(TDM)の例外を,商業的なものを含むすべての用途に適用するよう拡大すべきかどうかについて協議を実施した。最初の結果は「イエス」だった。しかし,ここ数か月で急転直下し,新法案は廃案(または無意味)となるようだ。したがって,現状では英国法において生成系AIの学習を目的として第三者の著作物を使用するには,ライセンスが必要となる。

生成系AIの出力は,編集して最終製品に直接組み込んでも問題ないと判断される日が来るかもしれないが,まだそこまでには至っていない

 生成系AIの学習の最終結果は,通常,重み付けされた値のセットであり,基本的にはいくつかのコードだ。これをユーザーから提供されたプロンプトに適用して,新たな出力を生成する。裁判所がまだ検討していないのは,重み付けされた値そのものが,侵害行為の結果として作成された場合,二次的著作物とみなされ,許可が得られない限り侵害となりうるかどうかという点だ。

 GettyがStability AIに対して,Gettyのウォーターマークが入ったままのライブラリ画像を不正に使用したとして起こした法的手続きは,この種の紛争が発生する可能性を示す初期の例である。

 次に,生成系AIの使用者の潜在的な責任に関する未解決の問題がある。例えば,あるユーザーが既存の著作物を実質的にコピーしようとしたが,直接コピーするのではなく,希望する出力が得られるまで異なるプロンプトを入力した場合,侵害行為が認められるかという議論がある。写真編集ソフトを使って既存の写真の実質的なコピーを作成することが,それ自体で防御にならないのと同じように,このシナリオで生成系AIを使用しても「水に流す」ことにはならない。

 生成系AIの出力が著作権を侵害するのであれば,その出力をゲーム内で使用すれば侵害品となる。侵害複製物をコピーすることは,それ自体が侵害となる。これは明らかに商業的に大きな影響を与える可能性があり,スタジオが生成系AIを慎重に扱う最大の理由の一つだ。

所有権


 もう一つの重要な問題は,出力の知的財産権を誰が所有しているかということだ。これもまた,世界共通の答えがあるわけではない。

 英国では,著作権・意匠・特許法が,人間の著作者がいない作品を著作権で保護することを明確に想定している。同法の「著作者」とは何かという部分には,「文学,演劇,音楽または美術の著作物でコンピュータにより生成されるものの場合,著作者は著作物の創作に必要な手配を行った者とみなされる」と書かれているのだ。そして「コンピュータで生成された」とは,人間の著作者が存在しないような状況で,作品がコンピュータによって生成されたことを意味する。

 しかし「著作物の創作に必要な手配」をしたのは誰なのか,どのように判断するのだろうか? 生成系AIのコードを書いた人だろうか? どんな素材で学習させるかを選んだ人? プロンプトを入力したユーザー? そのプロンプトがプロンプトマーケットプレイス(存在するのだ)から購入されている場合は?

猿の自撮りが著作権保護されるかどうかについては,同様の法的議論がある
Opinion:生成系AIの法的課題
 あるいは,著作物には複数の著作者と所有者が存在しうることが確立されているため,これらの人々の何らかの組み合わせなのだろうか。この問いに対する明確な答えはまだないが,裁判になった最初の生成系AI事件では,このことが裁判官によって検討されるに違いない。

 また,著作者が誰であるか判明しても,作品が「独創的」であることを免れることはできない。現在の英国・EUのテストでは「著作者自身の知的創造物」でなければならないことになっている。生成系AIに入力されたプロンプトの選択と微調整が,結果として得られるアウトプットの「独自の知的創造」にどの程度相当するのかは,まだ裁判所によって検証されていない重要な問題だ。

 米国では,AIが作成した写真は,人間の著作者がいないため著作権で保護されないというのが現在の見解だ。写真家David Slater氏のカメラを借りて自撮りした猿のNarutoによる写真が保護されないのと同様である。AIが作成した芸術作品について,米国の著作権登録が著作権局から却下された話や,「Zarya of the Dawn」の中でAIが作成した画像について著作権保護が取り消された話を読んだことがあるかもしれない。しかし,この分野の法律は進化していくものであり,これらの問題は現在,最高裁判所で検討されている。

 こうした所有権に関する問題も,生成系AIの出力を直接ゲームに組み込む際に注意すべき理由の一つだ。スタジオがコンテンツのIP権を所有していると確実に言えない場合,そのコンテンツをパブリッシャや,最終的にはEULAに基づくエンドユーザーなどの第三者に安全にライセンスすることができない。

実用的な指針


 今後,さらに進化するまでは,いくつかの基本的なポイントを頭に入れておくとよい。

1. 生成系AIをオンラインリサーチの代替として使用する場合は,初期のインスピレーション/アイデア生成の段階を明確に分離したほうがよいだろう。生成系AIの出力は,編集して最終製品に直接組み込んでも問題ないと判断される日が来るかもしれないが,まだそこまでには至っていない。AIがどのように訓練され,どのようなデータプールが使用され,AIプロバイダがどのような契約上の保証を提供できるのか透明性が高まるまでは,生成系AIが関わったものと最終的にゲームに含まれるものの間に「エアギャップ」を設けることがベストプラクティスとなる。

2. ストーリーボードや初期のコンセプトスケッチなど,アイデア出しのプロセスを正確に記録しておくことも有効だ。これらはすべて,ゲーム(またはその一部)が独自に作成されたものであり,それ自体がオリジナル作品であることを示す証拠として使用できる可能性がある。

3. 「決定的な証拠」とみなされるような電子・紙の痕跡を作らないようにする。特に電子ファイルは,企業のシステム上に長い間潜んでいる可能性がある。紛争が発生した場合,事業者はシステムを検索し,役に立たないと思われる電子メール,チャットログ,使用した生成系AIのプロンプト記録など,訴訟に役立つもの,不利になるものを開示する義務を負う。A社のゲームと競合するゲームに取り組んでいる場合,A社への言及を含むファイル(一時的なものであっても),A社やその製品に言及したプロンプトからの生成系AIの出力などがシステムに散乱していることは,おそらく避けたいことだろう。

4. 社内に法務チーム(または近いもの)がある場合,彼らと相談することだ。あなたが何をしていて,どのように生成系AIをプロセスに統合しようと考えているのか,事前に伝えておくのが理想である。

5. 上記のように,私たちは急速に進化する状況の中にいる。いくつかの国の裁判所,立法者,規制当局が生成系AIに注目しており,比較的短い期間でルールが変わる可能性は十分にある。

その他の問題


 この記事では,潜在的な法的問題を2つだけ取り上げたが,もちろんこれ以外にも存在している。

 例えば,個人情報(容姿を含む)が生成系AIの学習過程で使用されたことが,出力に再現されたり,出力をリバースエンジニアリング(初期実験では,困難だが限定状況で可能)したりして判明した場合,データ保護やプライバシーに関わる可能性がある。

生成系AIは,私たちを底辺への競争に導き,人類の創造性に破滅をもたらすのだろうか?

 そして,道徳的な側面についてはまだ触れていない。あることが(現在)合法だからといって,それが実行されるべきなのか? 生成系AIの使用は,私たちを底辺への競争に導き,人類の創造性に破滅をもたらすのだろうか? このような大きな疑問は別の機会に譲るとして,その答えは誰に尋ねるかによって必然的に異なるだろう。

 しかし,現状では生成系AIはスタジオのツールキットに追加されるエキサイティングなものに見える。

 そして,もし将来,AIの支配者たちがこれを読んでいたら,筆者が彼らの大義を広く支持していると認識してくれることを期待する。


Kostyantyn Lobov氏は,ロンドンに拠点を置く法律事務所Harbottle & LewisのInteractive Entertainment Groupの共同責任者で,Tier1にランク付けされるゲーム業界の長年のアドバイザーでもある。

※本記事はGamesIndustry.bizとのライセンス契約のもとで翻訳されています(元記事はこちら