AI アート ジェネレーターから画像を保護する方法
ヴァン ゴッホやフリーダ カーロのような昔のアーティストの作品を AI ジェネレーターで模倣するのは楽しいですが、同じことは生きているアーティストには当てはまりません。ほぼ誰でもアーティストの「スタイル」でイメージを作成できるようにすると、彼らの市場は模造品であふれる可能性があります。信憑性に関する混乱と収入の潜在的な損失を追加します。
それに応じて、人々は自分の画像を AI アート ジェネレーターから保護する方法を探しています。答えは完璧でも絶対確実でもないかもしれませんが、AI アート ジェネレーターによって画像が使用されないようにする方法はいくつかあります。
AI ジェネレーターが画像を取得する方法
AIアートジェネレーターは、テキストプロンプトが与えられたときに画像を生成する方法を学ぶための「トレーニング」期間を経ます。学習プロセスの一環として、何億もの画像とテキストのペアを学習して、実際のオブジェクト、色、シーンの正確な画像を最終的に生成する必要があります。また、アートのテクニックやスタイルも必要です。
たまたま、AI モデルは人間の創造性から学ばなければなりません。たとえば、Midjourney と Stability Diffusion は、オープンソースの LAION-5B データセットでトレーニングされた 2 つの AI アート ジェネレーターであり、インターネット全体からの数十億の画像が含まれています。
これらのデータセットは、Web クローラーを使用して Web サイトのデータを「スクレイピング」し、画像の URL とそのキャプションのリストを、大量の Excel スプレッドシートに似た形式で作成します。画像データセットに含まれる前にアートをオンラインに投稿したことがあり、同意の有無にかかわらず AI のトレーニングに使用された場合。
1. AI トレーニング データセットをオプトアウトする
Spawning は、Have I Been Trained? という人気のウェブサイトを持つアーティストのグループです。、画像が LAION-5B データセットにあるかどうかを確認するために使用できます。彼らは自分たちでそれを取り、後でデータセットからオプトアウトする機能を追加しました。合意に基づき、Spawning はユーザーのオプトアウト リストを LAION に渡します。LAION は、要求を尊重し、それらの画像をコレクションから削除すると述べています。
Spawning によるオプトアウト ツールは、執筆時点では一度に複数の画像を追加できないため、まだ開発が必要です。また、AI モデルのトレーニングに使用される可能性のある他のデータセットとのオプトアウト契約もありません。
多くの AI 企業は、自社の AI モデルがどのように構築されているかについて詳細を開示していないため、使用しているデータセットが明確でない場合があります。DALL-E は、この情報を共有しない人気のある AI アート ジェネレーターの 1 つです。
または、DeviantArt を使用してアートワークを共有する場合、画像はデフォルトで AI トレーニング データセットに使用されないように保護されます。これは、画像に「noai」というタグを付けることで機能します。つまり、AI モデルが画像をトレーニングに使用したことが判明した場合、DeviantArt の利用規約に違反することになります。
もちろん、これらのオプトアウト措置は強制されないため、第三者が選択した場合は無視することができます. これは最も効率的な解決策ではありませんが、アーティストの作品を保護するための規則や規制が増える方向に進んでいます。
理想的な世界では、オプトアウトするのではなく、オプトインするオプションが人々に与えられるでしょう。これが将来実現することを期待しています。データセットから画像を削除する方法の詳細については、AI トレーニングから画像をオプトアウトする方法に関するガイドを参照してください。
2.作品の著作権
インターネットから画像をスクレイピングする行為が合法であるかどうかが、裁判所の注目を集めています。そして、アーティストが自分の側で証拠を提示するのを助けることは、彼らが所有する画像の著作権です.
2023 年の初めに、著名なコミック アーティストのサラ アンダーセンは、作品をスクレイピングしたとして、AI 企業の Stability AI と Midjourney、およびアート共有ウェブサイト DeviantArt に対して訴訟を起こしたアーティスト グループの一員でした。無数の他のアーティストのアートを含む、無断で彼らのアートを無断で使用すること。
もう 1 つの例は、ストック イメージの Web サイトであるゲッティ イメージズです。このサイトは、ライセンスなしでイメージをスクレイピングしたとして Stability AI に対して訴訟を起こしました。著作権のある画像が使用されていることを発見したのは、AI が生成した画像にゲッティ イメージズの透かしが表示され始めたときでした。
合法性はいずれ決定されるでしょうが、著作権は、私たちが言及した事例に見られるように、アーティストの作品の権利のために戦うために使用できる数少ないものの1つです. 最新の AI テクノロジーではないかもしれませんが、前進するための防御に追加できます。
AI が関係しているかどうかに関係なく、自分の作品が盗まれるのを防ぐことができるので、とにかく学ぶ価値のあるプラクティスです。写真を著作権で保護する方法に関するガイドに従って、すべての仕組みを詳しく見てみましょう.
3. Robots.txt でウェブサイト クローラーをブロックする
画像データセットは、Web クローラーと呼ばれるものを使用するため、多数の画像のインデックスしか作成できません。名前が示すように、特定の情報を求めて Web サイトをクロールします。
一部のクローラーは便利で、Google などの検索エンジンが最も関連性の高い情報を見つけてインデックスに登録し、検索結果ページに表示するのに役立ちます。その他は、ウェブサイトから画像をスクレイピングして AI トレーニング データセットに含めるために使用されます。
そこで Robots.txt の出番です。Robots.txt は、Web クローラーにスキャンできるものとできないものを伝えるために、Web サイトのバックエンド コードに配置できるテキスト ファイルです。これを使用して、クローラーが特定のページやファイルを見るのを止めることができます。これは、画像が AI に使用されたくない場合に役立ちます。
詳細については、Web クローラーとは何か、およびそのしくみに関するガイドをお読みください。Web サイトをお持ちの場合は、Web 開発者に依頼して、Web サイトのコードに Robots.txt を埋め込んで、AI トレーニング データセットによって画像が破棄されないようにしてください。
将来に期待すること
AI モデルと競合しなければならないのは苛立たしいことですが、さらに多くのソリューションが開発されつつあります。
一方では、何が合法で、AI 画像生成で著作権がどのように機能するかについて、法廷での手続きが進められています。これらの公開討論の結果は、AI企業が従わなければならない法的基準を設定し、おそらく迅速な規制を設定するでしょう。
一方で、開発者は新しい技術を使って問題を解決する方法を考えています。有望な研究の 1 つでは、AI トレーニング データセットに対して画像を「学習不能」にレンダリングすることで、AI を使用して自分自身と戦うことができることが研究によって示されています。
メルボルン大学のサラ モナザム エルファニ博士は次のように説明しています。この変化は非常に小さく、人間の目には認識できませんが、画像に十分な「ノイズ」が導入され、AI のトレーニングには役に立たなくなります。」
あなたが AI 画像ジェネレーターの影響を受けている場合は、これらの企業が慣行を変えるよう圧力をかけられるように、あなたの声を届ける価値があります。新しいオプトアウト設定が作成されたのは、DeviantArt コミュニティからの強いフィードバックがあったからです。そのため、アート共有プラットフォームと AI 企業に必ずフィードバックを提供してください。
AI から画像を守る
AI トレーニング データセットをオプトアウトし、写真を著作権で保護し、Robots.txt 標準を使用することで、AI アート ジェネレーターから画像を保護できます。画像が AI システムに侵入されないという保証はありませんが、3 つの方法をすべて使用することで、より多くのソリューションが開発されるまで最善の防御策が得られます。
AI が学習できないように画像をいつの間にか調整して、AI アート ジェネレーターのトレーニングに使用できないようにする方法など、新しいツールが登場しています。それまでの間、あきらめないでください。AI アート ジェネレーターから画像を保護する方法はまだあります。
コメントを残す