人工知能の世界は、数年前から私たちを口を開けたままにすることを目指してきましたが、真実は彼らがこれを達成しているということです。OpenAIのようなセクターの特定の企業から、Googleのような大手テクノロジー企業まで、この間に、人工知能が、私たちが示す特定のトピックに関するテキストの記述から、実際のゲーム画像のスケーリングまで、あらゆることを行うことを学んだことを確認しました。規模。ゲーム体験を改善する時間。
人工知能のこの進化の非常に興味深い領域は、画像の生成に見られますが、場合によっては純粋に偶然であり、他の場合はユーザーが以前に提供した説明に基づいています。そして、この最後のグループでは、NVIDIAのGauGAN2やGoogleの人気のある顔ジェネレーターなどの特定のタイプの画像に特化したソリューションや、汎用ソリューションを見つけることができます。
後者の中で、これまでのところ金メダルはOpenAI DALL-Eシステムと一致していますが、テキストの説明から画像を作成するためにGoogleが開発した新しいシステムであるImageのプレゼンテーションによってこれが変わりました。そして、プロジェクトのプレゼンテーションページで見られるように、この人工知能によって生成された画像の一部は、完全に現実的なモチーフを再現していないことを除いて、実際に通過する可能性があるという事実にあります。
ただし、このような場合は常にそうであるように、Googleが得られた最良の結果を選択することに注意することが重要ですが、あまり効果的な結果もなかったと推測できます。また、これは、少なくとも短期的にはテストできないものです。Googleは、少なくとも今のところ、潜在的なユーザー/クライアントが画像を利用できるようにしないと判断したためです。
これには2つの理由があります。まず、同社は、偽のニュースからCSAMのような違法な性的コンテンツまで、画像の潜在的な悪用を懸念しています。この件に関して、Googleは非常に常識を持って行動しており、そのような使用が確実に行われるようになっています。このテクノロジーがすべての人に利用可能になった最初の瞬間からほぼ。
もう1つは、これも非常に理にかなっています。AI学習プロセスを促進するために使用されるほとんどすべての大規模なデータセットの場合と同様に、修正が必要なバイアスがいくつかある場合があります。問題は、これらのデータセットを詳細に分析することは複雑な作業であり、Googleの規模の企業でさえ比較すると見劣りすることです。したがって、そのようにアプローチする代わりに、アプローチは、AI自体がこれらのバイアスについて学習できるようにして、それらを自動的に修正することです。
個人的には、これがエキサイティングなのか恐ろしいのかわからないことを認めますので、おそらく両方です。
コメントを残す