インターネットでは、悪夢の燃料に事欠くことはない。最新の燃料は、「DALL·E mini」だ。入力されたテキストに基づいて、奇妙な画像や面白い画像、時には、不快感をもたらす画像なども作り出すAIツールで、ソーシャルメディアで注目を集めている。
DALL·E miniは、画像(理論上、ユーザーの魂の奥深くにしか存在しないイメージ)を説明する短いフレーズを入力すると、数秒でその画像が画面に表示されるというものだ。
読者もソーシャルメディアのフィードでDALL·E miniの画像を見たことがあるだろう。ユーザーが思いつくフレーズは「ハムを食べるJon Hamm(米国の俳優)」や「コンビニ強盗をするヨーダ」など、極めて突拍子もない。
アートと人工知能の組み合わせがインターネットユーザーの注目を集めるのは、今回が初めてではない。アートのような主観的なものをアルゴリズムがどのように扱うのか、という問題には、ある種、興味を引くものがある。例えば、2016年には、俳優のThomas Middleditchが、アルゴリズムによって書かれた脚本を基に短編映画を制作している。Googleも、アートとAIを結び付けるツールをいくつか開発しており、2018年には、自分に似た顔が描かれた有名絵画を探せる「Google Arts & Culture」というアプリを発表している。また、Googleの「AutoDraw」は、ユーザーが描こうとしているものを見抜き、修正もしてくれるツールだ。
OpenAIの「DALL·E 2」や「Google Imagen」など、一般の人々にまだ提供されていないテキスト画像生成システムもある。
DALL·E miniとそのAIで生成されたアートについて知っておくべきことを以下で解説する。
DALL·E miniは、入力されたテキストに基づいて画像を生成するAIモデルだ。プログラマーのBoris Dayma氏がニュースサイト「i」とのインタビューで語ったところによると、DALL·E miniは当初、GoogleとAIコミュニティーの「Hugging Face」が開催したコンテスト用に、2021年7月に開発したものだそうだ。米CNETはDayma氏にコメントを求めたが、すぐに回答を得ることはできなかった。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス