人工知能(AI)によって、詐欺を見分けて回避することが難しくなる可能性がある。Appleの共同創設者であるSteve Wozniak氏は米国時間5月8日、悪人が同技術を利用する可能性があると、BBCに対して語り、業界のリーダーらに対して、規制の強化を求めた。
Wozniak氏は、生成AIが人間に置き換わるという、AIの将来的な利用に関する議論の中で語られる一般的な懸念については懐疑的だが、AIを利用するツールが、人間のように思える可能性については確信している。OpenAIの「ChatGPT」のような大規模言語モデルを活用したプログラムを使用することで、悪人は怪しげな詐欺を作り出して簡単にオンラインに蔓延させられるようになる。
「AIは非常に賢く、身元を偽って詐欺を働こうとする悪人も、これを利用できる」と、同氏はBBCに対して語った。同氏は、AIを開発する企業に責任を持たせるための厳格な業界基準を望んでいるが、規制当局がこれに正しく対処するかについては疑問視している。「金銭に駆り立てられた勢力が勝利するというのはよくあることで、それは悲しいことだと思う」と同氏は述べた。
OpenAIのChatGPTが2022年に公開されてから、生成AIソフトウェアが続々とリリースされている。これらのソフトウェアは、コード作成や休暇の計画のほか、詩を書いたり、あらゆる質問に答えたりできる。Microsoftが、AI搭載の新しい「Bing」をリリースしたのに続いて、Googleは3月、独自のAIチャットボット「Bard」を発表した。MetaやTwitterも、独自のAI製品開発に取り組んでいる。
同月には、Wozniak氏やElon Musk氏を含む、1000人を超えるAIやITなどの業界のリーダーが、規制が全くないままではこれらのシステムが「深刻なリスク」をもたらしかねないとして、「ChatGPT 4」以降のAIプログラム開発の一時停止を求める書簡に署名した。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」