OpenAIが2022年11月に「ChatGPT」を公開し、それが爆発的な人気を博したことがきっかけとなって、激しいAIチャットボット開発競争が始まった。
ChatGPT公開のわずか3カ月後に、Googleは独自のチャットボット「Bard」を発表した。しかし、Bardは発表時のデモでジェームズ・ウェッブ宇宙望遠鏡に関する誤った情報を返しており、公開の準備が整っていなかったことは明白だった。
それでも、GoogleはBardのウェイトリストを米国と英国で3月21日に一般公開した。その性急な工程のためか、Bardには改善の余地が多い。
米ZDNETがBardを使ってみたところ、基本的な質問に回答できず、待ち時間が長く、出典を自動的には表示せず、より確立された競合製品と比べて見劣りした。
Bloombergは4月19日、18人の現従業員および元従業員との会話の詳細のほか、Bardの公開を急いだGoogleに対する従業員らの不満が綴られた文書について報じた。
会話の中の特に目を引く内容として、従業員らはこのボットを「痛々しい」「病的な嘘つき」「無能」などと表現していた。
従業員らは、Bard発表の際に倫理が軽視され、その分野で競争することに重点が置かれていたと述べた。倫理チームの従業員は、その発表に口出ししないことを推奨されてもいたという。
この記事では、Bardは害を引き起こす可能性があると警告した、安全性チームの従業員が提出したリスク評価を、Googleが却下したと報じている。そうした懸念が指摘されたすぐ後に、GoogleはBardを「実験」として公開した。
GoogleはAIの実験を止めておらず、「Google Workspace」を含むさらに多くの製品にこれを展開している。同社は新しいAI検索エンジンを開発中で、さらに多くのAI機能を現行エンジンに追加するとも報じられている。
社会に多大な影響を及ぼす可能性がある、大規模なAIモデルを急いで投入する動きは、世界的な問題になっている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」