生成系人工知能(AI)モデルは、ユーザーとのやり取りを通じてアルゴリズムを改善し、絶え間なくパフォーマンスを向上させている。その結果、たとえ機密情報であっても、プロンプトに入力すれば、さらなるモデルの訓練に利用される可能性がある。
そうした理由から、生成系AIをめぐる最大の課題の1つはデータプライバシーだ。生成系AIの中でも特に話題となっているのはOpenAIの「ChatGPT」だろう。
Verizon、JPMorgan Chase、Amazonなどの企業は、データの漏えいを恐れて、従業員によるChatGPTの利用を制限している。そして今回、Appleもそれに加わった。
The Wall Street Journalが確認した文書によると、Appleは一部の従業員を対象に、ChatGPTおよびMicrosoft傘下のGitHubが開発した「GitHub Copilot」など、外部のAIツールの利用を制限しているという。
こうしたモデルを利用すると、非公開情報が意図せず公開されてしまう懸念が生じ、また実際にそうしたこともあった。
直近の例としては3月20日に起こったChatGPTの不具合がある。このときは、他のユーザーが過去にChatGPTと交わした会話のタイトルが表示された。これが引き金となって、イタリアでは一時的にChatGPTの利用が禁止された。
OpenAIはデータに関する懸念に対処しようと努めてきた。同社は4月、ユーザーがチャット履歴を無効にできる機能をリリースした。無効にすると、チャット履歴はOpenAIのモデルの訓練には使われない。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」