アップル、従業員の「ChatGPT」利用を制限か--データ流出を懸念

Sabrina Ortiz (ZDNET.com) 翻訳校正: 中村智恵子 吉武稔夫 (ガリレオ)2023年05月22日 10時30分

 生成系人工知能(AI)モデルは、ユーザーとのやり取りを通じてアルゴリズムを改善し、絶え間なくパフォーマンスを向上させている。その結果、たとえ機密情報であっても、プロンプトに入力すれば、さらなるモデルの訓練に利用される可能性がある。

ChatGPTのロゴ
提供:Getty Images/NurPhoto

 そうした理由から、生成系AIをめぐる最大の課題の1つはデータプライバシーだ。生成系AIの中でも特に話題となっているのはOpenAIの「ChatGPT」だろう。

 Verizon、JPMorgan Chase、Amazonなどの企業は、データの漏えいを恐れて、従業員によるChatGPTの利用を制限している。そして今回、Appleもそれに加わった。

 The Wall Street Journalが確認した文書によると、Appleは一部の従業員を対象に、ChatGPTおよびMicrosoft傘下のGitHubが開発した「GitHub Copilot」など、外部のAIツールの利用を制限しているという。

 こうしたモデルを利用すると、非公開情報が意図せず公開されてしまう懸念が生じ、また実際にそうしたこともあった。

 直近の例としては3月20日に起こったChatGPTの不具合がある。このときは、他のユーザーが過去にChatGPTと交わした会話のタイトルが表示された。これが引き金となって、イタリアでは一時的にChatGPTの利用が禁止された。

 OpenAIはデータに関する懸念に対処しようと努めてきた。同社は4月、ユーザーがチャット履歴を無効にできる機能をリリースした。無効にすると、チャット履歴はOpenAIのモデルの訓練には使われない。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]