あなたなら、かかりつけ医や恋人とのプライベートな会話を、知らない人に聞かれてもいいと思うだろうか。聞かれた話の断片を、相手が他の誰かに売っても構わないと思うだろうか。こうした行為は、簡単に言えば、サードパーティーのトラッカーがやっていることだ。トラッカーはオンラインでのユーザーの行動を監視し、その情報を、ユーザーに何かを買ってもらいたい他の誰かに売っている。
OpenAIの「ChatGPT」だけでなく、「Bing」のチャットボットやGoogleの「Bard」といった生成系の人工知能(AI)サービスを利用する人が増えるにつれ、その安全性と倫理性が問題になっている。膨大な数の人がウェブサイトを訪れて質問をしたり、履歴書に添付するカバーレターや論文に使う文章を生成したり、コードの作成ばかりかデバッグまでしている状況の中で、疑問に思わずにいられない。これらのツールに入力されたあらゆる情報はどうなるのか。そして、これにデータブローカーが関与しているとしたら、それはどのような役割なのか。
広告ブロッカーを手がけるGhosteryの最高経営責任者(CEO)でプライバシーの専門家であるJean-Paul Schmetz氏は、この問題についていくつか言いたいことがあるという。同氏は、生成系AIを利用する際に生じかねないプライバシー上の懸念について米ZDNETのインタビューに応じた。
幸い、OpenAIはまだChatGPTでサードパーティーのトラッキングを許可していない。Schmetz氏によると、「OpenAIは、それが安全という意味では清々しいほど誠実」であり、「ChatGPTとチャットしている内容を誰ものぞけないようにしている」という。
「唯一心配しなければならないのは、OpenAIがユーザーのデータを学習に使えることであり、そのため何を書き込もうともすべてOpenAIに使われていることだ」と同氏は付け加えた。このことはOpenAIのプライバシーポリシーに明記されているが、同社のGoogleフォームに入力するだけでデータ共有をオプトアウトするオプションもある。
オプトアウトしない場合は、「入力する内容に注意する」ようSchmetz氏は助言している。
Schmetz氏の警告には耳を傾ける価値がある。2021年には、セキュリティ研究者らがトレーニングデータ抽出攻撃に対する「GPT-2」システムの脆弱性を発見した。この脆弱性は、ユーザーが入力するデータから学習するという同モデルの本質的な役割を悪用するものだ。
「悪意のある者は、ある決まったクエリーを入力することで、ユーザーがそれまでに入力した特定のデータをAIに出力させることができる。こうしたデータには、氏名、住所、電話番号などの個人を特定できる情報に加えて、ターゲットとなったユーザーがシステムに入力したあらゆる情報が含まれる可能性がある」(Schmetz氏)
この脆弱性が「GPT-4」にも存在するかどうか確かなことは分からないが、無料で使えるGPT-4にはこの脆弱性が残っているとSchmetz氏は指摘している。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
「程よく明るい」照明がオフィスにもたらす
業務生産性の向上への意外な効果