「ChatGPT」の使用に伴う6つのリスク、研究者らが指摘

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部2023年05月18日 11時00分

 生成系AIのリスクに対する懸念が高まっている。OpenAIの最高経営責任者(CEO)であるSam Altman氏が米上院司法委員会の公聴会で証言し、さまざまなリスクとAIの未来に言及したほどだ。

ChatGPTの文字とOpen AIのロゴ
提供:NurPhoto/Contributor/Getty Images

 欧州の研究者らは5月13日に公開したレポートで、ChatGPTの使用に伴う6つのセキュリティリスクを提示した。

 それらのリスクについて、以下で簡単に説明する。

情報の収集

 悪意を持って行動する人がChatGPTから情報を収集し、後で悪用するおそれがある。ChatGPTは膨大な量のデータで訓練されているため、悪人の手に渡ってしまった場合に武器として使用されかねない情報を大量に保持している。

悪意あるテキストの生成

 ChatGPTで最も人気の高い機能の1つは、エッセイや電子メール、楽曲などの作成に使用できるテキスト生成機能だ。しかし、この文章作成機能は、有害なテキストの作成にも使用できる。

悪意あるコードの生成

 ChatGPTの驚異的な文章作成能力と同様、優れたコーディング能力も多くのユーザーにとって便利なツールとなっている。だが、チャットボットのコード生成機能も、他者に危害を与える目的で利用することが可能だ。ChatGPTを使えば、コードを迅速に生成できるため、コーディングの知識がそれほどない攻撃者でも、より迅速に攻撃を展開することが可能になる。

非倫理的なコンテンツの生成

 ChatGPTには、不快で非倫理的なコンテンツの拡散を防ぐためのガードレールが設けられている。しかし、十分な覚悟を持ったユーザーは、ChatGPTに有害で非倫理的なことを言わせる方法を見つけるだろう。

詐欺的なサービス

 ChatGPTは、新しいアプリケーションやサービス、ウェブサイトなどの作成に役立てることが可能だ。自分のビジネスの立ち上げや夢のアイデアの実現といった良い目的のために利用すれば、ChatGPTは非常に有益なツールになり得る。しかし、それは、詐欺的なアプリやサービスの作成がかつてないほど簡単になったことも意味する。

個人データの公開

 ChatGPTには、人々の個人情報やデータの共有を防ぐためのガードレールが設けられている。しかし、レポートによると、ChatGPTが電話番号や電子メール、そのほかの個人情報を誤って共有してしまうリスクが依然として懸念されているという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]