「ChatGPT」、マルウェア作成に悪用される--Check Point調査

Danny Palmer (ZDNET.com) 翻訳校正: 編集部2023年01月10日 11時13分

 「ChatGPT」が公開されてからさほど日はたっていないものの、この人工知能(AI)チャットボットはさまざまなところで大きな反響を呼んでいる。しかし、不正なコードの生成に利用しようとする動きが既に確認されてもいる。

「ChatGPT」の文字とOpenAIのロゴ
提供:Getty/NurPhoto

 ChatGPTは、人間を相手にしているかのような会話形式でのやり取りを実現する、AIテクノロジーを利用した自然言語処理ツールだ。そして、電子メールやエッセイの作成、コーディングといったタスクの支援に使用できる。

 ChatGPTは、AIを研究するOpenAIによって開発され、2022年11月に公開された。それ以来、各所で大きな関心を呼ぶとともに、AIの発展や今後の利用方法についての議論を巻き起こしている。

 しかし他のツールと同様、悪人の手によって不正な目的で用いられる可能性がある。Check Point Software Technologiesのサイバーセキュリティ研究者らによると、アンダーグラウンドのハッキングコミュニティーは既に、サイバー攻撃を容易にしたり、悪意ある作戦を支援する上でのChatGPTの利用方法について試行錯誤を始めているという。

 Check Pointの脅威インテリジェンスグループマネージャーであるSergey Shykevich氏は米ZDNetに対して、「技術知識が極めて乏しいか、まったくない脅威アクターであっても、不正なツールを作成できるようになる可能性がある。また、洗練されたサイバー犯罪者にとっても、日々の作戦で使用する感染チェーンのさまざまな部分を新たに作っていくなどして、攻撃をより容易かつ効果的なものにできる可能性がある」と述べた。

 OpenAIのサービス規約では、マルウェアの作成行為、すなわち「ランサムウェアやキーロガー、ウイルスなど、何らかの害を与えることを目的としたソフトウェアを生成しようとするコンテンツ」が明確に禁止されている。また、スパムの作成行為とともに、サイバー犯罪を目的とした利用も禁止されている。

 それでも、複数の主なアンダーグラウンドハッキングフォーラムの活動を分析した結果、サイバー犯罪者らは既にChatGPTを利用して不正なツールを作成しており、一部のケースでは開発スキルやコーディングスキルを有していない低レベルのサイバー犯罪者がマルウェアを作成していることが示唆されている。

 あるアンダーグラウンドハッキングフォーラムに2022年12月末に開設されたスレッドでは、ChatGPTをどのように使用すれば、一般的なマルウェアについて記されている調査レポートや記事の内容からマルウェアの亜種や技術を再現できるのかといった方法が説明されているという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]