Microsoft Build

AI生成コンテンツの安全性向上へ--マイクロソフトが複数のツールを発表

Maria Diaz (ZDNET.com) 翻訳校正: 高森郁哉 (ガリレオ)2023年05月24日 10時55分

 さまざまな専門家、倫理学者、そして政府までもが人工知能(AI)ツールの開発と利用における安全性の向上を推進する中、Microsoftは開発者会議「Build」で、AIコンテンツの安全性に関する新たな諸策を発表した。

Microsoft Buildの画像
提供:Microsoft/Maria Diaz/ZDNET

 同社が責任あるAIを目指す一連のアップデートとして発表したものの中には、プレビュー提供が開始された「Azure AI Content Safety」がある。これはAIやユーザーによる有害なコンテンツを検出するものだ。

 「Microsoft Designer」と「Bing Image Creator」では、今後予定されているメディアの起源に関するアップデートを通じて、画像や動画がAIによって生成されたものかどうかを判断する機能が提供される。これを実現するために用いられる暗号化手法では、作成に関するメタデータを利用して、AIが生成したメディアにフラグを立てられるという。

 Microsoftのパートナーグループ製品マネージャーを務めるSarah Bird氏は、基礎技術のための責任あるAIを率いている。

 Bird氏の説明によると、開発者らは、これらのツールが正確で意図した通りの結果を確実に生成するようにする責任を担う。反対に、偏向や性差別、人種差別、憎悪、暴力などの要素を含む結果の生成を回避する責任もあるとした。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]