さまざまな専門家、倫理学者、そして政府までもが人工知能(AI)ツールの開発と利用における安全性の向上を推進する中、Microsoftは開発者会議「Build」で、AIコンテンツの安全性に関する新たな諸策を発表した。
同社が責任あるAIを目指す一連のアップデートとして発表したものの中には、プレビュー提供が開始された「Azure AI Content Safety」がある。これはAIやユーザーによる有害なコンテンツを検出するものだ。
「Microsoft Designer」と「Bing Image Creator」では、今後予定されているメディアの起源に関するアップデートを通じて、画像や動画がAIによって生成されたものかどうかを判断する機能が提供される。これを実現するために用いられる暗号化手法では、作成に関するメタデータを利用して、AIが生成したメディアにフラグを立てられるという。
Microsoftのパートナーグループ製品マネージャーを務めるSarah Bird氏は、基礎技術のための責任あるAIを率いている。
Bird氏の説明によると、開発者らは、これらのツールが正確で意図した通りの結果を確実に生成するようにする責任を担う。反対に、偏向や性差別、人種差別、憎悪、暴力などの要素を含む結果の生成を回避する責任もあるとした。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス