ソフトバンクは7月12日、AI(人工知能)の活用や研究開発に関する基本指針を定めた「ソフトバンクAI倫理ポリシー」を策定したと発表した。
ユーザーがAIを活用したサービスを安全、安心に利用できる体制を構築する。
AI倫理ポリシーでは「人間中心の原則」「公平性の尊重」「透明性と説明責任の追求」「安全性の確保」「プライバシー保護とセキュリティの確保」「AI人材・リテラシーの育成」の6つの項目における指針を設定。指針にのっとった事業運営、サービス開発などを行うという。
同ポリシーをグループ会社でも適用できる体制を整えており、同日時点で57社が適用を決定。より具体的なルールを定めたガイドラインの策定、AIに精通した有識者で構成する外部委員会の設置の検討など、体制を強化していく。
また同ポリシーは、AIに関する各国、各地域の指針、生活スタイルや環境の変化、業界における事例の蓄積、テクノロジーそのものの発展、さまざまなステークホルダーとの対話を踏まえ、必要に応じて見直しなどを柔軟に対応するとしている。
ソフトバンクは、従来の通信事業者の枠を超え、AIやIoTなどの先端技術を活用し、革新的なサービスの提供やDX(デジタルトランスフォーメーション)の推進に取り組んでいる。
これらの先端技術のうち、AIは近年あらゆる産業での活用が広がり、今後も活用方法の多様化や技術の高度化が進むことが予想されている。一方で、活用の仕方によっては差別的な評価や選別を導く可能性があるなど、倫理面での配慮や注意が必要な技術であることが指摘されているという。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」