Facebookは米国時間12月10日、同社の人工知能(AI)ハードウェアをオープンソース化する計画を発表した。
FacebookのエンジニアであるKevin Lee氏とSerkan Piantino氏は10日付けのブログ投稿で、ゼロから構築されたオープンソース化対象のAIハードウェアは、市販製品よりも効率的で多用途に適用可能であることを強調した。これは、Open Compute Project(OCP)規格に基づくデータセンター内でサーバが稼働できるためだという。
「多くの高性能コンピューティングシステムは、特殊な冷却構造などの独自インフラが動作に必要となるが、われわれはこれらの新しいサーバを熱性能と電力効率の面で最適化し、われわれ独自のフリーエアー冷却を採用したOCP規格準拠のデータセンターでも稼働できるようにした」とLee氏とPiantino氏は説明した。
「Big Sur」という開発コード名が付けられたこの次世代ハードウェアは、ニューラルネットワークのトレーニング用に設計されている。
同技術はAI以外でも、機械学習またはディープラーニングと呼ばれたり、それらの技術に関連付けられたりすることが多い。
チップメーカーNVIDIAもこの1年間、同社独自のディープラーニングポートフォリオを推進している。そこで両社はこのプロジェクトに共同で取り組んでおり、既に多数の可動要素がこのプロジェクトに採用されている。
Facebookは、11月にリリースされたNVIDIAのGPUアクセラレータ「Tesla M40」を初めて採用する企業となっている。ディープニューラルネットワークの配備を目的とする高性能なM40 GPUは、Big SurプラットフォームとOpen Rack対応のハードウェアを支える重要な要素として位置づけられている。
Facebookエンジニアらは、M40を装備することでBig SurはFacebookの前世代のプラットフォームよりも2倍高速となり、ネットワークのトレーニングが2倍の速さで実行できるようになる可能性があると述べた。
NVIDIAも、FacebookがOCPに設計資料を提出した暁には、Big Surがオープンソースソリューションとしてリリースされる、機械学習とAI研究用に開発された初めてのコンピューティングシステムになると主張した。
世界中のFacebook会員数が増加の一途をたどる中、データとその情報から取集され得る洞察の量もますます膨れ上がることになる。
ソーシャルメディア大手のFacebookはその状況を最大限に活用するつもりらしく、Facebook AI Research(FAIR)チームは、機械学習技術の適用範囲を同社全体にわたってさらに多くの製品に拡大するために、GPUハードウェアへの投資を3倍以上に増加させる計画だという。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」