マイクロソフトのナデラCEO、「技術スタックの全階層にAIを搭載」と語る

Tiernan Ray (Special to ZDNet.com) 翻訳校正: 編集部2023年01月26日 10時27分

 Microsoftが米国時間1月24日夜に開いた、第2四半期決算に関するアナリストらとの電話会見の中で、最高経営責任者(CEO)のSatya Nadella氏は、OpenAIに対する出資がMicrosoftにとって何を意味するかについて、おそらくこれまでで最も広大な自身のビジョンを語った。サンフランシスコを拠点とするOpenAIは、爆発的な人気を誇る「ChatGPT」の開発元だ。

Microsoftのロゴを背景に「ChatGPT」の文字
提供:Jakub Porzycki/NurPhoto via Getty Images

 OpenAIはコンピューティングの次なる波を構成するものだと、同氏は述べた。「次なる大きなプラットフォームの波は、これまでにも述べたようにAIであり、その波をつかむことができただけで、多大な企業価値が創出されるとも、われわれは強く確信している。その波は、われわれの技術スタックのすべての部分に影響を与えるとともに、新しいソリューションと新しい機会を創出する」(同氏)

 それに向けてMicrosoftは、「生産性であれコンシューマーサービスであれ、スタックのすべての階層にAIを組み込むことを全面的に推進しており、その取り組みに心躍らせている」という。

 Nadella氏はOpenAIとの提携について、「投資という側面や、商業的提携という側面もあるが、根本的にはAIで主導することによって、Microsoftの個々のすべてのソリューションにおけるイノベーションと競争的差別化を促進するものになるだろう」と述べた。

 現時点で、OpenAIによって開発された代表的なアプリケーションは、「GitHub CoPilot」だ。これは、プログラマーによるコーディング作業をニューラルネットによって支援するというもの。「GitHub Copilotは実際、今日市場にある製品を基に考えると、最も大規模なLLMだと言える」と、Nadella氏は述べた。大規模言語モデル(LLM)とは、言語を処理するニューラルネットを指す業界用語だ。

 ChatGPTの機能の一部を担うOpenAIの「GPT-3」は、パラメーター(ニューラルネットワークの「重み」)の数を指標とすると、世界最大級の大規模言語モデルの1つだ。

 「(Microsoftは)ChatGPTのサポートを近いうちに追加する。これによって顧客は初めて、独自のアプリケーションの中でそれを使用できるようになる」と、Nadella氏は述べた。

 「Azure」では最近、開発者がOpenAIのAIモデルにアクセスする手段となる「Azure OpenAI Service」が提供開始され、「KPMGやAl Jazeeraなど、200を超える顧客が既にこれを利用している」という。

 Nadella氏は、同社がこの技術を、「Synapse」などのMicrosoftの製品にさらに組み込む予定であることを示唆した。Synapseは、Microsoftの包括的なデータベースアプローチで、分析に向けてデータをグループ化する一般的な手段である「データウェアハウス」や「データレイク」などを可能にして、それらのキュレーションされたデータベースに対するクエリパフォーマンスを上げるものだ。

 「Azure OpenAI Serviceを超えるデータサービスが当社から提供されることになる」と、Nadella氏はアナリストらに語り、「SynapseとOpenAI APIの組み合わせによって何が可能になるかを想像してほしい」と述べたが、詳しい説明はしなかった。

 同氏はアナリストらに対して、顧客はクラウド支出を引き締めていると語りつつも、Microsoftは、OpenAIやその他のAI機能への投資を続けると述べた。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]