Googleが人工知能(AI)関連製品をリリースするペースはそろそろ鈍化するだろうと考えていた人もいるかもしれないが、同社は2月に入って3度目となるAI関連の大きなニュースを今回発表した。それは、開発者向けの新たなAIモデルのリリースだ。
米国時間2月21日、GoogleはDeepMindと、AIの研究開発に取り組むGoogle社内の他のチームによって開発された、軽量オープンモデルのファミリーである「Gemma」をブログ上で紹介した。
Gemmaという名前が、同社の最先端AIモデルである「Gemini」から派生しているように感じた人もいるかもしれない。そう感じるのも無理はない。というのも、このネーミングには意図が込められている。ラテン語で「貴重な石」を意味するGemmaは、Geminiのモデルを開発する際に用いられたものと同じ研究とテクノロジーに基づいて開発されているのだ。
Introducing Gemma: a family of lightweight, state-of-the-art open models for developers and researchers to build with AI.
— Google DeepMind (@GoogleDeepMind) February 21, 2024
We’re also releasing tools to support innovation and collaboration - as well as to guide responsible use.
Get started now. → https://t.co/nsoFqfHffY pic.twitter.com/PRNIndgU4S
同社がリリースしたのは、ウェイトサイズが異なる2つのモデル、すなわち「Gemma 2B」と「Gemma 7B」だ。これらのモデルにはそれぞれ、事前学習を済ませ、命令に対するチューンアップが施された亜種が複数用意されており、ノートPCやワークステーション、「Google Cloud」上で動作できるようになっている。
同社は、Gemmaのモデルがそのサイズに比して極めて高性能だと立証されたとし、推論能力や数学的能力、コーディング能力といった重要なベンチマークにおいて、Metaの「Llama 2」といったより規模の大きなオープンモデルの性能を上回ったとしている。
また同社は今回、新たに開発した「Responsible Generative AI Toolkit」(責任ある生成AIツールキット)もリリースしている。これは、関心あるユーザーに向け、Gemmaのようなオープンモデルの責任ある利用を推奨するためのベストプラクティスのリソースを提供するものだという。
ここで重要なのは、Gemmaが「オープンモデル」であり、「オープンソース」ではないという点だ。このちょっとした言葉の違いは、実際のところ大きな意味を持っている。オープンソースモデルの場合、ユーザーは制約を一切受けない、完全な創造的自主性を有している。
GoogleはGemmaの利用規約で、自由なアクセスや再配布、亜種モデルの作成/公開をうたう一方で、誤用の可能性を低減するための制約も課している。
同社は別のブログに「開発者はGemmaのモデルを使用する上で、このテクノロジーに対する敷居を下げつつ責任あるAIを開発するという当社のコミットメントを反映した、有害な使用の忌避に同意することになる」と記している。
同社は、Gemmaを安全に、そして信頼して利用できるようにするために、個人情報や機密情報を訓練セットから除去するための自動化技術や、モデルの振る舞いを責任あるものに保証するための「人間のフィードバックによる強化学習」(RLHF)、堅牢なモデル評価といった、その他の安全対策も実装している。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
住環境に求められる「安心、安全、快適」
を可視化するための“ものさし”とは?
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」