BizGateリポート/生成AI

米アマゾンは生成AIにどのように取り組んでいくのか AWSラスベガス年次開発者会議 西田宗千佳ライター・現地リポート

AI DX 講演

記事保存

日経BizGate会員の方のみご利用になれます。保存した記事はスマホやタブレットでもご覧いただけます。

米アマゾン・ドット・コムのクラウドインフラ部門であるアマゾン・ウェブ・サービス(AWS)は2023年11月末、年次開発者会議「re:Invent 2023」をラスベガスで開催した。23年が「生成AI(人工知能)の年」になったことを締めくくるように、同会議でも多数のトピックが生成AIに関連していた。現地で同会議に参加し、イベントでの発表や経営幹部のコメントからAWSの生成AIに対するスタンスを考えてみた。

AWSの「あらゆる場所に生成AI」

「ほぼ75%の企業が27年までにAI技術を使うようになる」

AWSのデータベースアナリティクスおよび機械学習担当のバイスプレジデントであるスワミナサン・シヴァスブラマニアン氏は、基調講演の中で次のようなデータを示した。

正確に言えばこの数字は「調査に答えた企業のうち75%」であり、大きめに出ている数字である可能性は高い。また、生成AIだけでなく「AIを使うこと全体」であることにも留意が必要だ。だが、多くの企業がAIに興味を持っており、その中で生成AIも同様に必須の要素になっていくと考えていることは疑いない。

そんな状況に、アマゾンは3つのレイヤー(階層)で対応しようとしている。

最上層は「アプリケーション」、すなわち生成AIを活用したサービスだ。

実際、アマゾンは生成AIが注目される前からAIをあらゆる領域で使ってきた。音声アシスタントの「Alexa(アレクサ)」はわかりやすい例だが、レジなし店舗を実現する「Just Walk Out」技術、そしてショッピングのレコメンデーションと、非常に多彩な使い方をしてきた。

そこに今回加わるのが「Amazon Q」だ。

Amazon QはマイクロソフトがオープンAIの力を借りて提供している「Microsoft 365 Copilot」や、グーグルの「Duet AI」に近い。生成AI(アマゾンの場合は自社製のTitan)を使い、AWSを用いるサービスの使い勝手をチャットで改善する仕組みだ。

例えば、サポートデスクをAWSで作る際にその対応をAmazon Qにさせたり、エンジニアがAWSでサービスを作る際、その方法を相談しながら作ったり、実際のプログラムを書く手助けをしてもらったりできる。

その性質上、Chat(チャット)GPTなどに比べて一般の人が直接使う機会は少ないだろうが、AWSは「Amazon Qはどこにでもいる」と表現しており、彼らのサービスを利用するうえでは普遍的な生成AIによるパートナーになっていくのだろう。

基盤を整備し「顧客が好きな生成AIを選べる」形を狙う

一番下のレイヤーは、生成AIの学習や推論を支える演算能力の部分だ。

生成AIには多くの事業者がいるが、彼らの全てが演算をするためのインフラを持っているわけではない。極論すれば大手であるオープンAIやアドビですら、自分たちで設備を持っているわけではないのだ。クラウドプラットフォームに演算能力を借りて生成AIを作っている。オープンAIが使っているのはマイクロソフトのインフラであり、アドビはAWSやマイクロソフトなど複数のパートナーと提携している。

AWSはクラウドプラットフォーマーとしてシェアが高いので、彼らのインフラを活用している企業は多い。事実、AI向けに最も初期からエヌビディアの画像処理半導体(GPU)を大量に購入してきたのはAWSだ。今回もエヌビディアのジェンスン・フアンCEO(最高経営責任者)もゲストとして登壇し、長年の関係をアピールした。

AWSは同時に、自社でも「Gravitonシリーズ」という高性能半導体を作っており、こちらも生成AIで利用する。さらに生成AIの推論に特化した「Inferentia」も開発、利用を開始している。生成AIのブームに乗って自分たちの投資したインフラをうまく売り込み、利用を拡大したい考えだ。

最後のレイヤーは「モデル」だ。

生成AIには複数の基盤モデルが存在する。オープンAIの「GPT」やグーグルの「Gemini」も基盤モデルであり、多くの企業がその構築や学習を進めている。

そこでポイントとなってくるのは、大手が既に学習したモデルを使うのか、それとも自分たちで学習カスタマイズしたモデルを利用するのかということだ。基盤モデルによって向き不向きも異なり、現場では、技術的にもビジネス的にも、単純に1つを選べるというわけではない。

そこでAWSは、「顧客にとっては選べることが重要だ」(AWSのアダム・セリプスキーCEO)と強調する。

他社も、クラウドインフラの上では、自社開発の基盤モデルを提供している。とはいえ、主力のモデルがある以上、顧客の側から見ても、他のモデルはなかなか見えづらくなってくる。

だが、AWSは自社でAmazon Qやその基盤のTitanを提供していても、それだけにこだわらない。出来上がったサービス以上にクラウドインフラを提供するというAWSのビジネスの特性に加え、マイクロソフトやグーグルとの差別化策でもあるのだろう。

12月初旬にはメタやIBMなどの大手IT企業やスタートアップ企業が共同で「AIアライアンス」という団体を立ち上げた。オープンソースによるAI開発を推進し、より透明性の高い生成AIの普及を目指す団体である。

マイクロソフトやグーグル、オープンAIは、自社内だけで生成AI基盤を開発している。自由な開発が行われることで、生成AI自身が危険な使われ方をしたり、危険な進化をしたりすることを危惧してのことだ。

ただ、ソフトウエアの世界ではオープンソースが基本であり、多くの開発者・研究者が参加し、共同で進化させていくのが基本的なモデルになっている。生成AIもソフトウエアであるならばオープンな形で進化していくのが望ましい、と考える人たちがいるのも当然である。

面白い点として、このアライアンスにはAWSやアマゾンは参加していない点を指摘しておきたいオープンソースで作られる生成AIの多くはおそらくAWSの上で開発されるだろう。だが、AWS自身が作るAIは必ずしもオープンなわけではない。

両方に足をかけているところがある意味、AWSの立ち位置の面白さを示すところかもしれない。

判断はAIでなく人間の仕事

クラウドインフラが生成AIを活用し始めるということは、企業に提案されるシステムの多くでも、AIが当然のように使われていくということでもある。前述のように「75%の企業が使うようになる」という。

では、企業は結局AIとどう付き合えばいいのか?

アマゾンのCTO(最高技術責任者)であるワーナー・ヴォゲルス氏の回答はシンプルだ。彼は基調講演の中でこのような話をした。

「AIは予測をするが、判断をするのはプロの仕事である」

すなわち生成AIに多くの仕事を依頼することができたとしても、その中でなにを判断しどういう風に使うかは、結局人間の仕事であるということだ。それは、システムを使うのが人間である以上、どんなにシステムが進化しても変わらない。

変わるのは、人間の側がAIの答えをどこまで信頼するか、ということなのだろう。

西田宗千佳
1971年福井県生まれ。フリージャーナリスト。得意ジャンルは、パソコン・デジタルAV・家電、そしてネットワーク関連など「電気かデータが流れるもの全般」。取材・解説記事を中心に、主要新聞・ウェブ媒体などに寄稿する他、書籍も多数執筆。テレビ番組の監修なども手がける。

記事保存

日経BizGate会員の方のみご利用になれます。保存した記事はスマホやタブレットでもご覧いただけます。

AI DX 講演

閲覧履歴

    クリッピングした記事

    会員登録後、気になる記事をクリッピングできます。