ITライター上倉賢のAll About

IT系ライターによる日常

PCにおけるAI機能 2024年前半までのあらすじと2024年末までの予告

Google Geminiが作成したAI PC画像

AIを使って何かを行うことは、一般的にGenerative AI(生成AI)を使って何かを行う事を意味する場合が多いです。そもそもこのGenerative AIという言葉が一般化したのは2022年後半くらいです。

Generative AIという言葉が一般化する直前、かなり短時間にAIが進化しました。

2022年4月にOpenAIがDALL-E 2を発表、2022年8月に入ってから、Stable Diffusionがオープンソースで公開され、PC上で画像出力出来るようになり、同様のツールが公開されるなどしました。

2022年11月にはChatGPTが公開され、2023年に入るとGenerative AI(生成AI)という言葉が一般化していきました。

このAI機能をハイエンドPC以外の一般的なPCで使えるようになるのが2024年6月以降になります。

Windows Copilot RuntimeとSLMとは

Windows Copilot Runtimeは2024年5月に発表されました。同年6月から提供されるCopilot+  PCにおけるソフトウェア面で最も重要な要素です。

Windows Copilot RuntimeはSLM(小規模言語モデル)をつかってAI機能を実現する物で、SLMに対してLLM(大規模言語モデル)というものもあります。

大規模とか小規模というのはパラメータ数が多いか少ないかで、例えば50億パラメータ以上くらいだとLLMと言われるようです。これが2018年頃から注目され始めたGPTやBERTです。GPT-4などのより進化したLLMのパラメータ数は数千億や1兆などと言われています。

一般的にAIではこのLLMを使って機能を実現していますが、LLMはメモリなどのリソースが非常に大きいため、従来はデータセンタなどの限られた状況でしか利用出来ませんでした。

50億パラメーターで必要なメモリは8GBです。このメモリというのはメインメモリの必要最小限ではなくて、AIが実際に使うメモリです。
パラメータ数が650億くらいになるとメモリ容量は32GB必要になったりするようです。
例えばNVIDIAGeForce RTXシリーズは最大でも24GBなのでメモリが足りません。

LLMに対してSmallなSLMの例としてはMicrosoftのPhi-3があります。
Phi-3-miniの場合はパラメータが38億とされてますが、パフォーマンスは非常に高いことが特徴となっています。

Windows Copilot RuntimeはこのSLMを使って、PC上でAI機能を実現する仕組みです。

2023年のAI PC事情

2023年のAI PCはNVIDIAGPUなどをつかって画像生成などが出来る事をアピールしていたような段階です。あくまでもゲーミングPCなどの高性能GPUを使ってなんとかAI機能が使えたという状況です。
その後のAI関連で重要になると言われていたNPUを搭載するAMDRyzen 7040シリーズ搭載モデルが登場し、ようやく一般的なPCでAI機能が使えるようになるのかと期待されましたが、状況の変化は特にありませんでした。

そして2023年の年末にNPU搭載のIntelのCore Ultra(Meteor Lake)搭載モデルが登場しました。

AMDIntel共にハードウェアとしては対応されたが、この段階で問題だったのが、AI機能で実現できることが取り立ててたいしたことがなかったことです。

活用事例としてよくあったのが、画像処理関連でしたが、従来の機能でも可能だった物で、目新しさはありません。
画像生成などもできますが、権利上の問題等も含みつつ、文字を入力して何が出てくるのか楽しむようなどちらかというとAIホビイスト向けの物でした。

この状況は2024年に入ってもしばらく続きます。

2024年5月までのAI PC事情

状況が大きく変わったのが2024年5月にMicrosoftがCopilot+ PCを発表したことです。

「Copilot+ PC」という名称が正式に決定したのも直前になってからのようで、それまではMicrosoftでは「次世代AIデバイス」というような仮の名称が使われていたようです。

このCopilot+ PCの動作要件は、Windows 11の動作要件から2段階くらい上がったメモリ16GB、ストレージ256GB以上、40TOPS以上のNPUを搭載したNPUというような要件になっています。

TOPSとは1秒間に何兆回のAI完全演算が出来るかということで40TOPSとは1秒間に40兆回の演算が出来るという意味です。この演算はCPUやGPUからオフロードしてAIの演算をNPUで行うということで、AI関連の演算を行ってもOSやアプリの他に影響しないという特徴もあります。

このCopilot+ PCの動作要件に当てはまるのは、2024年6月発売予定のQualcommのSnapdragon Xシリーズ搭載モデルとなります。

ここでの問題は、これらの製品はWindowsでAI関連機能がより使えるようになりそうだが、CPUがx86ではなく、Windows on Armだということです。エミュレーション機能は用意されていますが、一部のソフトは動作しません。

2024年6月上旬のAI PC事情

そんな状況で、IntelAMDは何もしていないわけではなく、6月上旬に行われたComputexでは、様々な製品発表やデモなどを行っています。

AMDはAI関連Ryzenの名称自体を「Ryzen AI」と変更し、Ryzen 7040(Phoenix)、Ryzen 8040(Hark Point)につづく第3世代のAI向けSoCとして「Ryzen AI 300シリーズ」(Strix Point)を発表しました。
この搭載モデルは2024年7月からリリースされる予定です。

そして、Intelは2024年第三四半期に正式発表し、2024年末に搭載モデルがリリースされるというコードネームLuner Lake関連の情報提供や実働デモを行っています。

AMDRyzen AI 300も、Luner LakeもCopilot+ PCの動作要件であるNPUの性能基準はクリアしており、ハードウェア上の要件は問題ないようですが、Copilot+ PC関連機能は発売即日動作するわけではないようです。

各社のNPUに合わせたWindows Copilot Runtimeなどの開発が間に合っていないからか、7月に提供される、Ryzen AI 300シリーズのCopilot+ PC機能の提供時期は未定となっています。

一方で、GPU内にNPUのような機能のTensor CoresがあるNVIDIAGeForceなどで、このWindows Copilot Runtimeを使えるようになれば、NVIDIA用にカスタマイズしなくてもAI機能が使えるようになります。開発者はもちろん、NVIDIA製品利用者によっては望ましいところですが、これも年末までにベータ版が提供される事が発表されました。

2024年6月からのAI PC

6月からのAI PCで注目されるのが、6月18日発売のSnapdragon Xシリーズ搭載のCopilot+ PCです。

この時点で唯一WindowsにインテグレートされたAI機能を使える製品となります。

その後、7月頃にはRyzen AI 300シリーズ搭載製品も提供されますが、Copilot+ PC関連機能はいつ提供されるのか不明です。
IntelのLuner Lake搭載モデルは2024年末なので、それまでにIntelAMD向けにCopilot+ PCの提供が始まる事を期待したいです。

そして、NVIDIAGPU搭載モデルでもこれらの機能が使えるようになります。

PCでのAI機能は大きく分けて次の2つになるかも知れません。

  • SLMを使ったAI機能 Copilot+ PCなど
  • LLMを使ったAI機能 NVIDIAGPUなどの搭載機器

どちらも使えるようになるかもしれないのが、Ryzen AI 300シリーズとNVIDIAGPUを搭載するゲーミングPCなど。そして、主にデスクトップ用に提供されるArrow Lakeなどと、NVIDIAGPUを搭載するゲーミングPCなど。

SoCとしてAI機能が使えるCore Ultra(Meteor Lake)を搭載するChromebookも提供されていますが、Chromebookは基本的にGoogleクラウド上のAI機能を使うことを主目的としており、AI機能をローカルでどう活用していくかに注目が集まります。

今後の予定

5月までIntel Core、AMD  Ryzen 8040などAI機能搭載の製品が多数発売中

6月 Snapdragon X搭載のCopilot+ PCが登場
7月 AMD Ryzen AI搭載製品が登場
年末 Copilot+ PCの対応が拡大?
年末 Intel コード名Luner Lake搭載製品が登場
年末 Windows Copilot RuntimeがGPUに対応

MicrosoftのSLMとNPU

MicrosoftはSLMであるPhi-1を2023年4月に発表しています。
PCにNPUを搭載する流れがあり、このNPUを活用するには当面パラメータ数が少なくても性能が高いSLMが必要になり、それを使えばWindows上でAI機能が実現できます。

OSでそれを実現するには、使用しているデバイスに一定以上のNPU機能が必要で、NPUの性能目安は事前の開発段階である程度固まってきていたのかも知れません。
早期にその機能を実現できる製品として登場しそうだったのは2023年時点で、QualcommのSnapdragonでした。QualcommMicrosoftは以前から協業していたので、Snapdragon Xシリーズ搭載のNPU性能も事前に両者間で調整済みだった可能性もあります。

そのため2023年のPhi-1から、2024年6月に正式リリース予定のWindows Copilot Runtimeまで、Windows on ArmでNPUとしてQualcommのSnapdragon Xシリーズに開発リソースをすべてつぎ込んでいた可能性もあります。

AMDRyzen AI 300シリーズなどの対応が遅れているのもその辺の影響があるのかも知れません。