Bare metal servers for Classic 主な用途:VDI, Graphics Rendering ベアメタルのGPUでは V100/P100が機械学習や深層学 習に、T4がグラフィックのワー クロードに適している L4 • VSI for VPC • IKS / ROKS for VPC 主な用途:video, AI, visual computing, graphics, virtualization グラフィック処理やトランスコーディング向けのGPU。AI推論にも利用で き、ほぼすべてのワークロードに対応するユニバーサルGPUとして機能す るローエンドモデル。 大規模なAI推論ではH100の需要が高まる一方で、L4は速度や性能は限定的 だが、汎用サーバーや小型サーバーにも追加可能。消費電力と設置スペー スの削減も利点。 エンタープライズ向けでは、主に既存のLLMの微調整や推論に用いられる。 発売時期:2023年3月/GPUメモリ:24GB 〈注意〉AI推論等では小規模な 利用に向く。一定の規模を超え る利用ではL40Sを推奨。 L40S • VSI for VPC 主な用途:生成 AI や LLM の推論とトレーニング、 3D グラフィックス、レ ンダリング、ビデオ ビジュアライゼーション向けGPUであるL40をベースに、AI向けの調整を 施したもの。メモリ容量、帯域幅などが必要な場合には向かない(参考)。 スペック上はA100よりもメモリが大幅に少ないように見えるが、データサ イズを大幅に縮小するFP8を使用することで、少ないメモリで動作する。 エンタープライズ向けでは、主に既存のLLMの微調整や推論に用いられる。 〈注意〉一定の規模を超える利 用ではL4ではなくL40Sを推奨。 ※このページの内容は予定であり、今後変更となる可能性があります AI推論向けGPU