このたびLLM・マルチモーダルAIに最適なNVIDIA H200を搭載した「AIスパコンクラウド」のサービスを開始しました。
AIスパコンクラウドは、NVIDIA H200を搭載したGPUインスタンスが業界最安級で使えるクラウドサービスです。HGX H200インスタンスは、H100の1.7倍のGPUメモリ「1128GB」を搭載しており、大規模なLLMモデルの処理が可能です。
詳細はこちよりご覧ください。
お知らせ
NVIDIA H200搭載「AIスパコンクラウド」の提供を開始しました
プレスリリース 2024.12.02このたびLLM・マルチモーダルAIに最適なNVIDIA H200を搭載した「AIスパコンクラウド」のサービスを開始しました。
AIスパコンクラウドは、NVIDIA H200を搭載したGPUインスタンスが業界最安級で使えるクラウドサービスです。HGX H200インスタンスは、H100の1.7倍のGPUメモリ「1128GB」を搭載しており、大規模なLLMモデルの処理が可能です。
詳細はこちよりご覧ください。