Together AI
Why Choose Together AI?
トレーニングからファインチューニング、推論までを簡単に扱える強力なオールインワンAI加速プラットフォームを求めるならこれを選ぶべきです。スケーラブルなGPUクラスターと多数の生成AIモデルのサポートが必要な方に最適で、OpenAI互換APIも備えています。サーバーレス推論と専用エンドポイントによりカスタムハードウェアの展開も容易です。
高速推論、ファインチューニング、トレーニングのためのAI加速クラウド。
Together AI 紹介
とは何か Together AI?
Together AIは、生成AIのライフサイクル全体をカバーするエンドツーエンドのAI加速クラウドプラットフォームです。使いやすいAPIと高いスケーラビリティのインフラを用いて、生成AIモデルの高速推論、ファインチューニング、トレーニングを提供します。ユーザーはオープンソースモデルを実行・ファインチューニングし、AI加速クラウドとスケーラブルなGPUクラスター上で大規模にトレーニング・展開し、性能とコストを最適化できます。チャット、画像、コードなど多様なモダリティの200以上の生成AIモデルをサポートし、OpenAI互換APIを備えています。
使い方 Together AI?
ユーザーはサーバーレス推論用の使いやすいAPIを通じてTogether AIとやり取りしたり、専用エンドポイントを使ってカスタムハードウェアにモデルを展開できます。ファインチューニングは簡単なコマンドやAPI経由でハイパーパラメータを制御して利用可能です。大規模トレーニング用にGPUクラスターをリクエストできます。ウェブUI、API、CLIでエンドポイントの開始・停止やサービス管理が可能です。AI開発タスクの構築・実行用にコード実行環境も提供しています。
選ぶ理由 Together AI?
トレーニングからファインチューニング、推論までを簡単に扱える強力なオールインワンAI加速プラットフォームを求めるならこれを選ぶべきです。スケーラブルなGPUクラスターと多数の生成AIモデルのサポートが必要な方に最適で、OpenAI互換APIも備えています。サーバーレス推論と専用エンドポイントによりカスタムハードウェアの展開も容易です。
Together AI 特徴
AI API
- ✓オープンソースモデル用サーバーレス推論API
- ✓カスタムハードウェア展開用専用エンドポイント
- ✓ファインチューニング(LoRAおよびフルファインチューニング)
- ✓オープンソースAI用Together Chatアプリ
- ✓AI開発環境用コードサンドボックス
- ✓LLM生成コード実行用コードインタープリター
- ✓NVIDIA GPU(GB200、B200、H200、H100、A100)搭載GPUクラスター(即時および予約)
- ✓200以上の生成AIモデルを含む豊富なモデルライブラリ
- ✓OpenAI互換API
- ✓高速化ソフトウェアスタック(例:FlashAttention-3、カスタムCUDAカーネル)
- ✓高速インターコネクト(InfiniBand、NVLink)
- ✓強力な管理ツール(Slurm、Kubernetes)
よくある質問?
価格
サーバーレス推論
価格は1百万トークンあたり(チャット、多モーダル、言語、コードは入出力、埋め込みは入力のみ、画像モデルは画像サイズ/ステップ)。バッチ推論は初回50%割引。モデルサイズとタイプにより$0.06~$7.00/1Mトークン。
専用エンドポイント
カスタマイズ可能なGPUエンドポイントにモデルを展開し、分単位で課金。RTX-6000、L40、A100、H100、H200などのNVIDIA GPUをサポート。価格はRTX-6000/L40が$0.025/分($1.49/時間)、H200が$0.083/分($4.99/時間)。
ファインチューニング
価格はモデルサイズ、データセットサイズ、エポック数に基づく。教師ありファインチューニング(LoRA)は$0.48~$2.90/1Mトークン。フルファインチューニングは$0.54~$3.20/1Mトークン。DPO(LoRA)は$1.20~$7.25/1Mトークン。DPO(フルFT)は$1.35~$8.00/1Mトークン。
Together GPUクラスター
NVIDIA BlackwellとHopper GPU(H200、H100、A100)を備えた最先端クラスターで最適なAIトレーニングと推論を実現。H200は$2.09/時間から、H100は$1.75/時間から、A100は$1.30/時間から。GB200とB200の価格はお問い合わせください。