
Groq
日本語部分対応独自設計のLPU(Language Processing Unit)チップで超高速LLM推論を実現するプラットフォーム。LLaMA、Mistral等のモデルを従来比10倍以上の速度で実行でき、リアルタイムAIアプリケーションに最適。
提供: Groq Inc.開発国: アメリカ更新: 2026-04-02
Groqの公式サイトで詳細を確認する
最新の料金プラン・機能はこちらから確認できます
このツールで解決できる課題
主要機能
超高速推論
LPUチップ
OpenAI互換API
ストリーミング
対応状況
日本語対応部分対応
モバイルアプリなし
API提供あり
連携サービス
LangChainLlamaIndexVercel AI SDK