用於 LLM 推斷的分散式 GPU 集群
@Inference
*クリックできない場合は、詳細情報がないことを意味します。
Inference 是一個基於 Solana、用於 LLM 推斷的分散式 GPU 集群,為DeepSeek V3和Llama 3.3等模型提供快速、可擴展、按代幣付費的 API 。
創辦人兼CEO
共同創辦人兼CTO