DeepInfra si unisce ai Fornitori di Inferenza di Hugging Face
DeepInfra, una piattaforma per inferenza AI serverless, è diventata un Fornitore di Inferenza riconosciuto sull'Hugging Face Hub. Offre prezzi convenienti per token e vanta una libreria di oltre 100 modelli, tra cui LLM, text-to-image, text-to-video e embeddings. Attualmente, DeepInfra supporta applicazioni conversazionali e di generazione testuale su Hugging Face, fornendo accesso a modelli come DeepSeek V4, Kimi-K2.6 e GLM-5.1. Gli utenti possono utilizzare chiavi API personalizzate o indirizzare le richieste tramite Hugging Face, con gli utenti PRO che beneficiano di $2 in crediti di inferenza mensili. Questa integrazione è accessibile tramite gli SDK di Hugging Face per Python e JavaScript, insieme a diversi agent harness.
Fatti principali
- DeepInfra è ora un Fornitore di Inferenza supportato sull'Hugging Face Hub.
- DeepInfra offre inferenza AI serverless con prezzi convenienti per token.
- Il catalogo include oltre 100 modelli: LLM, text-to-image, text-to-video, embeddings.
- Supporto iniziale per attività conversazionali e di generazione testuale su Hugging Face.
- I modelli disponibili includono DeepSeek V4, Kimi-K2.6, GLM-5.1.
- Gli utenti possono impostare chiavi API personalizzate o instradare le richieste tramite Hugging Face.
- Gli utenti PRO ricevono $2 in crediti di inferenza mensili.
- L'integrazione funziona con gli SDK di Hugging Face (Python e JavaScript) e agent harness.
Entità
Istituzioni
- DeepInfra
- Hugging Face
- Hugging Face Hub
- Hugging Face SDKs
- Python
- JavaScript
- Pi
- OpenCode
- Hermes Agents
- OpenClaw