- ¿Cómo estimar el coste por solicitud de un LLM?
- La calculadora toma las tarifas por millón de tokens del modelo elegido, aplica tus tokens de entrada, salida y caché para una sola solicitud, y devuelve un coste estimado por request.
- ¿Cómo pasar de una solicitud al coste mensual de LLM?
- Cuando activas el modo repetido, la página toma el coste estimado de una solicitud y lo escala al número de requests que esperas por día o por mes.
- ¿Qué diferencia hay entre tokens de entrada, salida y caché?
- Los tokens de entrada son los del prompt, los de salida son los que devuelve el modelo y los tokens en caché son una parte del prompt facturada con tarifa reducida cuando el proveedor admite caching.
- ¿Por qué esta estimación puede no coincidir con la factura real?
- La factura final puede diferir por tokenizadores distintos, reintentos, tool calls, grounding, tramos de contexto largo, procesamiento regional, cambios de precio del proveedor y diferencias entre datos agregados y lógica final de facturación.
- ¿Qué proveedores y modelos cubre esta calculadora de precios de IA?
- La página se centra en OpenAI, Anthropic y Google, e intenta cubrir un rango más amplio de sus modelos de texto y razonamiento con precio publicado, dejando fuera categorías como imagen, audio, embeddings y otros SKUs menos comparables.