Una de las empresas más geniales de SF en mi opinión Haré un artículo sobre por qué @sfcompute es una visión tan interesante de hacia dónde se dirige el mercado de las GPU... Mientras tanto, obtenga GPU por un 85% más baratas que los hiperescaladores 👇
evan conrad
evan conrad3 jul, 01:57
Nos hemos asociado con Modular para crear Large Scale Inference (LSI), un nuevo servicio de inferencia compatible con OpenAI. Es hasta un 85% más barato que otras ofertas y puede manejar una escala de billones de tokens. Originalmente lo creamos a petición de un importante laboratorio de IA para realizar la creación de datos sintéticos multimodales a gran escala a decenas de millones de dólares más baratos que las alternativas. A diferencia de otros servicios, LSI utiliza precios de mercado. Los precios de los tokens son una función del precio de cómputo subyacente en sfcompute y la carga actual del sistema. En otras palabras, siempre es el mejor precio, para siempre. Muchos han afirmado que la inferencia es una carrera hacia el fondo, por lo que le vendemos el fondo. LSI se basa en el marco de inferencia MAX & Mammoth de Modular, un rediseño altamente optimizado de la pila de servicio, con soporte para múltiples chips. Entre la ingeniería de clase mundial de Modular y las despiadadas optimizaciones de precios de SFC, estamos comprometidos a crear la inferencia de mayor rendimiento y mejor precio del mundo. Para obtener una cotización, comuníquese con nosotros. Llevamos a cabo un proceso a medida con cada cliente para optimizar sus requisitos específicos, y solo lo implementamos cuando el precio y el rendimiento alcanzan sus expectativas. Si bien admitimos la mayoría de los modelos de código abierto (DeepSeek, Llama, Qwen, etc.), nuestro proceso a medida nos permite ejecutar modelos personalizados o requisitos de nicho según sus circunstancias. Los DM están abiertos o puede comunicarse en el enlace a continuación.
7.42K