Ett av de coolaste företagen i SF enligt mig Jag ska göra en skrivning om varför @sfcompute är en så intressant syn på vart GPU-marknaden är på väg ... Under tiden kan du få GPU:er för 85 % billigare än hyperscalers 👇
evan conrad
evan conrad3 juli 01:57
Vi har samarbetat med Modular för att skapa LSI (Large Scale Inference), en ny OpenAI-kompatibel inferenstjänst. Det är upp till 85% billigare än andra erbjudanden och kan hantera en biljon token-skala. Vi skapade den ursprungligen på begäran av ett stort AI-laboratorium för att skapa storskalig multimodal syntetisk data till tiotals miljoner dollar billigare än alternativen. Till skillnad från andra tjänster använder LSI marknadsprissättning. Tokenpriserna är en funktion av det underliggande beräkningspriset på sfcompute och den aktuella systembelastningen. Med andra ord är det alltid det bästa priset, för alltid. Många har hävdat att slutledning är en kapplöpning mot botten, så vi säljer dig botten. LSI bygger på Modulars MAX & Mammoth inferensramverk, en mycket optimerad omdesign av serveringsstacken, med stöd för flera chips. Mellan Modulars ingenjörskonst i världsklass och SFC:s hänsynslösa prisoptimeringar är vi fast beslutna att skapa den högsta prestandan och de bästa prissatta slutsatserna i världen. För att få en offert, vänligen kontakta oss. Vi kör en skräddarsydd process med varje kund för att optimera för dina specifika krav, och rullar bara ut när pris och prestanda når dina förväntningar. Även om vi stöder de flesta modeller med öppen källkod (DeepSeek, Llama, Qwen, etc.), låter vår skräddarsydda process oss köra anpassade modeller eller nischkrav beroende på dina omständigheter. DMs är öppna eller så kan du kontakta oss via länken nedan.
7,44K