Ich möchte günstigere LLM-Modelle und Millionen von Token-Kontexten. Bitte, KI-Forscher, lasst uns die Gas/sec skalieren, während ihr die Token/den Kontext skaliert { und macht es günstig! } Bitte .....
301