Som diskutert på @BG2Pod, bør du forvente å se vestlige selskaper omfavne det "åpne" AI-økosystemet. De vil få de samme fordelene av dette som de kinesiske spillerne gjør. Vil være superforstyrrende. Følg med på denne plassen. Følg @drishanarora og @DeepCogito.
Drishan Arora
Drishan Arora1. aug., 01:02
I dag lanserer vi 4 hybride resonneringsmodeller i størrelsene 70B, 109B MoE, 405B, 671B MoE under åpen lisens. Dette er noen av de sterkeste LLM-ene i verden, og fungerer som et bevis på konseptet for et nytt AI-paradigme - iterativ selvforbedring (AI-systemer som forbedrer seg selv). Den største 671B MoE-modellen er blant de sterkeste åpne modellene i verden. Den matcher/overgår ytelsen til de nyeste DeepSeek v3- og DeepSeek R1-modellene begge, og nærmer seg lukkede frontmodeller som o3 og Claude 4 Opus.
66,3K