Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AI at Meta
Sammen med AI-fellesskapet flytter vi grensene for hva som er mulig gjennom åpen vitenskap for å skape en mer tilkoblet verden.
Denne uken delte vi et AI-verktøy med åpen kildekode som vil bidra til å akselerere oppdagelsen av høyytelses, lavkarbonbetong. Se hele historien i tråden nedenfor.
Du kan også finne forskningsartefakter for dette prosjektet her:
1️⃣ Teknisk rapport med detaljer om modellen og optimaliseringsalgoritmen:
2️⃣ Åpen kildekode SustainableConcrete-depot med tilhørende data og kode

Engineering at Meta16. juli, 23:58
Vi er stolte av å dele at vi har utviklet et AI-verktøy med åpen kildekode for å designe betongblandinger som er sterkere, mer bærekraftige og raskere å distribuere. Verktøyet bruker Bayesiansk optimalisering med Metas BoTorch- og Ax-rammeverk, og ble bygget i samarbeid med @Amrize og @UofIllinois.
Les hele historien:

30,55K
🚀Nytt fra Meta FAIR: I dag introduserer vi sømløs interaksjon, et forskningsprosjekt dedikert til modellering av mellommenneskelig dynamikk.
Prosjektet har en familie av audiovisuelle atferdsmodeller, utviklet i samarbeid med Metas Codec Avatars lab + Core AI lab, som gjengir tale mellom to individer til mangfoldige, uttrykksfulle helkroppsbevegelser og aktiv lytteatferd, som gjør det mulig å lage fullt kroppslige avatarer i 2D og 3D.
Disse modellene har potensial til å skape mer naturlige, interaktive virtuelle agenter som kan engasjere seg i menneskelignende sosiale interaksjoner på tvers av en rekke miljøer.
Få mer informasjon:
32,82K
🚀Nytt fra Meta FAIR: I dag introduserer vi sømløs interaksjon, et forskningsprosjekt dedikert til modellering av mellommenneskelig dynamikk.
Prosjektet har en familie av audiovisuelle atferdsmodeller, utviklet i samarbeid med Metas Codec Avatars lab + Core AI lab, som gjengir tale mellom to individer til mangfoldige, uttrykksfulle helkroppsbevegelser og aktiv lytteatferd, som gjør det mulig å lage fullt kroppslige avatarer i 2D og 3D.
Disse modellene har potensial til å skape mer naturlige, interaktive virtuelle agenter som kan engasjere seg i menneskelignende sosiale interaksjoner på tvers av en rekke miljøer.
Få mer informasjon:
79
🚀Nytt fra Meta FAIR: I dag introduserer vi sømløs interaksjon, et forskningsprosjekt dedikert til modellering av mellommenneskelig dynamikk.
Prosjektet har en familie av audiovisuelle atferdsmodeller, utviklet i samarbeid med Metas Codec Avatars lab + Core AI lab, som gjengir tale mellom to individer til mangfoldige, uttrykksfulle helkroppsbevegelser og aktiv lytteatferd, som gjør det mulig å lage fullt kroppslige avatarer i 2D og 3D.
Disse modellene har potensial til å skape mer naturlige, interaktive virtuelle agenter som kan engasjere seg i menneskelignende sosiale interaksjoner på tvers av en rekke miljøer.
Få mer informasjon:
80
AI at Meta lagt ut på nytt
Lei av manuell justering? Se den siste Lama-veiledningen om hvordan du optimaliserer dine eksisterende GPT- eller andre LLM-forespørsler for Llama med 'llama-prompt-ops', Python-biblioteket med åpen kildekode!
I denne videoen demonstrerer partneringeniør Justin Lee installasjon, prosjektoppsett, migrering av din første forespørsel og analyse av ytelsesgevinster.
Se nå for å oppdage:
✨ Hvorfor systematisk rask optimalisering er avgjørende for å migrere fra GPT til Lama.
💻 En gjennomgang av «lama-prompt-ops» i sanntid for en klassifiseringsoppgave for kundeservice.
Se hele opplæringen her:
30,67K
AI at Meta lagt ut på nytt
Ta AI-utviklingsferdighetene dine til neste nivå med vårt nyeste kurs om «Building with Llama 4», undervist av @AndrewYNg og Amit Sangani, Director of Partner Engineering for Metas AI-team.
I dette omfattende kurset lærer du hvordan du utnytter kraften til Llama 4, som muliggjør distribusjon enklere enn før og oppnår mer avansert multimodal forståelse ved å spørre over flere bilder.
Du vil finne ut hvordan du kan:
- Bygg applikasjoner som resonnerer over visuelt innhold, oppdager objekter og svarer på spørsmål om bildejording med presisjon
- Forstå Llama 4-ledetekstformatet, spesielt de nye bilderelaterte tokenene
- Bruk lang kontekst for å behandle hele bøker og forskningsartikler uten å måtte dele opp dataene
- Optimaliser spørsmålene dine med optimaliseringsverktøyet for Lama-spørsmål
- Lag treningsdata av høy kvalitet med Llama Synthetic Data Kit
Med praktisk erfaring med å bruke Llama 4 gjennom Metas offisielle API og andre slutningsleverandører, vil du kunne bygge kraftigere applikasjoner.
Begynn å lære nå og lås opp det fulle potensialet til Llama 4!
22,87K
Responsen på vårt første Llama Startup Program noensinne var forbløffende, og etter å ha gjennomgått over 1,000 søknader er vi begeistret over å kunngjøre vår første gruppe.
Denne eklektiske gruppen av oppstartsbedrifter i tidlig fase er klare til å flytte grensene for hva som er mulig med Llama og drive innovasjon i GenAI-markedet. Vi vil tilby dem støtte med tilgang til Llamas tekniske team og skykredittrefusjoner for å kompensere for kostnadene ved å bygge med Llama.
Lær mer om Llama Startup Program:

20,26K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til