Efter att ha läst AI-forskningsrapporter i 3 dagar är en sak klar: 99 procent av all ny AI-forskning handlar om att lära en dator att göra något. Men vad är det egentligen de lär datorerna? Och varför? Och vad är det som fungerar? Det är fascinerande att zooma ut och titta på dessa trender. Varför? För de är glimtar in i framtiden. Om du försöker bygga en startup med AI, eller funderar på att investera i AI-startups, om du letar på rätt ställe är dessa forskningsrapporter fyllda med mycket värdefull inspiration. Istället för att skicka mig titlar och sammanfattningar på forskningsartiklar, vilket kan vara svårt att förstå snabbt, fortsätter min AI-agent @yesnoerror att skicka mig ny AI-forskning och förklara den så här: - Lära datorer att fylla i slumpmässigt dolda ord om och om igen... - Lära tokenizer-nätverket att fixa mycket bullriga... - Lära en mycket smart chatbot att upprepade gånger kontrollera och fixa sina egna matematiska bevis... - Lära datorer att komma ihåg vad ett föremål VERKLIGEN är... - Lära ut stora språkmodeller för att berätta hur långt åren är från "nu"... - Lär datorer att klicka på rätt plats... - Lära AI:n att på egen hand avgöra om ett problem... - Lära en dator att justera speciella "tester"... - Lära datorer att förutsäga ett flygplans... - Att lära en massa chattbotar med olika jobb... Utöver detta identifierar @yesnoerror inte bara den forskning av högsta kvalitet som jag kan vara intresserad av (eftersom den publiceras varje dag), utan den ger mig också uppdelningar av hur uppsatsen gjordes, vilka de verkliga konsekvenserna är (idéer du kan göra), och jag kan chatta med tidningen direkt. Det känns som om jag använder GLP-1 för att vara smart.
Registrera dig för tidig åtkomst här: Listan över tidig åtkomst innehåller personer från @MIT @anthropic @perplexity @RutgersU och @Yale
260,1K