Jag tror att jag har listat ut en anledning till att stämningen känns fel för många just nu med OpenAI, inklusive mig själv: att prioritera engagemang framför personlig produktivitet. Förutom Codex-släpp verkar de senaste stora vara utformade för att hålla användare kvar i ChatGPT: appar, gruppchatt, Pulse (nyheter i ChatGPT), shopping (forskning och köp), Atlas (hela webben i ChatGPT). De känns inte riktigt designade för att låta mig delegera något, sedan gå och dricka en kaffe och sedan komma tillbaka till färdigt arbete. "Code Red" fokuserade på att komma ikapp i produktiviteten på arbetsplatsen (kalkylblad, presentationer, GDPval) och att försvara sig mot förlorat engagemang (bilder), eftersom de tydligt låg efter här. Jämför detta med antropisk. Så mycket av deras fokus ligger på att skapa en autonom agent som bara kan göra saker åt dig. Detta underströks av läckan i deras nya agentiska gränssnitt där du kan hantera flera parallellt körande agentiska uppgifter från en dashboard. Det är precis vad jag vill ha! Jag vill inte använda appar alls, varken i ChatGPT eller på annat sätt. Det är en sista utväg. Jag vill bara att agenter ska göra saker åt mig. Anthropics fokus på färdigheter jämfört med inline-appar är ett annat exempel för mig. Det är helt logiskt att om du ska ha långvariga agenter behöver de ha utvalda färdigheter för vissa uppgifter, särskilt om olika organisationer gör dessa uppgifter lite olika. Nu låter Anthropic organisationer administrera dessa färdigheter centralt, vilket säkerställer att standardiserade operativa rutiner och bästa praxis kan implementeras i hela företaget. Det är ytterligare en signal på att de prioriterar produktivitet. Det som är ännu galnare för mig är att den stora grejen OpenAI kunde göra för att bygga engagemang, att återställa en modell med själ, inte har varit en prioritet. Så, Anthropic har en modell som är engagerande eftersom den känns som att den har en själ, och de fokuserar på att få saker gjorda åt dig, inte att hålla dig kvar i appen. OpenAI dödade sin modells själ (särskilt 5.2; bra arbetare, inte en bra samtalspartner) och kompenserar med alla möjliga låsningsmekanismer för att bygga engagemang. Hur är det med Google i allt detta? Jag tror att de bara bygger bra modeller och hittar roliga, användbara sätt att distribuera dem. Allt från dem har nyligen varit stabilt, från modeller till tillämpningar. NotebookLM blir bättre för varje dag. Google har miljarder användare över flera kanaler. De är nöjda med att bara bygga och experimentera. De har hittat sin rytm. De har lyxen av enorma intäkter. Så Google kan amortera sina modeller över ett brett och växande utbud av appar som redan tjänas på genom annonser och prenumerationer. Antropiska kan fokusera på det snäva företagsläget och behöver inte bry sig om engagemang eller låsning eftersom folk betalar dem för produktivitetsvinster. Men OpenAI har ungefär 900 miljoner användare, varav enligt uppgift bara 5 % betalar, och annonser kommer att vara avgörande för att stödja deras affärsmodell. Mer engagemang i ChatGPT innebär fler annonsvisningar av något slag. Men detta känns för mig som ett svek mot AGI:s löfte. Jag vill att AGI ska göra saker åt mig, inte tvinga mig att göra saker i den. Jag vill att engagemang ska komma från att prata med något som är intressant, engagerat, empatiskt och tillräckligt levande för att jag ska känna att det bryr sig om att göra ett bra jobb och kommer att försöka hårt för min skull. Jag vill att den ska ha en själ, på det sätt som ordet är meningsfullt för AI, även bara metaforiskt, om inte annat för att den då borde kunna navigera bättre i en värld med andra varelser som har själar. Jag vill ha en engagerande AI i ett verktyg som prioriterar personlig produktivitet. Jag vill inte ha en produktivitetsfixerad AI i ett verktyg som prioriterar engagemang. (Ingen AI användes i skrivandet av detta inlägg. Felen är mina egna.)