Jeg tror jeg har funnet ut én grunn til at stemningen føles feil for mange akkurat nå med OpenAI, meg selv inkludert: å prioritere engasjement fremfor personlig produktivitet. Bortsett fra Codex-utgivelser, virker de nyeste store utgivelsene designet for å holde brukerne i ChatGPT: apper, gruppechat, Pulse (nyheter i ChatGPT), shopping (forskning og kjøp), Atlas (hele nettet i ChatGPT). De føles egentlig ikke laget for å la meg delegere noe, så gå og drikke en kaffe og komme tilbake til ferdig arbeid. «Code Red» fokuserte på å ta igjen produktiviteten på arbeidsplassen (regneark, presentasjoner, GDPval) og forsvare seg mot tapt engasjement (bilder), fordi de tydelig lå bak her. Sammenlign dette med antropisk. Så mye av fokuset deres er å skape en autonom agent som bare kan gjøre ting for deg. Dette ble understreket av lekkasjen av deres nye agentiske grensesnitt, hvor du kan administrere flere parallelle agentiske oppgaver fra et dashbord. Det er det jeg vil ha! Jeg vil ikke bruke apper i det hele tatt, verken i ChatGPT eller ellers. Det er siste utvei. Jeg vil bare at agenter skal gjøre ting for meg. Anthropics fokus på ferdigheter versus inline-apper er et annet eksempel for meg. Det gir fullstendig mening at hvis du skal ha langvarige agenter, må de ha kuraterte ferdigheter for visse oppgaver, spesielt hvis ulike organisasjoner gjør disse oppgavene litt forskjellig. Nå lar Anthropic organisasjoner administrere disse ferdighetene sentralt, og sikrer at standard driftsprosedyrer og beste praksis kan implementeres i hele selskapet. Det er et annet tegn på at de prioriterer produktivitet. Det som er enda mer sprøtt for meg, er at det ene store OpenAI kunne gjort for å bygge engasjement, nemlig å gjenopprette en modell med sjel, ikke har vært en prioritet. Så, Anthropic har en modell som er engasjerende fordi den føles som den har en sjel, og de fokuserer på å få ting gjort for deg, ikke å holde deg i appen. OpenAI drepte modellens sjel (spesielt 5.2; god arbeider, ikke en god samtalepartner), og kompenserer med alle slags låsemekanismer for å bygge engasjement. Hva med Google i alt dette? Jeg tror de bare bygger gode modeller og finner morsomme, nyttige måter å distribuere dem på. Alt fra dem har nylig vært solid, fra modeller til applikasjoner. NotebookLM blir bedre for hver dag. Google har milliarder av brukere på tvers av flere kanaler. De er fornøyde med å bare bygge og eksperimentere. De har funnet sin form. De har luksusen av enorme inntekter. Slik kan Google amortisere modellene sine på et bredt og voksende utvalg av apper som allerede tjener penger på annonser og abonnementer. Anthropic kan fokusere på snevre virksomheter og trenger ikke bry seg om engasjement eller låsing fordi folk betaler dem for produktivitetsgevinster. Men OpenAI har rundt 900 millioner brukere, hvorav angivelig bare 5 % betaler, og annonser kommer til å være avgjørende for å støtte forretningsmodellen deres. Mer engasjement i ChatGPT betyr flere annonsevisninger av et eller annet slag. Men dette føles for meg som et svik mot AGIs løfte. Jeg vil at AGI skal gjøre ting for meg, ikke tvinge meg til å gjøre ting i den. Jeg ønsker at engasjement skal komme fra å snakke med noe som er interessant, engasjert, empatisk og levende nok til at jeg føler det bryr seg om å gjøre en god jobb, og vil prøve hardt for meg. Jeg vil at den skal ha en sjel, på den måten ordet gir mening for AI, selv bare metaforisk, om ikke annet fordi den da burde være bedre i stand til å navigere i en verden med andre vesener som har sjeler. Jeg ønsker en engasjerende AI i et verktøy som prioriterer personlig produktivitet. Jeg vil ikke ha en produktivitetsfiksert AI i et verktøy som prioriterer engasjement. (Ingen AI ble brukt i skrivingen av dette innlegget. Feilene er mine egne.)