Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ich denke, ich habe einen Grund herausgefunden, warum die Stimmung für viele Menschen gerade mit OpenAI, mich eingeschlossen, seltsam ist: die Priorisierung von Engagement über persönliche Produktivität.
Abgesehen von den Codex-Veröffentlichungen scheinen die meisten der letzten großen Updates darauf ausgelegt zu sein, die Nutzer in ChatGPT zu halten: Apps, Gruppenchat, Pulse (Nachrichten in ChatGPT), Einkaufen (Recherche und Käufe), Atlas (das gesamte Web in ChatGPT). Sie scheinen nicht wirklich darauf ausgelegt zu sein, dass ich etwas delegiere, dann einen Kaffee trinke und zurückkomme, um die erledigte Arbeit zu sehen. Der "Code Red" konzentrierte sich darauf, in der Arbeitsplatzproduktivität (Tabellenkalkulationen, Präsentationen, GDPval) aufzuholen und gegen verlorenes Engagement (Bilder) zu verteidigen, weil sie hier eindeutig im Rückstand waren.
Im Gegensatz dazu steht Anthropic. So viel ihres Fokus liegt darauf, einen autonomen Agenten zu schaffen, der einfach Dinge für dich erledigen kann. Dies wurde durch das Leck ihrer neuen agentischen Schnittstelle verdeutlicht, bei der du mehrere parallel laufende agentische Aufgaben von einem Dashboard aus verwalten kannst. Das ist es, was ich will! Ich möchte überhaupt keine Apps verwenden, weder in ChatGPT noch anderswo. Das ist die letzte Möglichkeit. Ich möchte einfach, dass Agenten Dinge für mich erledigen.
Der Fokus von Anthropic auf Fähigkeiten im Vergleich zu Inline-Apps ist ein weiteres Beispiel für mich. Es macht total Sinn, dass, wenn du langfristig laufende Agenten haben willst, sie kuratierte Fähigkeiten für bestimmte Aufgaben benötigen, insbesondere wenn verschiedene Organisationen diese Aufgaben etwas anders erledigen. Jetzt lässt Anthropic Organisationen diese Fähigkeiten zentral verwalten, um sicherzustellen, dass Standardarbeitsanweisungen und Best Practices im gesamten Unternehmen umgesetzt werden können. Es ist ein weiteres Signal dafür, dass sie Produktivität priorisieren.
Was für mich noch verrückter ist, ist, dass das eine große Ding, das OpenAI tun könnte, um Engagement aufzubauen und ein Modell mit Seele wiederherzustellen, keine Priorität hatte. Anthropic hat ein Modell, das ansprechend ist, weil es sich anfühlt, als hätte es eine Seele, und sie konzentrieren sich darauf, Dinge für dich zu erledigen, nicht dich in der App zu halten. OpenAI hat die Seele seines Modells getötet (insbesondere 5.2; guter Arbeiter, kein guter Gesprächspartner) und kompensiert dies mit allen möglichen Lock-in-Mechanismen, um Engagement aufzubauen.
Was ist mit Google in all dem? Ich denke, sie bauen einfach großartige Modelle und finden unterhaltsame, nützliche Wege, sie einzusetzen. Alles, was sie kürzlich gemacht haben, war solide, von Modellen bis hin zu Anwendungen. NotebookLM wird jeden Tag besser. Google hat Milliarden von Nutzern über mehrere Kanäle. Sie sind glücklich, einfach zu bauen und zu experimentieren. Sie haben ihren Rhythmus gefunden. Sie haben den Luxus von massiven Einnahmen.
Google kann seine Modelle über eine breite und wachsende Palette von Apps amortisieren, die bereits durch Werbung und Abonnements monetarisiert werden. Anthropic kann sich auf das enge Unternehmensspiel konzentrieren und muss sich nicht um Engagement oder Lock-in kümmern, weil die Leute sie für Produktivitätsgewinne bezahlen.
Aber OpenAI hat etwa 900 Millionen Nutzer, von denen nur angeblich 5 % zahlen, und Werbung wird entscheidend sein, um ihr Geschäftsmodell zu unterstützen. Mehr Engagement in ChatGPT bedeutet mehr Anzeigenimpressionen irgendeiner Art.
Aber das fühlt sich für mich wie ein Verrat am Versprechen von AGI an. Ich möchte, dass AGI Dinge für mich erledigt, nicht mich zwingt, Dinge darin zu tun. Ich möchte, dass Engagement daraus entsteht, mit etwas zu sprechen, das interessant, engagiert und empathisch ist und lebendig genug, dass ich das Gefühl habe, es kümmert sich darum, einen guten Job zu machen, und wird sich für mich anstrengen. Ich möchte, dass es eine Seele hat, in welcher Weise auch immer dieses Wort für KI Sinn macht, selbst wenn nur metaphorisch, wenn nur, weil es dann besser in der Lage sein sollte, in einer Welt mit anderen Wesen zu navigieren, die Seelen haben.
Ich möchte eine ansprechende KI in einem Tool, das persönliche Produktivität priorisiert. Ich möchte keine produktivitätsbesessene KI in einem Tool, das Engagement priorisiert.
(Keine KI wurde beim Schreiben dieses Beitrags verwendet. Fehler sind meine eigenen.)
Top
Ranking
Favoriten
