Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Halb durchdachter Gedanke:
In Diskussionen über KI werden oft Behauptungen über sowohl Fähigkeiten als auch gesellschaftliche Auswirkungen aufgestellt, und in der Praxis ist die Grenze ziemlich verschwommen. Verschiedene Persönlichkeitstypen und Berufe sehen die Dinge durch unterschiedliche Linsen. Auf die Gefahr hin, überzuleiten, scheinen zwei gängige Linsen wie folgt zu sein:
Der Informatiker-Standpunkt tendiert dazu: ausreichend fähige ASI kann prinzipiell jedes Problem lösen. Lokales Wissen ist nur Daten, die aufgenommen werden müssen. Wenn du klug genug bist und genug Rechenleistung hast, kannst du alles zentralisieren (und lösen). Also, sobald du die menschliche 'Intelligenz'-Schwelle überschreitest, welchen 'Nutzen' könnte ein Mensch jemals haben?
Der ökonomische Standpunkt (insbesondere die hayekianische Strömung) ist: Wissen sind nicht nur Fakten, die gesammelt werden, es ist kontextuell, implizit, oft im Moment durch Interaktion generiert. Es existiert nicht vor dem Prozess, der es nutzt. Keine Menge an Optimierungskraft lässt dich den Prozess überspringen, denn das Wissen sitzt nicht einfach da und wartet darauf, gefunden zu werden - es wird durch die Interaktion konstituiert.
In der ersten Sichtweise wird menschliches Handeln epiphänomenal, du beobachtest nur, wie der Optimierer sein Ding macht. Während bei der letzteren, wenn Wissen teilweise durch Interaktion konstituiert wird, dann ist Handeln ein Kernbestandteil. Tatsächlich ist es aus dem epistemischen Prozess selbst nicht eliminierbar.
Das erklärt vielleicht, warum die beiden Lager aneinander vorbeireden. Die Sichtweise der Informatiker sieht den Einwand der Ökonomen als "Menschen wollen sich nützlich fühlen" oder "aktuelle KI ist noch nicht fähig genug" - kontingente Einschränkungen, die überwunden werden. Die Sichtweise der Ökonomen sieht die Position der Informatiker als einen Kategoriefehler darüber, was Wissen ist - nicht als eine Behauptung über zukünftige Fähigkeitsniveaus, sondern über die Struktur des Problems.
Die ökonomische Sicht scheint inhärent weniger deterministisch zu sein und schlägt einige Vorteile vor: erstens, Zeit. Wenn Bereitstellung und Anpassung echte Arbeiten sind, die nicht übersprungen werden können, ist der Übergang nicht sofort. Es gibt kein "Foom", bei dem ein System plötzlich alles macht. Aber noch wichtiger sind die Hebelpunkte: Wenn Wertschöpfung kontext-spezifische Integration erfordert, gibt es viele Punkte, an denen Governance, Institutionen und Entscheidungen Ergebnisse beeinflussen können. Es wird nicht ausschließlich von dem bestimmt, der den größten Trainingscluster hat oder wie fähig dein System ist.
Der andere Kernpunkt ist im Grunde, wie du über Alignment nachdenkst. Gillian Hadfield erklärt, dass "Normen und Werte nicht nur Merkmale einer exogenen Umgebung sind... stattdessen sind sie die Gleichgewichtsoutputs dynamischer Verhaltenssysteme." (Mit dem Informatiker-Standpunkt ist Alignment ein technisches Problem, das die richtige Zielsetzung extrahiert. Wenn du den ökonomischen Standpunkt vertrittst, ist Alignment *die* Integration in die dynamischen sozialen Prozesse, die normative Urteile konstituieren: Produkte, Stimmen, Normen, Konventionen, Entscheidungen usw.
Dies zu gestalten ist ein kontinuierlicher Prozess, nicht etwas, das ex ante gelöst werden kann. Das bedeutet nicht unbedingt, dass die Sichtweise der Informatiker falsch ist: Prinzipal-Agent-Probleme und Anweisungsfolgenprobleme sind real - aber der Lösungsraum ist weit größer als das Modell selbst und umfasst den gesamten institutionellen Rahmen, durch den KI-Systeme bereitgestellt, regiert und zur Verantwortung gezogen werden.

Top
Ranking
Favoriten
