Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Halvhjärtad tanke:
I diskussioner om AI görs ofta påståenden om både förmågor och samhälleliga effekter, och i praktiken är gränsen ganska suddig. Olika personlighetstyper och yrken ser saker genom olika linser. Med risk för att överkarikera verkar två vanliga linser vara följande:
Datavetenskaps-priorn tenderar att vara: tillräckligt kapabel ASI kan i princip lösa vilket problem som helst. Lokal kunskap är bara data som ska tas in. Om du är tillräckligt smart och har tillräckligt med beräkningskraft kan du centralisera (och lösa) allt. Så när du passerar tröskeln för mänsklig 'intelligens', vilken 'nytta' kan en människa någonsin ha?
Den ekonomiska förebilden (särskilt den hayekianska varianten) är: kunskap är inte bara fakta som ska samlas in, den är kontextuell, tyst, ofta genererad i stunden genom interaktion. Den existerar inte före processen som använder den. Ingen mängd optimeringskraft låter dig hoppa över processen, eftersom kunskapen inte bara sitter där och väntar på att bli hittad – den utgörs av interaktionen.
I den förstnämnda synen blir mänsklig handlingskraft epifenomenal, du tittar bara på när optimeraren gör sitt. Medan i det senare, om kunskap delvis konstitueras genom interaktion, är handlingskraft en kärnkomponent. Faktum är att det är ofrånskiljbart från själva epistemiska processen.
Detta kan förklara varför de två lägren pratar förbi varandra. Datavetenskapens synsätt ser ekonomernas invändning som "människor vill känna sig användbara" eller "nuvarande AI är ännu inte tillräckligt kapabla" – betingade begränsningar som kommer att övervinnas. Ekonomernas syn ser datavetenskapspositionen som ett kategorifel om kunskap – inte ett påstående om framtida kapacitetsnivåer utan om problemets struktur.
Ekonomins syn verkar i grunden mindre deterministisk och föreslår vissa fördelar: först, gången. Om utplacering och anpassning är verkligt arbete som inte kan hoppas över, är övergången inte omedelbar. Det finns inget "foom" där ett system plötsligt gör allt. Men viktigare, hävstångspunkter: om värdeskapande kräver kontextspecifik integration finns det många punkter där styrning, institutioner och val kan forma resultat. Det bestäms inte enbart av vem som har störst träningskluster eller hur kapabelt ditt system är.
Den andra knutpunkten är i princip hur du tänker kring alignment. Gillian Hadfield förklarar att "normer och värderingar är inte bara egenskaper i en exogen miljö... istället är de jämviktsutdata från dynamiska beteendesystem." ( Med datavetenskapsförskott är justering ett tekniskt problem för att extrahera rätt målfunktion. Om du håller ekonomen i första prioritet, *är* alignment integrationen i de dynamiska sociala processer som utgör normativt omdöme: produkter, röster, normer, konventioner, val, etc.
Att forma detta är en kontinuerlig process, inte något som löses ex ant. Detta betyder inte nödvändigtvis att datavetenskapssynen är fel: principal agent-problem och instruktionsproblem som följer problem är verkliga – men lösningsutrymmet är mycket större än modellen själv och inkluderar hela den institutionella stack genom vilken AI-system implementeras, styrs och hålls ansvariga.

Topp
Rankning
Favoriter
