Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Spencer Farrar
Partner @theoryvc | föregående optioner, HF och @ucberkeley
Skulle starkt rekommendera att ansöka om att arbeta med @jmj & @seidtweets! De är otroliga människor och investerare!

Jeff Morris Jr.29 juli 2025
🚨 Dream job alert: We’re hiring an Investment Partner at Chapter One in San Francisco & there’s never been a better moment.
SF is ground zero for AI, and we’re in it with a fresh fund ready to deploy.
This is the role I wish existed when I was coming up: real ownership, leading deals, and working with a tight, product-obsessed team.
If you’ve been waiting to take a bigger swing, this is your shot.

4,11K
Grattis till Lance-teamet! Glada över att arbeta med er!

LanceDB24 juni 2025
Idag presenterar vi vår serie A på 30 miljoner dollar.
Denna omgång leds av @Theoryvc med stöd från @CRV, @ycombinator, @databricks, @runwayml, @ZeroPrimeVC, @swift_vc med flera. Din tro på en framtid som drivs av multimodal data tar oss ett steg närmare den verkligheten.

4,62K
Spencer Farrar delade inlägget
TL; DR: Vi byggde en transformatorbaserad betalningsgrundmodell. Det fungerar.
I åratal har Stripe använt maskininlärningsmodeller som tränats på diskreta funktioner (BIN, zip, betalningsmetod osv.) För att förbättra våra produkter för användarna. Och dessa funktions-för-funktions-ansträngningar har fungerat bra: +15 % konvertering, -30 % bedrägeri.
Men dessa modeller har begränsningar. Vi måste välja (och därför begränsa) de funktioner som övervägs av modellen. Och varje modell kräver uppgiftsspecifik utbildning: för auktorisering, för bedrägeri, för tvister och så vidare.
Med tanke på inlärningskraften hos generaliserade transformatorarkitekturer undrade vi om ett LLM-liknande tillvägagångssätt skulle kunna fungera här. Det var inte självklart att det skulle göra det – betalningar är som språk på vissa sätt (strukturella mönster som liknar syntax och semantik, tidsmässigt sekventiellt) och extremt olikt språk på andra (färre distinkta "tokens", kontextuell gleshet, färre organiseringsprinciper som liknar grammatiska regler).
Därför byggde vi en betalningsgrundmodell – ett självövervakat nätverk som lär sig täta, allmänna vektorer för varje transaktion, ungefär som en språkmodell bäddar in ord. Den är tränad på tiotals miljarder transaktioner och destillerar varje laddnings nyckelsignaler till en enda, mångsidig inbäddning.
Du kan tänka på resultatet som en stor distribution av betalningar i ett högdimensionellt vektorutrymme. Platsen för varje inbäddning samlar in omfattande data, inklusive hur olika element relaterar till varandra. Betalningar som har likheter klumpas naturligt ihop: transaktioner från samma kortutgivare är placerade närmare varandra, de från samma bank ännu närmare varandra och de som delar samma e-postadress är nästan identiska.
Dessa omfattande inbäddningar gör det betydligt lättare att upptäcka nyanserade, kontradiktoriska transaktionsmönster; och att bygga mer exakta klassificerare baserat på både egenskaperna hos en enskild betalning och dess relation till andra betalningar i sekvensen.
Ta till exempel korttestning. Under de senaste åren har traditionella ML-metoder (konstruera nya funktioner, märka nya attackmönster, snabbt träna om våra modeller) minskat korttestningen för användare på Stripe med 80 %. Men de mest sofistikerade korttestarna gömmer nya attackmönster i volymerna hos de största företagen, så de är svåra att upptäcka med dessa metoder.
Vi skapade en klassificerare som matar in sekvenser av inbäddningar från grundmodellen och förutsäger om trafiksegmentet är under en attack. Den utnyttjar transformatorarkitektur för att upptäcka subtila mönster över transaktionssekvenser. Och den gör allt detta i realtid så att vi kan blockera attacker innan de träffar företag.
Detta tillvägagångssätt förbättrade vår upptäcktsgrad för korttestattacker på stora användare från 59 % till 97 % över en natt.
Detta har en omedelbar effekt för våra stora användare. Men den verkliga kraften i grundmodellen är att samma inbäddningar kan tillämpas på andra uppgifter, som tvister eller auktoriseringar.
Kanske ännu mer grundläggande är att det antyder att betalningar har semantisk betydelse. Precis som ord i en mening har transaktioner komplexa sekventiella beroenden och latenta funktionsinteraktioner som helt enkelt inte kan fångas upp av manuell funktionsteknik.
Det visade sig att uppmärksamhet var allt som behövdes!
1,22M
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda