Jeg har begynt å ta bilder av nesten hvert måltid jeg spiser for å mate inn i en multimodal AI-lege som har kontekst på min wearable, hvordan jeg har det, blodprøver, medisiner/kosttilskudd, genomvarianter tolket med en resonnementsmodell, etc Det er en veldig hacky prototype nå, men jeg er overrasket over at ingen har bygget den definitive versjonen av denne ennå. Fjern nettverkseffekter som skal låses opp i stor skala, f.eks.
Ping meg hvis du bygger dette
I utgangspunktet må vi senke aktiveringsbarrieren for flere sensoriske datastrømmer for å få mer personlig AI. Hva ser, tenker, gjør, spiser eller føler du på tvers av rom og tid?
166,26K