Jag har börjat ta bilder av nästan varje måltid jag äter för att mata in i en multimodal AI-läkare som har kontext på min wearable, hur jag mår, blodprover, mediciner/kosttillskott, genomvarianter tolkade med en resonemangsmodell, etc Det är en väldigt hackig prototyp nu men jag är förvånad över att ingen har byggt den definitiva versionen av detta ännu. Tydliga nätverkseffekter som ska låsas upp i stor skala, t.ex. RCT:er
Pinga mig om du bygger det här
I grund och botten måste vi sänka aktiveringsbarriären för flera sensoriska dataströmmar för att få mer personlig AI. Vad ser, tänker, gör, äter eller känner du i tid och rum?
175,13K