Ich habe angefangen, von fast jeder Mahlzeit, die ich esse, Fotos zu machen, um sie in einen multimodalen KI-Arzt einzuspeisen, der Kontext zu meinem tragbaren Gerät, wie ich mich fühle, Blutuntersuchungen, Medikamente/Nahrungsergänzungsmittel, genomische Varianten, die mit einem Modell zur Begründung interpretiert werden, usw. zu haben. Es ist jetzt ein sehr hacky Prototyp, aber ich bin überrascht, dass noch niemand die endgültige Version davon gebaut hat. Klare Netzwerkeffekte, die im großen Maßstab freigeschaltet werden können, z. B. RCTs.
Schreib mir, wenn du daran arbeitest.
Im Grunde müssen wir die Aktivierungsbarriere für mehrere sensorische Datenströme senken, um personalisierte KI zu erhalten. Was siehst, denkst, tust, isst oder fühlst du über Raum und Zeit hinweg?
172,11K