Ik ben begonnen met het maken van foto's van bijna elke maaltijd die ik eet om in te voeren in een multimodale AI-arts die context heeft over mijn wearable, hoe ik me voel, bloedonderzoek, medicijnen/supplementen, genomische varianten geïnterpreteerd met een redeneermodel, enz. Het is nu een zeer hacky prototype, maar ik ben verrast dat nog niemand de definitieve versie hiervan heeft gebouwd. Duidelijke netwerkeffecten die op schaal ontgrendeld kunnen worden, bijv. RCT's.
Stuur me een bericht als je dit aan het bouwen bent
In wezen moeten we de activeringsdrempel verlagen voor meerdere sensorische datastromen om meer gepersonaliseerde AI te krijgen. Wat zie je, denk je, doe je, eet je of voel je over ruimte en tijd?
175,12K