Ho iniziato a fotografare quasi ogni pasto che mangio per alimentare un dottore AI multimodale che ha contesto sul mio dispositivo indossabile, su come mi sento, sui risultati del sangue, sui farmaci/supplementi, sulle varianti genomiche interpretate con un modello di ragionamento, ecc. È un prototipo molto rudimentale ora, ma sono sorpreso che nessuno abbia ancora costruito la versione definitiva di questo. Chiare effetti di rete da sbloccare su larga scala, ad esempio RCT.
Contattami se stai costruendo questo
Fondamentalmente, dobbiamo abbassare la barriera di attivazione per più flussi di dati sensoriali per ottenere un'IA più personalizzata. Cosa stai vedendo, pensando, facendo, mangiando o sentendo attraverso spazio e tempo?
172,12K