He comenzado a tomar fotos de casi cada comida que como para alimentarlas a un médico de IA multimodal que tiene contexto sobre mi dispositivo portátil, cómo me siento, análisis de sangre, medicamentos/suplementos, variantes genómicas interpretadas con un modelo de razonamiento, etc. Es un prototipo muy rudimentario ahora, pero me sorprende que nadie haya construido la versión definitiva de esto aún. Hay claros efectos de red que se pueden desbloquear a gran escala, por ejemplo, ensayos clínicos aleatorizados.
Avísame si estás construyendo esto
Básicamente, necesitamos reducir la barrera de activación para múltiples flujos de datos sensoriales para obtener una IA más personalizada. ¿Qué estás viendo, pensando, haciendo, comiendo o sintiendo a través del espacio y el tiempo?
172,12K