Comencé a tomar fotos de casi todas las comidas que como para alimentar a un médico de IA multimodal que tiene contexto en mi dispositivo portátil, cómo me siento, análisis de sangre, medicamentos / suplementos, variantes del genoma interpretadas con un modelo de razonamiento, etc Es un prototipo muy hacky ahora, pero me sorprende que nadie haya construido la versión definitiva de esto todavía. Efectos de red claros que se desbloquearán a escala, por ejemplo, ECA
Envíame un ping si estás construyendo esto
Básicamente, necesitamos reducir la barrera de activación para múltiples flujos de datos sensoriales para obtener una IA más personalizada. ¿Qué estás viendo, pensando, haciendo, comiendo o sintiendo a través del espacio y el tiempo?
166.27K