Comecei a tirar fotos de quase todas as refeições que como para alimentar um médico de IA multimodal que tem contexto sobre o meu dispositivo vestível, como me sinto, exames de sangue, medicamentos/suplementos, variantes genéticas interpretadas com um modelo de raciocínio, etc. É um protótipo muito rudimentar agora, mas estou surpreso que ninguém tenha construído a versão definitiva disto ainda. Efeitos de rede claros a serem desbloqueados em escala, por exemplo, ECRs.
Contacta-me se estiveres a construir isto
Basicamente, precisamos reduzir a barreira de ativação para múltiplos fluxos de dados sensoriais para obter uma IA mais personalizada. O que você está vendo, pensando, fazendo, comendo ou sentindo ao longo do espaço e do tempo?
175,7K