Comecei a tirar fotos de quase todas as refeições que como para alimentar um médico de IA multimodal que tem contexto sobre meu wearable, como estou me sentindo, exames de sangue, remédios/suplementos, variantes do genoma interpretadas com um modelo de raciocínio, etc É um protótipo muito hacky agora, mas estou surpreso que ninguém tenha construído a versão definitiva disso ainda. Efeitos de rede claros a serem desbloqueados em escala, por exemplo, RCTs
Envie-me um ping se você estiver construindo isso
Basicamente, precisamos diminuir a barreira de ativação para vários fluxos de dados sensoriais para obter uma IA mais personalizada. O que você está vendo, pensando, fazendo, comendo ou sentindo no espaço e no tempo?
175,85K