J'ai commencé à prendre des photos de presque chaque repas que je mange pour alimenter un médecin IA multimodal qui a des informations sur mon appareil portable, comment je me sens, mes analyses de sang, mes médicaments/suppléments, les variantes génomiques interprétées avec un modèle de raisonnement, etc. C'est un prototype très rudimentaire pour l'instant, mais je suis surpris que personne n'ait encore construit la version définitive de cela. Des effets de réseau clairs à débloquer à grande échelle, par exemple des ECR.
Contacte-moi si tu construis ça
Fondamentalement, nous devons abaisser la barrière d'activation pour plusieurs flux de données sensorielles afin d'obtenir une IA plus personnalisée. Que voyez-vous, pensez-vous, faites-vous, mangez-vous ou ressentez-vous à travers l'espace et le temps ?
172,11K