Я почав фотографувати майже кожен прийом їжі, який я їм, щоб нагодувати його мультимодальним лікарем зі штучним інтелектом, який має контекст на моєму носимому пристрої, як я почуваюся, аналіз крові, ліки/добавки, варіанти геному, інтерпретовані за допомогою моделі міркувань тощо Зараз це дуже хакерський прототип, але я здивований, що ніхто ще не створив остаточну версію цього. Чіткі мережеві ефекти для розблокування в масштабі, наприклад RCT
Напишіть мені, якщо ви створюєте це
По суті, нам потрібно знизити бар'єр активації для кількох потоків сенсорних даних, щоб отримати більш персоналізований штучний інтелект. Що ви бачите, думаєте, робите, їсте або відчуваєте в просторі і часі?
175,13K