Я начал фотографировать почти каждую еду, которую ем, чтобы передавать это в мультимодального ИИ-врача, который имеет контекст о моем носимом устройстве, о том, как я себя чувствую, анализах крови, лекарствах/добавках, интерпретированных вариантах генома с моделью рассуждений и т.д. Сейчас это очень сырой прототип, но меня удивляет, что никто еще не создал окончательную версию этого. Ясные сетевые эффекты, которые можно разблокировать в масштабе, например, РКИ.
Напиши мне, если ты это строишь
В основном, нам нужно снизить барьер активации для нескольких сенсорных потоков данных, чтобы получить более персонализированный ИИ. Что вы видите, думаете, делаете, едите или чувствуете в пространстве и времени?
172,11K