Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Сегодня я весело общался с @Shaughnessy119 о требованиях к энергии и ограничениях ИИ, а также о потенциальных последствиях для сроков достижения AGI/ASI.
На этой неделе я был поражен, когда встретился с другом, который строит крупные дата-центры, и он сказал, что поставка энергии для новых построек запланирована на 2028-2030 годы — это безумно долго в мире ИИ.
Так что это действительно заставляет задуматься, как, черт возьми, мы можем продолжать темпы инноваций в ИИ или хотя бы не отставать от Китая, учитывая энергетические ограничения?
Томми провел хорошее исследование, и цифры просто потрясающие:
GPT-3 использовал примерно 1,3 ГВтч энергии для обучения.
GPT-4 использовал примерно 50-60 ГВтч для обучения.
Для обучения модели AGI может потребоваться более 600,000 ГВтч!
Чтобы это проиллюстрировать, это примерно 22% от общего годового производства электроэнергии в США.
Конечно, это всего лишь оценки и не учитывают никаких крупных инноваций в производстве энергии, но это дает нам огромное понимание реальности: 1) что может потребоваться, и 2) последствия для сроков достижения AGI, учитывая, что вы не можете просто обеспечить 600,000 ГВтч новой энергии в ближайшее время.
Это кажется очень недооцененным и недостаточно обсуждаемым аспектом гонки ИИ.
Я собираюсь продолжить углубляться в эту тему, вероятно, это стоит более подробного отчета.
Кстати, если вы хотите увидеть детали того, что ChatGPT сказал по этой теме, вот они:
Кроме того, это даже не учитывает экспоненциальный спрос на вывод
Эти рабочие нагрузки могут быть распределены по меньшим дата-центрам, где требования к энергии ниже, но это все равно оттягивает ресурсы из сети
Сложив все это, мы видим, что впереди нас ждет огромная узкая горловина
11,05K
Топ
Рейтинг
Избранное