AI-решения могут отпугивать индустрию из-за слишком больших требований к энергетическим мощностям. Международное энергетическое агентство считает, что к 2026 году энергопотребление AI-платформ вырастет до 1000 ТВт/ч, то есть примерно станет равно энергопотреблению всей Японии. В России ситуация может быть менее острой, но всё же и у нас пессимистические прогнозы говорят о “зиме AI”, то есть снижении инвестиций в отрасль из-за того, что ожидания не оправдаются — AI будет требовать слишком много и будет больше разочаровывать, чем очаровывать инвесторов и индустрию.
В этой связи хочется рассказать о том, что дает пищу для, наоборот, оптимистических прогнозов. В University of Minnesota Twin Cities показали систему, которая должна снизить энергопотребление AI-приложений по меньшей мере в 1000 раз (статья). В обычных машинах идет постоянный обмен данными между памятью и вычислениями. Новый подход, который назвали CRAM (computational random-access memory), подразумевает, что данные из памяти никуда не передаются, вычисления проводятся прямо там, in-memory. Исследователи заявляют, что расход энергии удалось уменьшить где-то в 1700, а где-то и в 2500 раз.
Если результат перейдет из экспериментального в реальный, то к 2026 индустрии можно будет меньше переживать о внедрении AI в производство, это здорово.