CRAM вычисления должны снизить энергопотребление AI-систем в 1000 раз и больше

AI-решения могут отпугивать индустрию из-за слишком больших требований к энергетическим мощностям. Международное энергетическое агентство считает, что к 2026 году энергопотребление AI-платформ вырастет до 1000 ТВт/ч, то есть примерно станет равно энергопотреблению всей Японии. В России ситуация может быть менее острой, но всё же и у нас пессимистические прогнозы говорят о “зиме AI”, то есть снижении инвестиций в отрасль из-за того, что ожидания не оправдаются — AI будет требовать слишком много и будет больше разочаровывать, чем очаровывать инвесторов и индустрию.

В этой связи хочется рассказать о том, что дает пищу для, наоборот, оптимистических прогнозов. В University of Minnesota Twin Cities показали систему, которая должна снизить энергопотребление AI-приложений по меньшей мере в 1000 раз (статья). В обычных машинах идет постоянный обмен данными между памятью и вычислениями. Новый подход, который назвали CRAM (computational random-access memory), подразумевает, что данные из памяти никуда не передаются, вычисления проводятся прямо там, in-memory. Исследователи заявляют, что расход энергии удалось уменьшить где-то в 1700, а где-то и в 2500 раз.

Если результат перейдет из экспериментального в реальный, то к 2026 индустрии можно будет меньше переживать о внедрении AI в производство, это здорово.

Подписывайтесь на телеграм-канал «Цифровой директор»

Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not remember your credentials, you should contact your web host.

Connection Type