Публикации

Архитектура языковых моделей без перемножения матриц

Нейросети любой архитектуры построены на перемножении матриц. Например, трансформеры из входного вектора создают (тоже перемножением) три матрицы, Q, K и V, которые затем несколько раз перемножаются на пути к получению выходного вектора. [Нажмите на заголовок, чтобы прочитать публикацию полностью] ...

Мультиагентный AI для цифровых двойников

Обычные цифровые двойники обеспечивают продвинутую автоматизацию, но это можно считать только первым шагом. А лучше — нулевым, потому что главное, что делают цифровые двойники — дают платформу для развертывания AI, а тут возможности почти безграничны. [Нажмите на заголовок, чтобы прочитать публикацию полностью] ...

На каком языке думают большие языковые модели

Как работает ваш мозг, когда вы говорите на иностранном языке? Сначала переводит внутри на родной или сразу понимает и формулирует фразы на иностранном? Скорее всего, каждый человек ответит на это по-своему, а ответ будет зависеть и от уровня владения языком, и от того, по какой методике вас этому языку учили, и от особенностей мышления и речи вообще. [Нажмите на заголовок, чтобы прочитать публикацию полностью] ...

Обработка естественного языка с помощью искусственного интеллекта

Обработка естественного языка (Natural Language Processing, NLP) объединяет технологии машинного […] ...

Разработки в области искусственного интеллекта

Почти всегда статьи по ИИ содержат в конце таблицы с […] ...

CRAM вычисления должны снизить энергопотребление AI-систем в 1000 раз и больше

AI-решения могут отпугивать индустрию из-за слишком больших требований к энергетическим мощностям. Международное энергетическое агентство считает, что к 2026 году энергопотребление AI-платформ вырастет до 1000 ТВт/ч, то есть примерно станет равно энергопотреблению всей Японии. [Нажмите на заголовок, чтобы прочитать публикацию полностью] ...