Очередной важный шаг, приближающий нас к человеко-машинному интерфейсу, в котором компьютер будет получать информацию прямо из головы оператора. Модель от Meta AI в реальном времени (5 тысяч раз в секунду) считывает активность мозга и угадывает, какую картинку видит сейчас перед собой человек. Важно, что для этого не понадобились ни инвазивные вмешательства, ни медленная и громоздкая МРТ (хотя с ней результаты и получились бы лучше). Расшифровать мозговую активность в реальном времени смогли по магнитоэнцефалограмме (МЭГ).
Результаты пока не выглядят идеальными, но уже внушительны — животные действительно выходят похожими на животных, а еда — на еду. Создатели заявляют, что улучшили качество в 7 раз по сравнению с линейными декодерами.