
Впервые в истории японским ученым под руководством Томоясу Хорикавы удалось разработать инновационную технологию, способную преобразовывать мозговую активность в осмысленный текст. Это открытие стало настоящим прорывом, поскольку система может «читать» внутренние представления ещё до того, как они обретают форму слов, и даже в те моменты, когда человек не произносит и не думает фразами.
Как работает технология mind captioning
Новая методика, получившая название mind captioning, переводится как «мысленные подписи». Суть её заключается в том, что мозговая активность человека сначала анализируется с помощью нейросетевых моделей, превращается в набор семантических признаков, а затем эти признаки преобразуются в развернутые осмысленные предложения. Такой подход позволяет создавать текстовые описания видимого или даже воспроизводимого в памяти опыта, что раньше казалось невозможным без активного участия языка или внутреннего монолога.
Экспериментальные достижения
В исследовании приняли участие шесть добровольцев. Им показывали многочисленные короткие немые видеоролики, в которых изображались различные сцены, предметы и действия людей. После просмотра их просили мысленно воспроизвести увиденное, а в этот момент фиксировали их мозговую активность с помощью современных МРТ-сканеров. Полученные сигналы использовались для обучения искусственного интеллекта: он соотносил нейронные паттерны с семантическими элементами, а затем составлял собственное описание просмотренных видеороликов.
Результаты превзошли ожидания: алгоритм смог с точностью около 50% определить, какой из роликов просматривал участник, что в 50 раз выше случайного угадывания. Причем созданные системой описания совпадали с вариантами, которые предлагали люди, не только по смыслу, но и по сложной структуре — искусственный интеллект улавливал отношения между объектами, деталями и действиями, а не просто перечислял отдельные слова.
Смысловые сигналы вне области речи
Особенного внимания заслуживает тот факт, что генерация текста происходила даже на основе активности областей мозга, которые не участвуют в формировании речи. Это доказывает, что смысловая информация заложена сразу в нескольких зонах — включая участки, отвечающие за память, воображение и восприятие образов. По словам Хорикавы, мозг способен кодировать структурированные представления о мире ещё до того, как человек выражает их словами. Таким образом, технология mind captioning не просто декодирует внутренний голос, а получает доступ к самой «матрице» восприятия, отражая содержание сознания вне зависимости от языковых рамок.
Вдохновляющие перспективы для науки и общества
Открытие японских исследователей открывает перед человечеством новые горизонты. Теперь появляется реальная возможность создать системы коммуникации для людей, полностью утративших способность говорить или писать — например, после инсульта или при нейродегенеративных заболеваниях. Mind captioning также может помочь в глубоких исследованиях природы воображения, сновидений и эмоциональных состояний, что ранее было практически недоступно для объективного изучения. Эта технология значительно расширяет границы взаимодействия между человеком и машинами: теперь компьютеры смогут стать надёжными посредниками между мыслями человека и окружающим миром.
Оптимистичный взгляд в будущее
Томоясу Хорикава уверен, что революционные последствия mind captioning для науки, медицины и повседневной жизни ещё только начинают раскрываться. Возможность читать содержание мыслей не нарушая приватности, а лишь переводя структурированную информацию в понятные формулировки, открывает перспективы для совершенно новых способов коммуникации. В дальнейшем это позволит не только вернуть голос тем, кто его утратил, но и раскрыть тайны работы человеческого разума, повысить качество восстановления после травм и болезней, а также углубить исследования воображения и творчества. Оптимистичный настрой команды исследователей внушает уверенность: человечество стоит на пороге новой эры, где границы между мыслями и их выражением становятся всё более прозрачными и легко преодолимыми.
Источник: www.gazeta.ru






