Зрительную активность человеческого мозга распределили во времени
Jan 28, 2014 08:33
Зрительную активность человеческого мозга распределили во времени
Новый алгоритм обработки данных позволил связать воедино пространственные и временны́е характеристики нейронной активности в нашем мозге.
Стоит открыть глаза, как в наш мозг устремляется целый поток информации, которая распределяется по разным мозговым отделам, отвечающим за анализ визуальных данных. Выяснением того, как мозг «видит», нейробиологи занимаются давно, и сейчас можно с большой точностью определить, где и когда в мозге происходит зрительный анализ. Однако до сих пор «где» и «когда» можно было наблюдать только по отдельности, то есть мы в точности могли сказать, либо как меняется активность мозга за какой-то временной промежуток, либо какие нейронные блоки активируются для анализа зрительной информации. Увидеть же сам поток этой информации через мозг в реальном времени и с высоким разрешением до сих пор не представлялось возможным.
Например, с помощью фМРТ можно определить, какие зоны мозга отвечают за тот или иной процесс, но фМРТ - технология слишком медленная, которая не может увидеть миллисекундные изменения в активности. Магнитоэнцефалография (МЭГ), напротив, может быстро ловить мельчайшие изменения в активности нейронов, но не позволяет точно указать, откуда идёт сигнал.
Изменение активности зрительных центров человека во времени; первыми, через 60 мс, отзываются нейроны первичной зрительной коры (слева). (Иллюстрация авторов работы.) Исследователи из Массачусетского технологического института (США) именно это и сделали: Од Олива (Aude Oliva) и его коллеги нашли способ объединить данные фМРТ и МЭГ. Они исходили из очевидного предположения о том, что сходные зрительные объекты - например, два человеческих портрета - будут генерировать похожую активность как в фМРТ, так и в МЭГ. Такой подход применялся при изучении мозга обезьян, но с людьми такого ещё не делали.[Spoiler (click to open)]
В исследовании участвовали 16 человек, которым показывали набор из 92 изображений, где были и лица людей, и животные, и рукотворные объекты, и прочее. Каждая картинка демонстрировалась полсекунды. Каждый испытуемый по два раза проходил через фМРТ и через МЭГ. В журнале Nature Neuroscience авторы описывают пространственно-временную последовательность событий в мозге при обработке зрительной информации, которую им в итоге удалось восстановить. Через 50 миллисекунд после того, как человек увидел объект, информация приходит в первичную зрительную кору (V1), где распознаются основные признаки формы - вроде того, круглый объект или вытянутый. Затем информация перетекает в нижневисочную область коры, которая активируется 120 мс спустя, и в пределах 160 мс с момента старта объекту присваивается категория: человек ли это, животное, растение или ещё что-то.
Куда в первую очередь попадает зрительная информация и где происходит её категоризация, исследователи знали давно, но как это всё происходит во времени и как долго длится каждый этап - здесь обычно полагались лишь на догадки и косвенные свидетельства. С другой стороны, вряд ли нужно подробно объяснять, сколь важна такого рода информация для понимания работы мозга, вплоть до высших нервных функций. Такие данные можно было бы получить с помощью хирургических, инвазивных методов - например, когда в нейрон вводятся электроды, позволяющие точно определить время его активации. Однако с человеком такой эксперимент не поставишь (за исключением тех редких случаев, когда исследователи участвуют в какой-нибудь плановой операции на мозге у больного эпилепсией).
Как уверяют авторы работы, точность их метода (точнее, алгоритма, связывающего данные от двух методов) оказалась вполне сравнима с инвазивными способами, применявшимися на обезьянах, хотя, конечно, неинвазивная технология не столь исчерпывающа. Тем не менее исследователи полагают, что их способ наблюдения за человеческим мозгом ждёт большое будущее: как мы уже сказали, с его помощью можно оценивать не только переработку сенсорных данных, но и пространственно-временные параметры высших когнитивных процессов.
Подготовлено по материалам MIT News. Изображение на заставке принадлежит Shutterstock.