Библиотека

Теология

Конфессии

Иностранные языки

Другие проекты







Ваш комментарий о книге

Величковский Б. Когнитивная наука: Основы психологии познания

ОГЛАВЛЕНИЕ

ГЛАВА 2. ТРАНСФОРМАЦИЯ ПОДХОДОВ

2.1        Информационный подход

  1. Кибернетика и статистическая теория связи

  2. Инженерная психология и ее эволюция

  3. Поиски ограничений пропускной способности

2.2       Компьютерная метафора

  1. Ментальные модели и аналогия с компьютером

  2. «Когнитивная психология» Улрика Найссера

  3. Принципы символьного подхода

2.3        Модулярность познания и коннекционизм

  1. Идея специализации обработки

  2. Гипотеза модулярности: вклад Джерри Фодора

  3. Нейронные сети в психологии

2.4       Усиливающееся влияние нейронаук

  1. Интерес к нейропсихологическим данным

  2. Новые методы и старые проблемы

  3. Нейробиологические модели познания

92

На рубеже 1960-х годов произошла быстрая смена сферы интересов и теоретической ориентации мировой экспериментальной психологии. Термин «когнитивный» стал относиться не только к высшим познавательным процессам, но также к восприятию и даже моторике, мотивации и эмоциям. Складывается впечатление, что иногда он используется, по словам голландского психолингвиста Флореса д'Аркэ, «в качестве модной этикетки, позволяющей сбыть залежалый товар» (Flores d'Arcais, 1975, p. 45). Отдельным примерам такого рода, несомненно, противостоит — особенно в лице междисциплинарной когнитивной науки — ведущее направление современных научных исследований поведения и психики человека. Это направление постоянно развивается и имеет значительное число способных и активных сторонников.
Главным достижением когнитивной психологии стало то, что она полностью восстановила прерванное бихевиоризмом почти на полвека изучение познания. После появления вычислительных машин анализ внутренних психических процессов и состояний внезапно перестал казаться чем-то сомнительным. Но и внутри области познавательных процессов оказались неожиданные пробелы. Так, на первых порах из рассмотрения выпала проблема обучения. Дело в том, что известные до тех пор компьютеры были устройствами, которые не обучались, их возможности были жестко заданы «хардвером» и программным обеспечением. Типичный компьютер последовательно оперирует дискретными символами. Для него характерно отделение активного процессора от пассивной памяти. Процессор имеет ограниченную пропускную способность, тогда как пассивная память, напротив, является существенно более емкой. Те же черты стали находить и в организации когнитивной сферы человека. Потребовалось более двух десятилетий и тысячи экспериментов для выявления противоречий и начала интенсивных поисков альтернативных архитектур. На первый план выдвинулись представления о параллельной обработке. Появились новые методы, позволяющие реконструировать и даже в какой-то мере «увидеть» процессы, разворачивающиеся в самих структурах мозга. В когнитивных исследованиях компьютерная метафора в различных ее модификациях все более уступает место теориям и моделям, основанным на анализе реальных нейрофизиологических механизмов и их эволюционного развития.

2.1 Информационный подход
2.1.1 Кибернетика и статистическая теория связи

Решающее значение для появления когнитивной психологии имела кибернетическая революция в науке и технике, истоки которой, в свою очередь, связаны с развитием формальной и математической логики. В середине 19-го века Дж.С. Милль и Дж. Буль были убеждены, что их системы логики описывают законы мышления (именно так называлась вышедшая в 1858 году книга Буля, содержавшая описание двоичной алгебры). Отличительной чертой психологических теорий, которые ориентировались на эти достижения, уже тогда был более или менее отчетливый отказ от рассмотрения физиологических механизмов, которые, правда, в то время были еще практически неизвестны.
В 1900 году немецкий математик Давид Гильберт сформулировал ряд нерешенных в 19-м столетии проблем, часть из которых была связана с формальным обоснованием таких аксиоматических систем, как арифметика, геометрия, пропозициональная логика. Речь шла о полноте, непротиворечивости и вычислимости выражений, записанных в терминах «языка» этих систем. Несмотря на усилия выдающихся авторов и полученные ими принципиальные результаты, заметное продвижение в решении этих проблем произошло только в 1930-е годы, благодаря работам Гёделя, Колмогорова, Поста, Чёрча и Тьюринга (см. 9.2.2). Английский логик Алан Тьюринг проанализировал проблему эффективности процедур вычисления. Идея эффективности близка лейбницевской идее алгоритма — последовательности операций, ведущих через определенное (конечное) число шагов к решению. Тьюринг показал, что любая эффективная процедура может быть реализована с помощью простого абстрактного автомата, получившего название «машины Тьюринга». Состояния и изменения состояний этой «машины» могут быть описаны с помощью четырех или пяти элементарных логических операций, считывающих и записывающих двоичные числа в ячейки передвигаемой вперед и назад бесконечной ленты. Эта работа сделала возможной очень наглядное теоретическое обоснование функционирования вычислительной техники, так как с формальной точки зрения всякое цифровое вычислительное устройство является ничем иным, как физическим воплощением «машины Тьюринга».
«Кибернетика» американского математика и физика Норберта Винера, вышедшая в свет в 1948 году и переведенная потом на многие языки (например, Винер, 1958), зафиксировала начало новой научно-технической революции, основанной на теории управления и сервомеханизмов, статистической теории связи и применении программируемых вычислительных устройств. Как пишут А.И. Берг и Б.В. Бирюков, «Кибернетика осуществляет формализованный подход к объектам различной природы — техническим, биологическим, социальным. Смысл

этого подхода состоит в том, чтобы выделить в них стороны, связанные с управлением и переработкой информации... Кибернетика влечет за собой изменение привычных взглядов на некоторые философские категории. Например, концепция управления как перевода управляемого объекта из одного состояния в другое в соответствии с целью (задачей) управления влечет за собой определенное переосмысление телеологического... подхода. Если до кибернетики представление о цели обычно считалось неотделимым от идеализма, то теперь становится очевидным, что это понятие органически входит в число наиболее общих понятий, используемых для описания реальности» (Берг, Бирюков, 1975, с. 503).
Так была реабилитирована одна из характерных особенностей того, что Курт Левин и неопозитивисты называли «аристотелевским способом образования понятий» (см. 1.3.2). Кибернетика стала первым опытом широкого синтеза научных дисциплин в 20-м веке, про-образом современной когнитивной науки. Многое в кибернетике было подготовлено работами не только математиков и физиков, но и философов, физиологов, психологов1. Уже у Аристотеля можно найти прекрасный образ управления кораблем, который может вестись к цели различными способами: капитаном по звездам, местным лоцманом по береговым ориентирам и т.д. Карл Бюлер в своей книге о причинах первого кризиса психологии (Buehler, 1927) прямо называл изучение процессов управления поведением на основе психического отображения (нем. Darstellung) окружения — центральной задачей этой научной дисциплины.
В более узком исследовательском контексте Кёлер (см. Metzger, 1975) дал анализ фиксационных движений глаз в терминах работы механизма с отрицательной обратной связью (англ. feedback). Примерно та же самая задача удержания прицела на движущемся объекте интересовала и Винера, который занимался созданием вычислительной машины для управления зенитным огнем. Важно отметить, что в случае систем с обратной связью, особенно если эти системы включают несколько уровней организации, теряет свою объяснительную силу столь важное в механике и в науках о неживой природе понятие линейных причин-
1 Ближайшим сотрудником Винера и его соавтором по статье «Поведение, целена
правленность и телеология» (Винер, 1958) был физиолог Розенблют. Разработка идеи це
ленаправленности была дана ранее такими физиологами, как П.К. Анохин, H.A. Берн-
штейн, В.ф. Вайцекер и Э.ф. Хольст. В последнее время нейрофизиология вновь стано
вится источником идей для всего комплекса когнитивных исследований (см. 2.4.3 и 9.1.1 ).
При этом происходит поиск понятий, которые могли бы лучше выразить сложность изу
чаемых систем, чем ставшие привычными понятия кибернетики. Так, по предложению
американского биолога Дж. Эдельмана (Нобелевская премия 1972 года за работы по им
мунологии) в когнитивной науке начинает использоваться понятие «повторного ввода»
(англ. re-entry), близкое понятию «обратная связь», но подчеркивающее значение само
организации
нейронных систем живого, частично осознающего себя организма (напри-
94            мер, Edelman, 1985).

но-следственных связей. На место этого понятия выдвигается представление о круговой причинности. Например, в физиологических исследованиях картезианское понятие рефлекторной дуги было еще в 1930-е годы, то есть в период доминирования основанных на схемах «стимул-реакция» бихевиористских концепций и до официального появления кибернетики, заменено представлением о рефлекторном кольце, причем произошло это практически одновременно на Востоке (H.A. Бернштейн) и на Западе (Виктор фон Вайцекер). Так яблоки, по словам Гёте, одновременно падают осенью в разных садах.
Начиная с 1942 года в США стали практически регулярно происходить встречи, в которых участвовали ведущие кибернетики, лингвисты, физиологи и психологи. Междисциплинарные конференции и семинары, на которых закладывалась основа для совместных исследований, в духе последующей когнитивной науки, участились с окончанием войны и в других странах, в частности, в Советском Союзе. В 1950-е годы появились возможности и для прямых международных контактов разрозненных до того времени национальных групп. Из многочисленных достижений и нововведений кибернетики в психологию проникли первоначально, пожалуй, только положения статистической теории связи, изложенной в доступной для психологов форме Шенноном и Уивером (Shannon & Weaver, 1949). Эта теория — она стала известна потом как теория информации — предлагала простой формальный аппарат для оценки количества информации, содержащейся в том или ином сообщении.
Количество информации Н, передаваемое сообщением о реализации одного из N равновероятных событии, определяется по формуле:



Количество информации измеряется, таким образом, в двоичных логарифмических единицах, или битах. Передача количества информации, равного одному биту, позволяет уменьшить неопределенность ситуации вдвое, двух битов — вчетверо и т.д. Множество всех возможных событий, естественно, заранее должно быть известно на принимающей стороне. Приведенная выше формула описывет максимально возможное количество информации, достигаемое в случае, когда система событий совершенно случайна. Если система событий структурирована, так что разные события возникают с различной вероятностью/>, то среднее количество информации для множества из N событий определяется несколько более сложной формулой:


Именно эта информация Я при продолжительном предъявлении сигналов определяет нагрузку на канал связи. Разница между максимально

95

96

возможным и фактическим количеством информации определяет далее так называемую избыточность системы событий. Избыточность является ничем иным, как мерой организации такой системы, степени ее отличия от совершенно случайного, хаотичного состояния. Важным источником избыточности в канале связи являются, наряду с абсолютной вероятностью возникновения событий, условные вероятности следования события друг за другом. Так, поскольку появление, а главное, следование отдельных фонем друг за другом в звуках человеческой речи далеко не равновероятны, общая избыточность системы фонем (или же букв при письме и чтении) естественных языков оказывается довольно большой, примерно равной 70%.
С инженерной точки зрения, можно говорить далее о различной степени оптимальности процессов кодирования информации. Оптимальным является такое кодирование событий, например в виде последовательностей двоичных символов «0» и «1», при котором более вероятные события будут представлены, более короткими цепочками символов. Интересно, что соответствующая эмпирическая зависимость — чем частотнее слово в языке, тем оно короче — действительно известна в лингвистике, где она называется «вторым законом Ципфа». При оптимальном кодировании канал связи, имеющий пропускную способность С бит/с, будет передавать С/Н двоичных символов в секунду. Если кодирование не оптимально, то фактическая скорость передачи информации уменьшится. Она в принципе никогда не может превзойти пропускную способность канала С, а тем более стать бесконечной (Яглом, Яглом, 1973).
Первой претеоретической метафорой будущей когнитивной психологии стало, таким образом, понимание человека как канала связи с ограниченной пропускной способностью. Это понимание буквально совпадало с тем специфическим аспектом рассмотрения возможностей человека, который был характерен для проводившихся еще в годы Второй мировой войны инженерно-психологических исследований. Поскольку экстремальные условия войны и начавшегося сразу после нее военно-индустриального соревнования Востока и Запада вновь и вновь обнаруживали специфические слабости человеческого звена в системе человек—машина, необходим был единый язык описания ограничений как техники, так и самого человека-оператора. Теория информации была воспринята многими психологами и инженерами как своего рода лапласовская «мировая формула» (см. 1.1.2), позволяющая единообразно описать возможности не только технических звеньев человеко-машинных систем, но и большое количество собственно психологических феноменов.

2.1.2 Инженерная психология и ее эволюция

В силу их значительного и продолжающегося влияния на когнитивный подход, нам следует хотя бы кратко остановиться здесь на особенностях и эволюции исследований «человеческого фактора» {humanfactorengineering), получивших в Западной Европе и СССР название инженерной психологии. Появление этой области исследований было вызвано целым рядом случаев отказа человеко-машинных систем, произошедших по вине человека. Один из наиболее драматических, хотя и малоизвестных эпизодов случился в декабре 1941 года на американской военно-морской базе Перл-Харбор, когда инженеры, обслуживавшие один из первых образцов только что поступивших на вооружение радиолокаторов, отчетливо увидели на экране отраженные от приближающихся японских самолетов сигналы, но просто не поверили, что такое количество сигналов возможно, и решили отправить аппаратуру на ремонт вместо того, чтобы сообщить в штаб флота о возможном нападении.
Потребовалось целое десятилетие, чтобы научиться аккуратно описывать подобные ситуации. Для этого инженерными психологами наряду с теорией информации стала использоваться заимствованная из радиотехники и психофизики теория обнаружения сигнала (Wald, 1950). Благодаря ряду допущений, эта теория позволила описать работу оператора в задачах на обнаружение с помощью всего лишь двух параметров: чувствительности (а") и критерия (?). Если первый параметр описывает сенсорные возможности различения сигнала на фоне шума, то второй, как мы сказали бы сегодня, связан именно с когнитивными переменными: представлением о вероятности появления сигнала, а также оценкой относительной «цены» последствий двух возможных и неизбежных в ситуации обнаружения ошибок — пропуска сигнала и ложных тревог. На основании этих когнитивных переменных формируется готовность оператора при прочих равных условиях подтверждать наличие сигнала (низкий, или либеральный критерий) либо воздерживаться от такого подтверждения (высокий, или консервативный критерий). С формальной точки зрения, именно завышенное положение критерия помешало операторам в Перл-Харборе подтвердить приближение воздушных целей.
На рис. 2.1 показаны два идеализированных примера ситуации обна
ружения сигнала для простейшего случая, при котором появление сигна
ла не меняет разброса значений распределения шума, а просто сдвигает
это распределение вправо по оси величин регистрируемой в сенсорных
каналах активности. Распределение шума (аналог спонтанной сенсорной
активности) предполагается нормальным и стандартным, так что его сред
нее равно нулю, а стандартное отклонение — единице. Верхний график
описывает ситуацию обнаружения слабого сигнала, сдвигающего рас
пределение шума лишь на 0,5 его стандартного отклонения. Величина 0,5
и есть значение параметра чувствительности, обычно обозначаемого как
d' (произносится «дэ штрих»). Нижний график иллюстрирует обнаруже-                   „_


? =2,0
сигнал и шум

шум

? = 0,0 нет   да


-2,0   -1,5   -1,0   -0,5     0      0,5     1,0    1,5    2,0
d" сенсорное возбуждение



-2,0   -1,5   -1,0   -0,5     0      0,5     1,0    1,5    2,0
а' сенсорное возбуждение
Рис. 2.1. Примеры использования аппарата теории обнаружения сигнала для описания ситуаций обнаружения слабого (А) и сильного (Б) сигналов на фоне шума.

98

ние более мощного сигнала. Расстояние между распределениями и, следовательно, чувствительность здесь больше: d' = 1,5. На обоих графиках также приведены по два возможных значения параметра критерия выбора ответа, ? («бета»). Оператор, принимающий более низкий из этих двух критериев (? = 0,0), будет сообщать о появлении сигнала всякий раз, когда величина сенсорной активности превышает среднее для распределения шума значение. Критерий ? = 2,0 означает, что о присутствии сигнала будет сообщаться, если величина сенсорной активности превысит два стандартных отклонения распределения шума.

Лейтмотивом множества исследований, проведенных с использованием аппарата теории обнаружения сигнала, стало представление о субоптимальности решений человека в ситуациях обнаружения. Особенно проблематичным оказалось постепенное ухудшение результатов обнаружения с увеличением времени наблюдения. Это ухудшение обычно состоит в ужесточении критерия принятия решений, что ведет к уменьшению числа ложных тревог, но чревато также и все более вероятными ошибками пропуска сигнала. Особенно яркими примерами этого явились сбои в обнаружении воздушных целей при охране наиболее важных государственных объектов системами противовоздушной обороны (ПВО) СССР и США в 1980-е годы. Так, в 1987 году немецкий летчик-любитель Маттиас Руст пересек со стороны Финляндии советскую границу, незамеченным долетел до Москвы и приземлился на Красной площади. Некоторое время спустя похожий инцидент произошел и в США, где недовольный налоговой политикой правительства фермер, захватив охотничье ружье, беспрепятственно долетел до центра Вашингтона, но разбился при попытке посадить свой самолет в саду Белого Дома. В обоих случаях операторы ПВО были «обезоружены» многолетним ожиданием вражеского нападения: стремясь избежать ложных тревог, они постепенно ужесточали критерии и в конце концов практически перестали замечать потенциально опасные цели.
О субоптимальности работы человека-оператора также говорили данные, собранные на основе экспертных оценок и представляемые в инженерной психологии в виде так называемых «МАВА—МAВА таблиц». Эти таблицы сравнивают между собой области деятельности и отдельные задачи, в которых человек оказывается лучше машины (Men-are-better-at) или, напротив, машина лучше человека (Machines-are-better-at). Так, задачи по обнаружению сигнала в силу колебаний внимания и отмеченной тенденции к завышению критерия принятия решений человеком лучше было бы доверить машине. С другой стороны, запоминание больших массивов информации и узнавание изображений первоначально считалось одной из областей, в которых человек был эффективнее машины. Разумеется, по мере развития компьютерных технологий количество таких областей стало постепенно сокращаться. Лишь наиболее сложные задачи, требующие глобальной оценки ситуации и выработки новых решений, причем часто на основании неполной информации, пока что прочно остаются в компетентности человека2.
2 Качество принимаемых человеком решений резко снижается в условиях стресса,
вызываемого в первую очередь недостатком времени. Поэтому, например, в современной
ядерной энергетике предпринимаются специальные меры для того, чтобы в течение 10—
20 минут фиксировать развитие событий, не давая человеку возможности реализовать
слишком поспешные решения. Подобные задержки «на обдумывание», к сожалению,
невозможны в работе летчика или водителя, где действовать часто приходится в интерва
лах времени порядка долей секунды (за 1 секунду автомобиль, движущийся со скоростью
60 км/час, проезжает около 17м).                                                                                                              99

К компетенции человека продолжают и, безусловно, будут продолжать относиться задачи по принятию решения в условиях многокатегориального выбора. В отличие от рассмотренной задачи обнаружения сигнала, где основания для решения могут быть представлены в виде одной-един-ственной переменной, в подобных задачах существует несколько качественно различных систем критериев и несколько (обычно более двух) альтернативных решений. Специфически человеческим звеном здесь является прежде всего оценка относительной важности (весовых коэффициентов) различных критериев. Такая оценка всегда довольно субъективна и не может быть сведена к одному критерию, даже такому существенному, как критерий стоимости. Например, если речь идет о выборе проекта нового предприятия, то наряду с критерием стоимости строительства (возможно, в сочетании с ожидаемыми доходами — критерий cost/ benefit) важную роль в том или ином контексте могут играть также и другие критерии, такие как критерии престижности или экологической безопасности. Сравнительную оценку важности критериев в каждом конкретном случае может дать только лицо (группа лиц), принимающее решение.
Помимо самой оценки специфическая сложность задач многокритериального выбора состоит в том, что «при их рассмотрении все доводы "за" и "против" не присутствуют в уме одновременно; иногда присутствует одна часть, в другое время — иная, причем первая исчезает из вида. Следовательно, различные цели или склонности по очереди берут "верх" и появляется неопределенность, которая озадачивает и мучает нас»3. В качестве простейшей исчерпывающей процедуры получения весовых коэффициентов отдельных критериев и их агрегации в общую оценку альтернатив в литературе по методам поддержки принятия решений (Ларичев, 2002) рекомендуется следующая последовательность шагов:

  1. Упорядочить критерии по важности.
  2. Присвоить наиболее важному критерию оценку 100 баллов и, ис
    ходя из попарного отношения критериев по важности, дать в бал
    лах оценку каждому из них.
  3. Сложить полученные баллы, а затем произвести нормировку кри
    териев (вычислить их весовые коэффициенты), разделив присво
    енные баллы на сумму весов.
  4. Оценить значение каждой альтернативы по каждому из критери
    ев в отдельности по шкале от 0 до 100 баллов.
  5. Определить общую оценку каждой альтернативы, используя фор
    мулу взвешенной суммы баллов (то есть просуммировать оценки
    данной альтернативы по всем критерием с учетом весовых коэф
    фициентов последних).

3 Эта цитата взята из письма Бенджамина Франклина, датированного сентябрем 1772 года. Франклин рекомендует далее записывать аргументы «за» и «против» на левой и правой стороне листа: «Когда я имею все это в поле зрения, я пытаюсь оценить их веса; если я найду два, каждый на другой стороне, которые кажутся мне равными, я их вычеркну... Если я считаю, что некоторые два довода "за" равны трем доводам "против", я вычеркиваю все пять; продолжая таким образом, я нахожу со временем, где находится баланс». Эти соображения можно считать эскизом современных компьютерных программ, поддерживающих процессы принятия решений (см. 8.4.2). Проблемы данной области связаны с нетранзитивным и нелинейным характером человеческих предпочтений, накладывающим ограни-100        чения на математические операции с балльными оценками (см. Ларичев, 2002).

6.   Выбрать в качестве лучшей альтернативу, получившую наибольшую общую оценку.
Развернувшиеся во второй половине 20-го века работы по автоматизации отдельных функций и областей деятельности человека в целом проходили под лозунгом его освобождения от тяжелых и несвойственных ему сенсомоторных задач. Предполагалось, что за человеком-оператором постепенно останутся только функции когнитивного контроля за работой технических систем. С развитием информатики, электроники и когнитивных исследований стали создаваться системы относительно полного технического контроля и исполнения действий (такие как FlightManagementSystems, используемые в военной и гражданской авиации для автоматического управления основными режимами полета). Постоянное увеличение степени сложности техники требовало от человека-пользователя сопоставимых, все более серьезных усилий по обучению и пониманию работы систем. Одновременно, из-за технических и финансовых ограничений автоматизации часто подвергались относительно изолированные фрагменты деятельности.
Результаты подобной фрагментарной замены человека компьютерными системами часто оказывались неудовлетворительными. В этих полуавтоматизированных системах скорее сам человек оказался под контролем автоматов, чем наоборот. Известный отечественный инженерный психолог Б.Ф. Ломов (например, Ломов, 1966) еще в начале 1960-х годов предупреждал об опасности такого развития, выдвинув вместе со своими коллегами принцип «активного оператора». Главным недостатком, или, по словам современной английской исследовательницы Лизанн Бэйнб-ридж, иронией автоматизации стало сегодня то, что оператору или, например, летчику временами приходится действовать в еще более экстремальном диапазоне нагрузок, чем прежде. Относительно легкие задачи упростились за счет их автоматизации, тогда как трудные задачи стали более сложными в силу усложнения самих человеко-машинных систем, а также из-за того, что решать их приходится внезапно и из состояния недонагрузки. При внезапных повышенных нагрузках в условиях жестких временных ограничений возникает состояние острого стресса, меняющее протекание практически всех познавательных процессов. Стресс, в частности, ведет к эффекту так называемого туннельного зрения — резкому ограничению размеров функционального поля зрения и фиксации внимания на отдельных деталях, а не на сцене в целом (см. 4.2.2 и 9.4.3).
Центральной проблемой сегодня становится выравнивание этого дисбаланса, то есть избирательная поддержка (вплоть до полной замены4)
4 Речь идет о временной передаче управления автоматам. Примером могут служить
современные системы предотвращения столкновения с земной поверхностью (GCAS
GroundCollisionAvoidanceSystem), используемые в военной авиации. Эти системы оцени
вают параметры движения самолета и с учетом рельефа местности, а также времени реак
ции пилота автоматически уводят самолет в случае необходимости из опасной зоны.                      101

человека в тех случаях, когда он находится на пределе своих возможностей, и, напротив, эпизодическая передача ему дополнительных функций (например, ручного управления самолетом) в периоды потенциально опасной недонагрузки. В результате возникает новая задача адаптивной автоматизации. Она предполагает психологический мониторинг функционального состояния человека с текущей оценкой степени и характера его внимания, содержаний восприятия, понимания актуальной ситуации (или «осознания ситуации» situation awareness) и, насколько возможно, также непосредственных намерений. Хотя в общем виде эта задача еще очень долго не будет иметь решения, ее частные решения, похоже, возможны; они опираются на результаты прикладных когнитивных исследований и также обсуждаются на страницах этой книги (см. 3.4.2 и 7.4.3).
Инженерную психологию всегда интересовала задача нахождения некоторого единого языка для описания работы человека и функционирования технических систем. Наиболее подходящим языком такого описания вначале считалась теория информации. С накоплением опровергающих это мнение данных (см. 2.1.3), а затем и с возникновением задачи адаптивной автоматизации стали меняться акценты, так что иногда сами машины стали описываться в антропоморфных терминах как продукты (артефакты) деятельности человека. Так, датчанин Йене Расмуссен (Rasmussen, 1986) предложил рассматривать все компоненты человеко-машинных систем в контексте трех, известных из теории деятельности вопросов: «для чего?», «что?» и «как?» (см. 1.4.3). Им же была предложена трехуровневая модель операторской деятельности, в которой на самом низком уровне поведение находится под контролем автоматизированных навыков, на втором — хранящихся в памяти правил и на третьем — знаний о ситуации. Данная модель используется прежде всего для классификации ошибок оператора. В зависимости от уровня возникновения такие ошибки влекут за собой разную степень ответственности. Например, авиадиспетчер может просто перепутать похожие команды (неудачно расположенные рядом кнопки) или же, подумав, сознательно направить два самолета на одну и ту же посадочную полосу (см. 9.1.3).
Недостатком этой и аналогичных ранних моделей является то, что они были совершенно недостаточно обоснованы с точки зрения фундаментальных исследований. В частности, их авторы полностью игнорировали нейрофизиологические и нейропсихологические данные, столь важные, как становится очевидно в последние годы, для создания более реалистических представлений о специфических особенностях и ограничениях возможностей человека в его взаимодействии с техническими системами (см. 7.4.3 и 8.4.3). Эти данные впервые заложили теоретико-экспериментальную основу для прикладных исследований на границе психологии и новых технологий, подтверждая старое правило «Нет ни-102       чего практичнее хорошей теории». Кроме того, классическая для этой

области проблематика стресса и утомления обусловила постоянный диалог исследований когнитивной организации с анализом функциональных состояний (см. 9.4.3). Таким образом, развитие инженерной психологии и такого нового ее раздела, как когнитивная эргономика (дисциплина, занимающаяся оптимизацией взаимодействия человека и компьютерных систем), сегодня находится под прямым влиянием исследований в широкой области когнитивных и аффективных нейронаук.
2.1.3 Поиски ограничений пропускной способности
Вернемся к ситуации, в которой оказались исследования познавательных процессов в 1950-е годы. Основные экспериментальные работы этого периода имели прикладной характер и были направлены на возможно более точное описание ограничений информационной пропускной способности человека. К числу основных феноменов, иллюстрирующих такие ограничения, обычно относят следующие:

  1. Время реакции выбора — замедление времени реакции с увеличени
    ем числа альтернатив.
  2. Избирательность (селективность) внимания — невозможность од
    новременно и в равной степени следить за содержанием двух раз
    личных сообщений.
  3. Колебание внимания — невозможность в течение сколько-нибудь
    продолжительного времени с одинаковой «бдительностью» (vigi
    lance) следить, скажем, за экраном радиолокатора.
  4. Объем непосредственной памяти — невозможность запомнить после
    однократного предъявления более чем 5—7 не связанных между со
    бой объектов или символов.
  5. Психологический рефрактерный период — задержка реакции на вто
    ром из двух следующих друг за другом с достаточно малым интер
    валом (менее 150 мс) стимулов.

В последующих главах эти феномены будут рассмотрены нами в контексте современных представлений о возможных ограничениях познавательных процессов. Мы остановимся здесь подробно на самом первом в списке этих феноменов. Еще в 1885 году один из учеников Вундта Меркель установил, что время реакции выбора («В-реакция» Дондерса: ? стимулов и « реакций) линейно зависит от логарифма числа стимулов. Этот же результат был получен почти 70 лет спустя американцами Хиком и Хэйменом, которые объяснили его как следствие зависимости времени реакции от количества средней информации:
ВР = а+ в*Н,
где а — параметр, задаваемый временем передачи информации на входе и выходе канала; в — величина, обратная пропускной способности канала, и ? среднее количество информации, определяемое по формулам, приведенным в начале этой главы. Это соотношение, получившее       ЮЗ

название закона Хика, сохраняется при различных способах варьирования средней информации: изменении числа альтернатив, изменении абсолютных вероятностей при постоянном числе альтернатив и, наконец, введении различных вероятностей следования одних сигналов за другими (рис. 2.2А).
В рамках инженерно-психологических исследований ограничений избирательного внимания и непосредственной памяти Дональд Брод-бент (ученик Бартлетта и бывший военный летчик, участвовавший в воздушной битве за Англию) опубликовал в 1954 году статью под названием «Механическая модель внимания и непосредственной памяти человека», где впервые описал внимание как фильтр, осуществляющий отбор релевантной с точки зрения задачи сенсорной информации. Этот фильтр расположен на входе в непосредственную память — «центральный информационный канал с ограниченной пропускной способностью» — и осуществляет отбор релевантной информации по принципу «все или ничего» (рис. 2.3). Близкие идеи легли в основу монографии Бродбента «Восприятие и коммуникация», вышедшей в свет в 1958 году. В этой работе был обобщен гигантский объем данных, полученный в рамках информационного подхода. Это развитие целиком соответствовало неопозитивистским канонам — как и в необихевиоризме автором проводился формальный анализ наблюдаемых переменных, а человек трактовался как относительно закрытый «черный ящик». Очерки психологии с точки зрения статистической теории связи появились в конце 1950 — начале 1960-х годов. Однако это было время, когда информационный подход стал подвергаться серьезной критике.


2               3              0                1
количество информации, бит

Рис. 2.2. Закон Хика — зависимость времени реакции выбора от информативности сиг-104        налов: А. Первоначальные данные; Б. Данные, собранные за последующие 10 лет.



Рис. 2.3. Одна из первых информационных моделей памяти и внимания, предложенная Бродбентом (Broadbent, 1958).
Прежде всего, установленные законы стали обрастать дополнениями и оговорками, учитывающими субъективную значимость и естественность различных ситуаций. Так, едва ли не центральной проблемой инженерной психологии в эти годы стала проблема естественного соответствия сигналов и ответов испытуемого: время реакции ускоряется, если, например, на акустический сигнал, подаваемый справа, нужно отвечать правой рукой. Разумеется, этот эффект можно попытаться объяснить строго физикалистски, проследив движение информации по нейрофизиологическим путям — от правого уха в контрлатеральное левое полушарие, которое, в свою очередь, иннервирует преимущественно правую часть тела. Однако такое объяснение может быть легко поставлено под сомнение. Если попросить испытуемого скрестить руки, то на сигналы, поступающие справа, он начинает быстрее отвечать левой рукой. Существенной, таким образом, оказывается близость сигналов и ответов в феноменальном, а не физическом пространстве5. Встает типичный для собственно когнитивной психологии вопрос о форме репрезентации — о том, каким образом могут быть внутренне представлены внешнее окружение, сигналы и схема тела.
Исследования времени реакции выбора постепенно выявили чрезвычайно пеструю картину, совершенно не укладывающуюся в прокрус-

5 Надо сказать, что подчеркивание роли таких переменных, как значимость и естественность, типично как раз для «аристотелевского», а не «галилеевского» способа образования понятия (см. 1.3.1).

105

106

тово ложе закона Хика (рис. 2.2А). Для разных типов сигналов и ответов, а также для различных их комбинаций параметры получаемых зависимостей оказались разными. Наиболее «неудобными» являются те случаи, в которых вообще не было обнаружено сколько-нибудь выраженной зависимости времени реакции от количества информации в идентифицируемых сигналах (функции «ж», «з», «и», «к» на рис. 2.2Б). При интерпретации этих данных с помощью закона Хика получался бессмысленный вывод о безграничной пропускной способности. Единственный закон, который был подтвержден этими исследованиями, состоял в демонстрации почти безграничной адаптируемости человека к подобным искусственным условиям: в одной из британских работ по времени реакции выбора, продолжавшейся в течение пяти месяцев, число проб превысило 45 000, но время реакции испытуемого все еще продолжало снижаться.
В 1956 году видный американский психолингвист и последователь Хомского Джордж Миллер опубликовал ставшую классической работу «Магическое число семь, плюс или минус два» (см. Миллер, 1964). Он показал, что ограниченность объема кратковременной памяти определяется совсем не количеством объективно измеренной в битах информации, а относительно небольшим количеством (порядка 7) «единиц», или «кусков» («чонков» от англ. chunks) субъективной организации материала. В качестве подобных единиц организации материала в непосредственной памяти могут выступать буквы или цифры, слова или, например, короткие предложения. Количество информации будет во всех этих случаях совершенно различным. Размеры этих единиц, как показал Миллер в опытах на себе, меняются в процессе обучения. Так, для человека, совершенно незнакомого с вычислительной техникой, слово «IBM» представляет собой последовательность трех единиц, тогда как для всех лиц, знающих, что это название крупнейшей компьютерной фирмы, — всего лишь одну единицу.
Точно так же в исследовании зрительного различения было установлено, что комбинация перцептивных признаков, которая с логической точки зрения не меняет неопределенность стимулов (а следовательно, не меняет и количество информации), тем не менее, приводит к значительному изменению пропускной способности. Так, в случае одномерных стимулов, варьирующих только по цвету, яркости или величине, испытуемый может перерабатывать 2,75 бита информации, чему соответствуют безошибочные различения и категоризация примерно 7 стимулов. Если же стимулы меняются одновременно по всем трем параметрам, причем меняются полностью коррелированным (избыточным) образом, так что формально по-прежнему есть только одно стимульное измерение, количество передаваемой информации возрастает до 4,11 битов. Это означает успешную категоризацию уже 17 стимулов. После таких результатов необходимость изучения внутренней репрезентации цвета, яркости, величины и других перцептивных категорий станови-

лась понятной даже наиболее позитивистски ориентированным пред-
ставителям информационного подхода.
Важную роль в создании методологического климата, сделавшего
возможным переход к когнитивной психологии, сыграл принцип кон
вергирующих операций Гарнера, Хэйка и Эриксена (Garner, Hake &
Eriksen, 1956), означавший либерализацию и даже ревизию требований
ортодоксального неопозитивизма (см. 1.3.2). Основная мысль состояла
в том, что изучать можно и то, что не является непосредственно наблю
даемым. Границы подобного, «скрытого за поверхностью» регистрируе
мых событий предмета исследований, лучше всего могут быть намечены
при движении по различным, но сходящимся (конвергирующим) на
правлениям. Например, если обнаруживается сходство оценок продол
жительности работы некоторого гипотетического внутреннего механизма,
полученное с помощью двух или большего числа независимых методичес-
ких процедур, то можно допустить, что такой механизм действительно
существует — даже если результаты отдельных методик для этого допу
щения недостаточно убедительны. Авторы попытались в первую очередь
разделить сенсорные аспекты восприятия и чисто моторные реакции,
заменив радикальное операционалистское утверждение: «восприятие =
определенный способ реагирования на сенсорную стимуляцию» на бо-
лее осторожное: «восприятие = некоторое внутреннее событие, кото-
рое может проявляться в моторных реакциях, но принципиально от
них отлично».
В результате психология восприятия была вновь выделена в качестве
самостоятельной области исследований. Поскольку понятия гештальт-психологии казались слишком широкими и слишком менталистскими, была предпринята попытка использовать для количественного описания структуры восприятия аппарат статистической теории связи. «Многие из гештальтистских принципов, — писал один из ведущих представителей информационного подхода Фрэд Эттнив, — связаны с количеством информации. Хороший гештальт — это форма с более высокой степенью избыточности. Такие законы перцептивной организации, как законы близости, сходства, хорошего продолжения и общей судьбы, совершенно очевидно относятся к ситуациям, в которых происходит уменьшение неопределенности» (Attneave, 1965, р. 117). Однако применение теории информации для описания перцептивной организации также натолкнулось на трудности. Искусственным было уже требование, согласно которому наблюдатель заранее должен знать весь набор возможных событий. Гештальтпсихологи, например, всегда утверждали, что восприятие является процессом, который строится «здесь и теперь»: в конкретной ситуации и вне зависимости от прошлого опыта.
Следует отметить, что еще в 1950 году английский кибернетик До
нальд М. Маккай (МасКау, 1950) предупреждал о принципиальных про
блемах с применимостью статистической теории связи в психологии,
1                   предлагая создать или, по крайней мере, подумать о создании теории, в
которой информация в некотором сообщении оценивалась бы числом когнитивных операций, которые осуществляются при моделировании

его содержания. Маккай даже создал вариант применимой для психологических целей методики измерения «структурной информации». Как и ряд аналогичных попыток, его теория структурной информации не получила сколько-нибудь широкого распространения (за исключением отдельных исследований восприятия формы и цвета — см. 3.3.1). Не получил широкого распространения и сам кибернетический подход, предложивший интересные, но очень математизированные средства описания процессов управления в сложных динамических системах. Напротив, чрезвычайно популярной стала общая идея реконструкции организмом своего окружения и мысленной работы с этой внутренней моделью. Эта идея легла в основу следующей метафоры экспериментальной психологии.

2.2 Компьютерная метафора
2.2.1 Ментальные модели и аналогия с компьютером

Новый подход к анализу психических процессов, возникший в начале 1960-х годов, имел длительную предысторию. В 1894 году ученик Гельм-гольца Генрих Герц писал: «Отношение динамической модели к системе, моделью которой она считается, это в точности отношение образов вещей, которые создает наш разум, к самим вещам... Согласованность между разумом и природой может быть, таким образом, приравнена согласованности двух систем, являющихся моделями друг друга; мы даже могли бы объяснить эту согласованность, предположив, что наш разум способен создавать динамические модели вещей и работать с ними» (Hertz, 1894, S. 177). Через полстолетия эту мысль развил сотрудник Бартлетта и один из создателей инженерной психологии Кеннет Крэйк: «Если организм несет в голове мелкомасштабную модель внешнего окружения и своих возможных действий, он способен проверять различные альтернативы, определять наилучшие из них, реагировать на будущее развитие ситуации и вообще во всех отношениях вести себя более полноценно, безопасно и компетентно, попадая в сложные условия» (Craik, 1943, р. 61 )6.
Анализируя «внутренние модели» пространственного окружения, мы сразу же обнаруживаем, что они имеют «матрешечную» организацию, то есть обычно состоят из нескольких рекурсивно вложенных друг в

108

6 Элегантную формулировку сути когнитивного подхода в нейрофизиологии (не используя, впрочем, термина «когнитивный») несколько позже предложил H.A. Бернштейн: «Мозговое отражение (или отражения) мира строится по типу моделей Мозг не запечатлевает поэлементно и пассивно вещественный инвентарь внешнего мира.., но налагает на него те операторы, которые моделируют этот мир, отливая модель в последовательно уточняемые и углубляемые формы» (1966, с. 287).

друга репрезентаций. Например, мы можем представить себе карту северо-востока России, так что Санкт-Петербург будет при этом представлен чем-то вроде точки, а затем развернуть эту «точку» в полномасштабное пространственное представление и т.д. (см. 6.3.2). Рекурсивный характер имеют наши представления о других людях и их знаниях о нас (см. 7.4.1). Наконец, рекурсивность типична для нашего языка, что подчеркивалось в теории порождающей грамматики Хомского (см. 1.3.3 и 8.4.3). Используя эту теорию, можно было сделать следующий шаг — объявить различия всех этих форм репрезентации поверхностными и постулировать единый абстрактный формат представления знаний на уровне глубинных структур, допускающих алгоритмическое описание. Вот почему в начале 1960-х годов процессы познания стали трактоваться по аналогии с процессами вычислений в компьютере. Понимание того, что человек активно «перерабатывает информацию», строя внутренние модели (репрезентации) окружения, означало переход от информационного подхода в узком смысле слова к когнитивной психологии.
Эта компьютерная метафора когнитивной психологии открыла принципиально новые теоретические возможности, заменив характерное для психологии 19-го — первой половины 20-го веков представление об энергетическом обмене организма со средой на представление о значительно более быстром и гибком информационном обмене. Так, Вундт и его современники полагали, что только что открытый закон сохранения энергии требует признания строгого психофизического параллелизма, то есть признания — в полном согласии с картезианской философской традицией (см. 1.1.1 и 9.1.3) — полной независимости (в смысле причин и следствий) телесных и ментальных событий. Но вычислительное устройство, потребляя весьма незначительное количество энергии, может управлять огромными механизмами. Поэтому требование психофизического параллелизма перестало вдруг казаться строго обязательным. Далее, хотя трудно сказать, какие процессы лежат в основе некоторой чисто психической работы, например, восприятия картины Рембрандта, можно легко представить компьютер или специализированный электронный прибор, осуществляющий переработку информации, которая заканчивается адекватным ситуации ответом.
Первыми работами нового направления можно считать исследования процессов образования искусственных понятий Джеромом Бруне-ром и сотрудниками, а также работы Ньюэлла, Саймона и Шоу, создавших ряд машинных моделей мышления, в том числе «Логик—теоретик» и «Универсальный решатель задач». Общими чертами этих работ являются не только массивное использование формально-логического анализа (например, используемый в монографии Брунера теоретический аппарат совпадает с правилами индукции Дж.С. Милля), но и восстановление авторитета более ранних, «добихевиористских» исследований познания. В случае Ньюэлла и его коллег это были Отто Зельц и геш-тальтпсихология, а в случае Брунера — вюрцбургская школа и диссер-

ПО

тационная работа Кларка Халла 1920 года по формированию понятий, выполненная на материале китайских иероглифов. Отдавая должное другим влияниям, Брунер писал позднее, что на него произвело в эти годы глубокое впечатление знакомство с традицией изучения познания в советской психологии. Действительно, в его работах отчетливо выступает интерес к анализу развития познавательных процессов, которые он вслед за Бартлеттом, Леонтьевым, Гальпериным и Пиаже связывает с формированием внешней деятельности. При этом, впрочем, он, как и Выготский, подчеркивает моменты символьного взаимодействия ребенка с другими людьми, а не чисто сенсомоторные компоненты.
Использование «менталистской» терминологии в когнитивной психологии было обусловлено вначале эвристическими соображениями; она оказалась необходимой потому, что сложность рассматриваемых феноменов не позволяла дать их осмысленную интерпретацию в других терминах. Переход к неоментализму сопровождался попыткой осмысления философских проблем, которые он за собой влечет. Практически в течение одного 1960 года появилось несколько работ, в которых ставился вопрос о характере объяснения активности познавательных процессов. Эти работы содержат предположение, что проблема бесконечного регресса к гомункулусам, поставленная ранее в споре между Толменом и Газри (она известна также как проблема Юма — см. 1.1.1 и 1.3.3), может быть обойдена, если предположить, что процессы переработки информации организованы в иерархические, все более абстрактные структуры, а сам гомункулус выполнен из нейроноподобных элементов.
В статье под названием «В защиту гомункулусов» Фрэд Эттнив (Attneave, 1961) отмечает, что если на более ранних уровнях переработки информации будут выполняться некоторые функции гомункулуса, то в конечном счете для моделирования познавательной активности во всей ее сложности потребуется система с конечным числом уровней. Блок-схема переработки информации человеком, центральное место в которой занимает гомункулус (блок Н), показана на рис. 2.4. Блок H является местом конвергенции сенсорной и аффективно-оценочной информации; его выход представляет собой произвольное поведение, в то время как рефлексы и автоматизированные навыки реализуются другими структурами. Его активность необходима для осознания, а также для всякого сколько-нибудь продолжительного запоминания информации. Эттнив легко включает в свою модель данные об ограниченности внимания и непосредственной памяти, считая, что вход в блок H ограничен 7+2 единицами предварительно организованного перцептивной системой (блок Р) материала. Совершенно очевидно, что Эттнив вкладывает в уже имевшиеся к тому времени информационные модели познавательных процессов традиционное для психологии сознания содержание. Статья завершается призывом пересмотреть вопрос о научной респектабельности гомункулуса (см. 4.4.2 и 5.2.3).

Проприоцепция

Рис. 2.4. Модель переработки информации человеком по Эттниву (Attneave, 1961). ? — перцептивная система, А — аффективно-оценочная система, ? — гомункулус, M — моторная система

Сдвиг от необихевиоризма к неоментализму когнитивной психологии был зафиксирован и в известной книге Дж. Миллера, Н. Галантера и К. Прибрама «Планы и структуры поведения» (русский перевод — Миллер, Галантер, Прибрам, 1964). Авторы описали элементарную структуру действия, включив в нее операцию когнитивной оценки, TEST. Эта структурная ячейка действия получила название TOTE {TEST-OPERATETESTEXIT). Этими же авторами также еще раз была выдвинута задача изучения «центральных процессов», с помощью которых можно заполнить «пропасть между стимулами и реакциями». Образы были уподоблены планам, или компьютерным программам, иерархическая организация которых допускает возможность «самопрограммирования» и позволяет, по мнению авторов, обойтись без гомункулуса. Наряду с другими аналогичными призывами к изучению «центральных процессов», это был не просто субъективный бихевиоризм, но уже когнитивная психология, в ее специфической форме, подчеркивающей аналогию между внутренними репрезентациями и программами вычислений.
Значительная часть развернувшихся с конца 1950-х годов исследований склонялась к другой версии компьютерной метафоры, связанной с выявлением и анализом возможных структурных блоков переработки информации и принципов их объединения в единую функциональную архитектуру. Не случайно большинство этих работ было направлено на

111

выделение процессов и видов памяти, аналогичных процессам преобразования и блокам хранения информации вычислительных устройств. Благодаря экспериментам англичанина Брауна и американцев Питерсо-нов, здесь, прежде всего, удалось установить критическую роль активного повторения для всякого продолжительного сохранения информации: если после показа некоторого материала (цифры, слоги и т.д.) для запоминания испытуемый должен выполнять какую-либо интерферирующую активность (например, отнимать тройки от некоторого достаточно большого числа), то уже через 10—20 секунд вероятность правильного воспроизведения приближается к нулевой отметке7.
Джордж Сперлинг (Sperling, 1960), а несколько позднее и другие авторы, использовав методику частичного отчета (инструкция, определяющая характер воспроизведения материала, предъявляется в этой методике уже после окончания предъявления самой информационной матрицы), пришли к выводу, что сразу после кратковременного предъявления зрительная информация примерно в течение трети секунды сохраняется в виде относительного полного сенсорного образа, после чего она исчезает или переводится в какую-то другую, вероятнее всего, вербальную форму (см. 3.2.1). Предположение об обязательном участии вербального повторения в переводе информации в долговременную память, то есть во всяком, сколько-нибудь продолжительном запоминании материала (включая абстрактные фигуры), получило название гипотезы вербальной петли (см. 5.2.1).

Для объяснения этих данных сначала Н. Во и Д. Норман (Waugh & Norman, 1965), а затем Р. Аткинсон и Р. Шиффрин (русский перевод — Аткинсон, 1980) предложили модель, в которой выделили три блока переработки информации в памяти человека: сенсорные регистры (например, «ультракороткая зрительная память» из работ Сперлинга), первичную память (кратковременная память с ограниченным объемом и вербальным повторением в качестве способа сохранения информации) и вторичную память (долговременная семантическая память с очень большим объемом пассивно сохраняемой информации). Легко видеть, что эта модель в общих чертах описывает архитектуру универсальной цифровой вычислительной машины (см 5.2.1 ). Вместе с тем, она вполне тради-ционна. Так, различение первичной и вторичной памяти можно найти уже у Джеймса или еще раньше у немецкого физиолога Экснера. Первичной памятью они называли непрерывное сохранение представления в пределах поля сознания, вторичной — повторное возвращение представления в сознание, после того как оно его покинуло. Первичная (кратковременная) память оказывается, таким образом, удивительным
7 Полученные этими авторами результаты совпали с данными исследования А Дани-елса (Daniels, 1895), выполненного в конце 19-го века Его интересовала продолжитель-112         ность сохранения впечатления в «поле сознания»

образованием, одновременно имеющим сходство с сознанием, гомункулусом, каналом связи и микропроцессором компьютера!
К числу других проблем этих ранних исследований относились вопросы о локализации и модусе работы селективных фильтров (внимания), осуществляющих отбор релевантной и подавление иррелевантной информации, последовательной или параллельной организации процессов в задачах поиска, характера взаимодействия восприятия и памяти при распознавании конфигураций. Так, ученица Бродбента Энн Трисман предположила, что перцептивные процессы разворачиваются последовательно на нескольких уровнях обработки информации, начиная с анализа сенсорных признаков материала и кончая анализом семантических. Такие работы представляли не только абстрактный научный интерес. Одной из практических проблем, изучению которой были посвящены в середине 20-го века десятки экспериментов, стала проблема вечеринки {cocktailpartyproblem) — механизмы выделения релевантного речевого сообщения на фоне множества других одновременно ведущихся разговоров. Исследования показали, что отбор осуществляется преимущественно на основании элементарных сенсорных признаков, таких как определенное пространственное положение источника или специфический тембр голоса8. Было установлено, что семантическая связность сообщения также способствует лучшей настройке на релевантный канал (см. 4.1.2).
Значительное число работ 1960-х годов было посвящено описанию организации семантической информации в памяти. Одна из методик состояла в анализе группировки (кластеризации) словесного материала по семантическим категориям в задаче полного воспроизведения. Устойчивые ассоциативные связи между словами изучались с помощью методики свободных ассоциаций (см. 6.1.2). Еще один подход был связан с анализом феномена «на кончике языка», описанного Джеймсом, а также, в литературной форме, А.П. Чеховым (в рассказе «Лошадиная фамилия»). Браун и Макнил давали испытуемым словарные определения редких слов. В тех случаях, когда испытуемые не могли назвать слово, но утверждали, что знают его и вот-вот вспомнят, их просили угадать число слогов, примерное звучание, положение ударения, отдельные буквы и т.д.

8 Несмотря на легкомысленное название, «проблема вечеринки» возникла в серьезном контексте ведения воздушного боя, когда пилоты общались на одной радиоволне и нужно было научиться выделять в хоре голосов релевантное сообщение В разгар «холодной войны» данные о селективности внимания использовались в СССР при глушении западных радиостанций Поскольку женские и мужские голоса существенно отличаются базовой частотой, для глушения передач в какой-то момент стал применяться акустический «салат» из одновременно звучащих мужских и женских голосов Возникающая при этом маскировка была более полной, чем при использовании так называемого белого шума, в равной степени включавшего разные акустические частоты В настоящее время наблюдается новый всплеск интереса к этим механизмам, поскольку технические системы распознавания речи оказались неспособными к решению «проблемы вечеринки» и пытаются одновременно обрабатывать все, что произносится в их окружении (см 7 4 3)

113

Оказалось, что часто они оказывались в состоянии воспроизвести эту фрагментарную информацию об отдельных признаках слова (см. 7.1.3). Внутренняя репрезентация значений слов стала описываться как многомерный вектор свойств. В одной из первых теорий значения когнитивной психологии Катц и Фодор описали значение в терминах атомарных, иерархически организованных признаков, или предикатов: «быть мужчиной», «быть человеком», «быть живым существом» и т.д.
Так, например, понятие ХОЛОСТЯК задается, согласно теории Кат-ца и Фодора, сочетанием всего лишь трех дихотомических признаков: «быть мужчиной (+)», «быть взрослым (+)», «быть женатым (—)». Данный подход, казалось бы, наконец-то открывал путь к чисто автоматическому, машинному вычислению истинности понятий и составленных из них логических высказываний, пропозиций (см. 2.2.3). Вместе с тем, подобная абстракция исключала из рассмотрения многие пограничные или особые случаи, определяемые такими факторами, как социокультурные традиции и предписания. Можно ли, в самом деле, считать «холостяками» иерархов римской католической церкви, хотя в их случае выполняется приведенное выше требование сочетания элементарных семантических признаков? Точно так же, можно ли считать «холостяками» лиц нетрадиционной сексуальной ориентации или же членов формально незарегистрированных гетеросексуальных пар, которые длительное время живут вместе со своими партнерами? Очевидно, при определении даже такого простого понятия перечисление признаков оказывается недостаточным и приходится учитывать более широкий контекст — специфические особенности социокультурного института женитьбы/замужества (см. 6.3.1).
Близость этих когнитивных теорий значения структуралистским представлениям создателей экспериментальной психологии и философии 18—19-го веков неоспорима. Уже для Вундта, впрочем, всякое воспоминание было интегрировано в системе координат его трехмерной теории эмоций: «удовольствие — неудовольствие», «напряжение — расслабление», «возбуждение — успокоение». Ее более современным аналогом может служить трехмерное семантическое пространство конно-тативных (то есть аффективных) значений, построенное в 1950-е годы с помощью статистической процедуры факторного анализа Чарльзом Осгудом и его сотрудниками (Osgood, Suci & Tannenbaum, 1957). Эта модель имеет очень похожие на вундтовские координаты: «хороший — плохой» (шкала оценки), «сильный — слабый» (шкала силы), «активный — пассивный» (шкала активности). На базе модели была создана методика семантического дифференциала, в которой значение слов оценивалось всего лишь по трем отмеченным шкалам — оценки, силы и активности. Использовав данную методику, Осгуд и его коллеги продемонстрировали, например, каким образом меняется отношение к словам, имеющим аффективное значение, у пациентки с синдромом раз- двоения личности (рис. 2.5).



Рис. 2.5. Изменения в оценке коннотативного (аффективного) значения группы понятий у пациентки с раздвоением личности до (А), во время (Б) и после (В) кратковременного обострения состояния (по· Osgood, Suci & Tannenbaum, 1957).
Надо сказать, что сам Осгуд, несмотря на его активное участие в первых междисциплинарных конференциях когнитивистов и значительный фактический вклад в когнитивную науку, представлял необихевиористское направление психолингвистики. Поэтому он трактовал значение как осуществляющийся на основе ассоциативных связей внутренний медиаторный ответ (rj на внешний стимул. То, что Осгуд и другие психолингвисты середины 20-го века описывал как изменение отношения к понятиям, для представителей только что возникшей когнитивной психологии означало изменение внутренней структуры репрезентации понятий в семантической памяти. Это различие еще раз оттеняет специфику когнитивного подхода, с его общей неоменталистской ориентацией, отрицающей исследование моторики и поведения в целом. Современные психологические, а также и нейрофизиологические исследования различных форм представления знания будут подробно рассмотрены нами в следующих главах. Для новых работ становится характерным известный плюрализм — объединение этих и ряда других, первоначально противопоставлявшихся друг другу точек зрения и методических подходов (см. 6.1.3 и 9.4.1).

115

2.2.2 «Когнитивная психология» Улрика Найссера

Итоги первого этапа развития когнитивной подхода были подведены в книге Улрика Найссера «Когнитивная психология», вышедшей в свет в 1967 году. Уже во введении он пишет, что конструктивный характер наших познавательных процессов является фундаментальным фактом. Задача когнитивной психологии состоит в том, чтобы понять, каким образом «воспринимаемый, воспоминаемый и осмысляемый мир порождается из такого малообещающего начала, как конфигурация рети-нальной стимуляции или узоры звукового давления в ухе» (Neisser, 1967, р. 4). Заимствуя идею у Фрейда (работа «Влечения и их превращения»), Найссер, пишет, что «эту книгу можно было бы назвать "Стимульная информация и ее превращения". "Познание" — это обобщенное название для всех процессов, посредством которых сенсорная информация трансформируется, редуцируется, усиливается, сохраняется, извлекается и используется. Оно имеет отношение к этим процессам даже тогда, когда они разворачиваются в отсутствие релевантной стимуляции, как это имеет место при воображении или галлюцинациях. Такие термины, как ощущение, восприятие, воображение, запоминание, припоминание, решение задач и мышление... относятся к гипотетическим стадиям или аспектам процесса познания» (там же).
Найссер с осторожностью подходит к определению ведущей метафоры когнитивной психологии. Отмечая, что компьютерная метафора, по-видимому, уступает по своей эвристичности программной (сравнению психических процессов с машинными программами в духе Миллера, Галантера и Прибрама), он подчеркивает, что речь идет лишь о сходстве, но не об идентичности машинных программ и психических процессов. Значение обеих метафор состоит не только в доказательстве правомерности изучения внутренних психических процессов, но и в том, что они позволяют делать это без учета нейрофизиологических данных. В самом деле, если психика — это нечто вроде компьютерных программ, или «софтвера» (англ. software), а мозговые механизмы — собственно «хардвера» (англ. hardware), то очевидно одни и те же программы могут быть запущены на разных, в смысле физической реализации элементов, компьютерах (кремний, пневмоника, фотоника и т.д.). Найссер отмечает, что конечная задача когнитивной психологии состоит в демонстрации роли знания в детерминации поведения человека.
Особенно подробному анализу подвергается судьба сенсорной информации. Ее «превращения» начинаются с попадания в периферические блоки памяти: «иконическую» для зрения и «эхоическую» для слуха. Затем эта информация поступает в вербальную кратковременную память, где сохраняется с помощью процессов скрытого или явного про-говаривания. Подчеркивая конструктивный характер как низших, так и высших познавательных процессов, Найссер различает в них две фазы.  Первая — фаза предвнимания — связана с относительно грубой и парал-

дельной обработкой информации. Вторая — фаза фокального внимания — имеет характер конструктивного акта, отличающегося «осознанной, внимательной, детальной и последовательной» обработкой. Только на этой второй фазе становится возможным вербальное кодирование информации, служащее предпосылкой для ее длительного сохранения в памяти и последующей реконструкции (см. 4.2.1).
Тезис об активности познавательных процессов развивается на примере психолингвистической модели «анализа через синтез». Согласно этой модели, при восприятии речи мы пытаемся построить внутреннюю репрезентацию предложения, максимально похожую на оригинал. Если слово предъявляется на фоне шума, то предвнимательный анализ первоначально может выделить лишь отдельные различительные признаки или слоги, после чего последовательно синтезируются несколько вероятных слов, пока одно из них не совпадет с информацией на входе. Это встречное моделирование — антиципация — может происходить на разных уровнях описания материала: буквы, слоги, слова, целые предложения. Результатом являются такие известные феномены, как ошибочное восприятие слов, которые отсутствовали в сказанной фразе, но хорошо подходят по контексту, пропуск ошибок в типографском тексте и, наконец, эффект превосходства слова Кеттела, то есть более быстрая и вообще более эффективная обработка слов, чем случайных последовательностей тех же самых букв (см. 3.3.3 и 7.2.2).
Значительное место в книге Найссера отводится феноменам памяти, в том числе зрительным образам, вновь возвращенным из бихевиористского изгнания. Найссер интерпретирует эти феномены по аналогии со зрительным восприятием. Последнее означает для него развернутый процесс интеграции получаемых во время отдельных фиксаций «кадров» зрительной информации, или «икон». Речь идет «о постоянно развивающейся схематической модели, к которой каждой фиксацией добавляется дополнительная информация» {там же, с. 180). Для такой развернутой во времени интеграции необходимо, очевидно, некоторое пространство — зрительная память. «Схематические зрительные объекты» могут быть синтезированы повторно. Это и есть образы представлений, которым, следовательно, свойствен такой же конструктивный характер, как и восприятию. «Существует аналогия между ролью хранящейся информации при воспроизведении и ролью стимульной информации в восприятии. В том и в другом случае информация не попадает прямо в сознание... В области психологии памяти... можно предложить модель работы палеонтолога, которую мы использовали для объяснения восприятия и внимания: по нескольким сохранившимся костям мы восстанавливаем динозавра» {там же, с. 285).
В связи с этим вариантом концепции творческого синтеза перед Найссером встают две проблемы. Первая, называемая им «проблемой исполнителя», заключается в необходимости устранения гомункулуса из объяснительных схем. Вторая проблема, возникающая в теории Найссе-

pa, это адекватность восприятия. Если восприятие, воображение, галлюцинация — наши внутренние конструкции, то как различить подлинное восприятие, представление имевших когда-то место событий и нечто впервые воображаемое? Ответ Найссера на этот вопрос довольно формален и, вообще говоря, не очень убедителен: «Индивид имеет образы представлений тогда, когда он вовлечен в выполнение некоторых из тех же самых когнитивных процессов, которые имеют место и при восприятии, но когда отсутствуют раздражители из внешнего мира, вызывающие это восприятие»9.

Книга Найссера представляла собой пример широкого, хотя и несколько эклектического синтеза различных подходов. На базе компьютерной метафоры были объединены структурализм Вундта и функционализм Бартлетта, гештальтпсихология и лингвистика Хомского. По сути дела (например, с точки зрения разделения процессов предвнима-ния и фокальной обработки, соответствующих тому, что столетием ранее называлось перцепцией и апперцепцией — см. 1.2.2), эта работа больше всего напоминала осовремененный вариант вундтовской экспериментальной психологии. Плюрализм, распространявшийся также и на методологию исследований, где соседствовали гипотетико-дедуктивный метод и самонаблюдение, несомненно, оказался одной из привлекательных черт когнитивного подхода в целом, позволившей представителям разных психологических традиций, а также специалистам в соседних с психологией областях принять это новое глобальное направление.

2.2.3 Принципы символьного подхода
В течение 1970-х годов в психологии и за ее пределами, прежде всего в работах по искусственному интеллекту, сложилось относительно единое мнение о теоретических основаниях, методах и моделях когнитивных исследований. Перед тем как перейти к обсуждению более современных подходов и проблем, мы попытаемся кратко обрисовать основные черты этих представлений, которые можно было бы назвать «консенсусом 1970-х годов». С точки зрения терминологии специалистов в области теории и истории науки, речь идет о частном случае так называемой «парадигмы нормальной науки» (см. 9.1.1), то есть о совокупности явно или неявно разделявшихся тогда абсолютным большинством исследова-
9 Начиная со следующей после «Когнитивной психологии» работы «Познание и реальность» (русский перевод, 1981), Найссер связывает возникновение образов с неподтверждением наших ожиданий изменения вида объектов и окружения в процессах реальной или интериоризированной активности (см 5 3 1 и 6 3 1) Примерно так же можно интерпретировать объяснение возникновения внутреннего — психологического, или «идеального» — плана активности и в работах некоторых психологов, исследовавших процес-118        сы отногенеза, прежде всего ? Я Гальперина и Ж Пиаже

телей теоретических и методологических допущений. С известной долей условности можно выделить четыре принципа традиционной парадигмы ранней когнитивной психологии:

  1. приоритет знания и рационального мышления над поведением,
    привычками и аффектом,
  2. использование компьютерной метафоры,
  3. предположение о последовательной переработке информации,
  4. акцент на формальном моделировании вместо изучения мозговых
    механизмов.

Итак, самым первым принципом, отличающим этот подход от бихевиоризма и, скажем, психоанализа, было подчеркивание роли знаний и рационального мышления: люди — это автономные и рациональные существа, использующие свои знания для того, чтобы в рамках доступных ресурсов оптимизировать взаимодействие с окружением.
Второй принцип заключался в аналогии между психологическими процессами и переработкой символьной информации в универсальном вычислительном устройстве. Предполагалось, что знания могут быть описаны как комбинации символов, которые репрезентируют объекты и события, но не похожи на них. Подобно тому, как слово «стул» фонетически и графически не более похоже на слово «шкаф», чем на слово «шарф», возможное перцептивное сходство самих символов никак не связано со сходством или различием репрезентируемых ими значений. Роль образца при этом, безусловно, выполняла теория Хомского, разделявшая два уровня репрезентации — поверхностный и значительно более абстрактный глубинный. Точно так же и в традиционном когнитивном подходе подчеркивался амодальный и условный характер (глубинных) когнитивных репрезентаций, связанных со значением. Задача когнитивной психологии понималась как возможно более детальная спецификация подобных абстрактных репрезентаций и осуществляемых над ними операций.
Общим допущением было, что познавательные процессы характеризуются определенными ограничениями, которые имеют структурные и, возможно, другие (например, энергетические — см. 4.2.2) основания. С ограничениями пропускной способности связан третий принцип когнитивного подхода: из-за конечной пропускной способности переработка символьной информации должна осуществляться главным образом последовательно. Вследствие последовательного характера обработки полезным источником сведений о внутренней организации процессов познания является измерение времени реакции в различных задачах. Поскольку измерение времени реакции — ментальная хронометрия — стало одним из основных методических приемов когнитивной психологии, рассмотрим соответствующие методики несколько подробнее.
В ряде случаев речь идет о методе вычитания Дондерса (см. 1.2.1). Логика этого метода использовалась, например, американским инже-
119
I

120

нерным психологом, впоследствии специалистом по когнитивной ней-ронауке Майклом Познером. В работах, направленных на анализ стадий переработки информации в задаче абстрагирования свойств буквенно-цифрового материала, он предъявлял испытуемым пары букв, предлагая быстро оценивать совпадение/несовпадение визуальных характеристик, «имен» букв или же их принадлежности к классам согласных и гласных звуков. В результате были измерены времена, необходимые для выделения информации все более высоких уровней абстракции. Как и в работах Дондерса, основной недостаток таких исследований состоит в предположении, что новые задачи в чистом виде добавляют или отнимают некоторые стадии переработки, не меняя остальных. Общим приемом выделения стадий, свободным от этих недостатков, стал предложенный в 1969 году сотрудником Белловских лабораторий Солом Стернбергом (Sternberg, 1969) метод аддитивных факторов. Идея этого методического приема связана с использованием факторного планирования эксперимента и дисперсионного анализа (они были разработаны в 1920-х годах Рональдом Фишером, 1890—1962).
Допустим, что решение некоторой хронометрической задачи включает несколько последовательных этапов переработки информации, например, тех трех этапов, которые описал еще Дондерс: детекция стимула, его различение и выбор ответа (см. 1.2.1). Тогда в случае наиболее сложной задачи времени реакции выбора (п стимулов -» и реакций) можно было бы попытаться найти такие независимые переменные, или факторы, которые, селективно влияя на продолжительность каждого из этих этапов, не вызывают изменения времени переработки информации на других этапах. Наличие отдельных этапов выразилось бы в аддитивном влиянии этих факторов на общее время реакции выбора. Аддитивность двух факторов А и В означает, что при всех значениях одного фактора влияние другого постоянно. Формальным критерием аддитивности служит ситуация, при которой величина взаимодействия факторов (АхВ) в дисперсионном анализе не достигает уровня значимости. При графическом представлении результатов аддитивность выражается в появлении параллельных зависимостей.
Действительно, многочисленные данные демонстрируют существование переменных, которые, влияя на время решения тех или иных задач, не взаимодействуют между собой (Sternberg, 1969; 1999). Как показано на рис. 2.6А, к их числу в простейшем случае относятся оптическая зашумленность («читабельность») предъявляемых зрительно цифр и естественность соответствия стимулов и ответов: в соответствующих экспериментах испытуемый должен был либо просто называть показанную цифру, либо называть цифру, на единицу большую. Аддитивность (независимость) влияния этих двух факторов на время реакции свидетельствует о существовании, по крайней мере, двух независимых этапов в процессах решения данной задачи. Содержательно их можно было бы назвать этапами перцептивного кодирования и организации ответа. Время перцептивного кодирования избирательно зависит от читабельности


естеств.                            неестеств             естеств.                            неестеств.
Соотношение стимулов и реакций
Рис. 2.6. Примеры аддитивного (А) и неаддитивного (Б) влияния на время реакции в задаче называния цифры (по· Sternberg, 1999).
цифр, а время организации ответа — от его естественности. С другой стороны, третий экспериментальный фактор — число альтернатив — взаимодействует в той же задаче как с читабельностью цифр, так и с естественностью ответов. Можно сделать вывод, что этот фактор влияет на продолжительность каждого из выделенных выше этапов переработки, а его полезность для тестирования процессов на одном из этих этапов ограничена.

Таким образом, метод аддитивных факторов заключается в поиске пар не взаимодействующих между собой факторов с целью расчленения процесса решения задачи на отдельные стадии. Это выявление внутренней структуры процессов переработки информации оказывается возможным чисто психологическими методами, без использования физиологических и нейропсихологических процедур. Ограничением метода аддитивных факторов является то, что он может использоваться только в хронометрических экспериментах, причем в режиме относительно безошибочной работы. Следует подчеркнуть последний момент: в силу взаимозависимости скорости и точности ответов (больше времени — точнее работа и наоборот) число ошибок в хронометрических исследованиях, за исключением специальных случаев, должно оставаться на очень низком и примерно одинаковом уровне (порядка 2—3%). Данный метод был использован в огромном числе когнитивных исследований, прежде всего для систематического анализа закономерностей поиска информации в памяти (см. 5.1.2).

Четвертый принцип традиционного когнитивного подхода состоял в нарочито нечетком определении связи психологических и нейрофизиологических процессов. Считалось, что хотя процессы переработки символьной информации как-то связаны с мозговым субстратом, эта зависимость не является жесткой. Скорее всего, работающий мозг .— необходимое, но не достаточное условие формирования символьных репрезентаций и психологического контроля поведения. Для представителей искусственного интеллекта, кстати, мозговой субстрат не был даже необходимым условием — предполагалась, что полноценные когнитивные репрезентации могут быть сформированы также и достаточно мощной компьютерной программой. В силу нечеткости психофизиологической связи, для многих научных и практических целей вполне достаточным представлялось формальное описание вовлеченных в переработку информации процессов, даже если их мозговой субстрат остается неизвестным. Подобное формальное описание строилось на базе формализации предложений естественного языка, то есть предполагалось, что внутренние репрезентации знания имеют в своей основе вер-бально-логический характер.
Представления об абстрактно-символьной природе внутренних репрезентаций были наиболее полно разработаны Аланом Ньюэллом. Подобные представления были необходимы, чтобы полностью использовать потенциал компьютерной метафоры и показать, что знания и следствия из них (умозаключения) могут в буквальном смысле слова вычисляться. Единицей знания при этом (см. также 5.3.1, 7.1.3 и 8.1.1) считается пропозиция — логическое суждение (утверждение), которое может быть либо истинным, либо ложным.
В логике и лингвистике существуют разные подходы к описанию пропозиций. Традиционный подход близок к описанию структуры предложения и состоит в выделении в составе пропозиции субъекта, предиката (отношения, свойства) и объекта. Этот подход, однако, проблематичен, так как субъект и объект легко могут меняться местами без изменения истинности утверждения: «Россия продала Аляску Америке» и «Аляска была продана Россией Америке». Поэтому более современным, отвечающим духу математической логики подходом является трактовка предиката как логической функции, или отношения, в которое могут подставляться различные аргументы (объекты отношения). В зависимости от характера предиката (отношения) пропозиция может допускать различное количество аргументов. Примером одноместного предиката служит выражение твердый (карандаш), двуместного — на (книга, стол), трехместного — подарить (Маша, Летя, яблоко) и т.д. В качестве аргументов таких выражений могут выступать не только существительные, имена собственные и местоимения, но и целые пропозиции, в связи с чем говорят о предикатах второго порядка. Например, предикат установления причинно-следственной связи, cause, способен рекурсивно объединять серию более элементарных пропозиций:
 cause [подарить (Маша, Петя, яблоко), благодарить (Петя, Маша)].


живое существо


птица

Мурка

Чижик


Рис. 2.7. Пример простейшей семантической сети.


На базе пропозициональных репрезентаций возможно выполнение вычислений, для которых используется пропозициональная логика, называемая также исчислением предикатов. Подчеркивание роли пропозиционального описания знания, таким образом, тесно связано с поставленной еще Лейбницем (см. 1.1.2) задачей автоматического вывода и моделирования умозаключений. Существует большое количество производных от пропозиций средств моделирования, наиболее известными из которых являются семантические сети. Они представляют собой пространственные структуры, включающие узлы (понятия, объекты, аргументы) и связи между ними (отношения, функции, предикаты). Пример фрагмента простейшей семантической сети показан на рис. 2.7 С помощью подобных сетей возможно моделирование процессов категоризации и простых умозаключений (см. 6.2.1 и 8.2.1). Так, если два понятия «лебедь» и «щука» объединены иерархически более высоким узлом «живое существо», то возможен перенос части свойств, приписанных данному узлу, с одного понятия на другое. Иными словами, интерпретация и репрезентация понятий в символьном подходе прямо зависят от процессов категоризации: как только понятие относится к некоторой более

123

абстрактной категории, оно наследует семантические признаки этой категории10.
В конце 1970-х годов появились и другие средства моделирования когнитивных процессов, прежде всего так называемые системы продукций или марковские алгоритмы, названные так в честь русского математика A.A. Маркова (1858—1922). Одним из примеров могут служить правила перезаписи порождающей грамматики Н. Хомского (см. 1.3.3). Они представляют собой колонку пар (продукций) типа «условие» —» «действие»: если на вход системы продукций попадает одно из «условий», то оно автоматически приводит к соответствующему «действию». Продукции можно представить как определенные правила, например: «Если идет дождь, то нужно взять с собой зонт», хотя речь может идти и о средствах моделирования простых связок: «стимул» —» «реакция» Управление начинается сверху колонки и последовательно спускается вниз до нахождения первого подходящего условия. После осуществления операций — «действий» — управление вновь начинается с верхней строчки В отличие от обычных машинных программ системы продукции практически не обладают структурой, в них, в частности, отсутствует обычный для многих языков программирования оператор перехода к другим участкам программы (оператор «go to»). Простота систем продукций привела к тому, что они стали широко использоваться при когнитивном моделировании (см. 6 4.1 и 9 2.1). В связи с упоминанием «действий» много надежд было связано и с возможным использованием систем продукции для дополнения моделей когнитивных функций (прежде всего памяти и мышления) моделями сенсомоторных процессов.
Оценивая перспективы когнитивной психологии, один из ее представителей писал в эти годы: «Развитие этого направления науки обещает оказать на нашу философию влияние, которое будет, по крайней мере, столь же существенным, как влияние дарвинизма» (Broadbent, 1961, р. 11). Этот энтузиазм разделялся большинством психологов. Пожалуй, единственным крупным автором в американской психологии, который позволил себе публично выразить сомнение, был специалист по восприятию Джеймс Джером Гибсон: «Многие психологи, видимо, думают, что сейчас нужно только собрать воедино все наши научные достижения. Их самоуверенность удивляет меня. Ведь эти достижения очень сомнительны, а сама научная психология, по-моему, плохо обоснована. В любой момент все может опрокинуться, как тележка с яблоками» (Gibson, 1967, р. 142). Может показаться удивительным, но именно его взгляды оказали особенно сильное влияние на более поздние работы одного из основателей когнитивной психологии Найссера, а также на многие ведущиеся сегодня дискуссии (см. 9.3.2).

124

10 Следует иметь в виду, что речь идет о процессах индуктивного вывода, которые в случае реальных семантических категорий всегда могут сопровождаться ошибками Например, свойство (предикат) ЛЕТАЕТ, приписывемое концептуальному узлу ПТИЦА, не может быть распространено на некоторые примеры этой категории, такие как СТРАУС и ПИНГВИН (см 6 2 1)

Действительно, традиционный когнитивный подход оставлял нерешенными много серьезных проблем. Так, не вполне понятной оказалась проблема первичного определения значений — «проблема заземления символов» (symbolgroundingproblem). На поздних этапах изучения языка понятия могут задаваться посредством определения и ссылок на другие символы (см. 6.1.1). Но можно ли выучить китайский язык с самого начала, имея в распоряжении лишь китайско-китайский толковый словарь, к тому же без картинок (см. 9.2.2)? Очевидно, первичное «заземление» понятий возможно в контексте непосредственного восприятия и предметных действий, однако именно они были исключены из рассмотрения. Акцент на вербально-логическом, амодальном описании знаний оставлял открытым также вопрос о природе образных явлений (их изучение привлекло поэтому внимание многих талантливых исследователей — см. 5.3.1 и 6.3.1). Далее, наши действия и восприятия явно непрерывны, поэтому их трудно описывать дискретными логическими функциями. Программы символьной обработки, например, так и не позволили смоделировать элементарный феномен восприятия — разделение видимого поля на фигуру и фон (см. 1.3.1). Вместе с тем, они оказались достаточно успешны при моделировании решения логических задач и даже игры в шахматы.
Из возникших в тот период дискуссий и новых данных к концу 1980-х годов постепенно возникли подходы, поставившие под сомнение универсальную применимость символьного подхода. В центре внимания оказались процессы параллельной обработки и «субсимвольной репрезентации» знания, в частности, процессы, лежащие в основе нашего непосредственного взаимодействия с окружением — локомоций, восприятия и действия с предметами. Новые нейрофизиологические методы, такие как трехмерное картирование активности мозга (см. 2.4.2), были быстро включены в арсенал средств психологических исследований. Радикально изменился и сам характер когнитивных теорий, в фокусе которых, наряду с нейропсихологическими механизмами, все чаще оказываются проблемы развития и коммуникативного взаимодействия. Можно сказать, что сегодня мы имеем дело с другой психологией и другой когнитивной наукой. Они стали в большей степени соответствовать представлениям об объединяющей различные научные дисциплины и субдисциплины единой романтической науке (см. 1.4.3 и 9.4.1), чем это могли представить себе создатели первых метафор данного направления.


125

2.3 Модулярность познания и коннекционизм
2.3.1 Идея специализации обработки

Вплоть до начала 1980-х годов единственной претеоретической метафорой когнитивной психологии оставалась компьютерная метафора, с характерной для нее аналогией между психологическими процессами и переработкой информации в универсальном вычислительном устройстве. Такие компьютеры, во-первых, имеют однопроцессорную архитектуру. Во-вторых, для них характерно разделение пассивных данных и активных операций над ними, причем последние объединены в более или менее сложные, заранее написанные программы. В вычислительной технике и информатике эти вычислительные устройства иногда называются «фон-неймановскими», по имени венгеро-американского математика и логика Джона фон Неймана, предложившего в 1947 году, на пороге масштабной компьютерной революции, соответствующую схему физического воплощения машины Тьюринга (см. 2.1.1)".
Изобретение и распространение микропроцессоров в самых разных областях техники привело к созданию и повсеместному внедрению множества специализированных вычислительных устройств, значительно более простых, чем фон-неймановские компьютеры, но зато более эффективных в решении своих частных задач — балансировании тяги ракетных двигателей, регуляции температуры и влажности воздуха в помещении, определении времени суток и дня недели для любой даты в течение ближайшего тысячелетия и т.д. Стремление увеличить скорость обработки информации, а равно надежность получаемых результатов, в свою очередь, обусловило создание компьютеров с несколькими одновременно задействованными процессорами (один из первых прототипов даже получил характерное имя «Нон-фон» — «Не фон-неймановский компьютер»!). Число таких параллельных процессоров может достигать в современных суперкомпьютерах десятков тысяч, так что главной проблемой здесь становится разбиение общего массива вычислений на подзадачи и коммутирование (англ. connection) работы отдельных микропроцессоров между собой.
Первым автором, в явном виде использовавшим термин «модулярность» для описания организации психологических процессов, был американский нейроинформатик Дэвид Марр (Магг, 1976; 1982). Его интересовали частные, с точки зрения когнитивного сообщества, аспекты моделирования процессов зрительного восприятия (см. 3.3.2) и работы

126

11 С еще большим основанием, впрочем, такую схему можно было бы назвать «фон-цузевской», по имени создателя первых программно управляемых вычислительных машин, немецкого инженера и математика Конрада фон Цузе. В период с 1938 по 1944 годы он спроектировал и построил целую серию вычислительных машин, длительное время остававшихся неизвестными научной общественности из-за секретного характера этих, проводившихся в Германии во время войны, работ.

нейронных сетей мозжечка. В своем «принципе модулярной организации» Марр предположил, что «любой большой массив вычислений должен быть реализован как коллекция частей, настолько независимых друг от друга, насколько это допускает общая задача. Если процесс не организован подобным образом, то небольшое изменение в одном месте будет иметь последствия во многих других местах. Это означает, что процесс в целом будет очень трудно избавить от ошибок или улучшить, как путем вмешательства человека, так и посредством естественной эволюции — ведь любое изменение, улучшающее один из фрагментов, будет сопровождаться множеством компенсаторных изменений в других местах» (Магг, 1976, р. 485).
Идея разбиения большого массива вычислений на относительно независимые автономные задачи, решаемые специализированными механизмами (подпрограммами или модулями) была очевидной для биологов и информатиков, но первоначально оставалась скорее малоубедительной для специалистов по когнитивной психологии, вполне удовлетворенных возможностями классической компьютерной метафоры. Кроме того, научная психология в целом, как мы видели в предыдущей главе, ориентируясь на опыт «больших сестер» — физики и химии, постоянно стремилась дать возможно более единообразное, или «гомогенное», объяснение частным феноменам и процессам (см. 1.3.2). Модулярный подход, напротив, постулирует нечто принципиально иное, а именно существование множества качественно различных ме- · ханизмов, обеспечивающих специализированные способы решения для разных групп задач.
Возможно, что именно из-за методологической установки на гомо
генизацию длительное время оставались незамеченными и данные
психодиагностических исследований интеллекта. Эти исследования,
по крайней мере, с начала 1930-х годов, сигнализировали об относи
тельно низкой корреляции способностей в таких областях, как, напри
мер, вербальный и практический интеллект (см. 8.4.3). Последователь
ное применение процедур факторного анализа по отношению к
индивидуальным результатам выполнения разнообразных когнитив
ных задач (тестов) привело уже в наше время к дальнейшему расщеп
лению списка способностей. Так, в одной из современных работ (мы
рассмотрим их позднее — см. 8.1.1) было выделено в общей сложности
52 способности, что отдаленно напоминает список из 37 способностей,
выделенных на основании сугубо спекулятивных соображений френо
логами еще в первой половине 19-го века (см. 2.4.3). Другим важным
различением в психометрических исследованиях интеллекта стала идея
о различии «кристаллизованного» (основанного на знаниях и устояв
шихся навыках) и «текучего» (основанного на абстрактных мыслитель
ных способностях) интеллекта. Это различение также в какой-то сте
пени предвосхитило современные попытки разделить когнитивные
процессы на специализированные (или модулярные) и более универ
сальные (центральные) системы.                                                                                          127

В порядке ретроспективного отступления можно отметить также, что представление об относительно узкой специализации различных когнитивных механизмов периодически возникало в истории психологии, в частности, оно было широко распространено в американской функционалистской психологии. Торндайк и Вудвортс еще в 1901 году подчеркивали: «Психика (mind) — это машина для осуществления специализированных реакций на конкретные ситуации. Она работает очень детально, адаптируясь к доступному ей опыту.. Улучшение одной из ментальных функций редко сопровождается сопоставимым улучшением других, независимо от того, насколько они между собой похожи, ибо функционирование каждой ментальной функции обусловлено специфическими особенностями конкретной ситуации» (Thorndike & Woodworth, 1901, ? 249—250). При желании, в этом описании можно легко усмотреть сходство с современными модулярными представлениями и даже с идеей функциональных систем («функциональных органов») отечественной психофизиологии (см. 1.4.2).
К середине 1980-х годов общая ситуация в когнитивных исследованиях восприятия и высших форм познания существенно изменилась. На смену эйфории, вызванной первыми успехами в создании компьютерных моделей человеческого интеллекта (типа «Универсального решателя задач» Ньюэлла и Саймона) или в выявлении очертаний архитектуры хранения информации в памяти человека (разделение кратковременной и долговременной памяти), пришло более или менее отчетливое понимание сложности исследуемых задач и разнообразия участвующих в их реализации психологических и нейрофизиологических механизмов. Стали отчетливо раздаваться голоса о новом (то есть третьем по счету) полномасштабном кризисе психологии (см. 2.3.3 и 9.1.1). Один из ведущих специалистов в области психолингвистики и мышления Филипп Джонсон-Лэйрд писал в эти годы: «Двадцать лет интенсивных исследований процессов переработки информации у человека еще не привели к формулированию их общих принципов. Более того, кажется, что эта задача вообще неразрешима. Что делать дальше?» (Johnson-Laird, 1978, р. 108).
На этом фоне неожиданно актуальной стала точка зрения самого инициатора когнитивного переворота в психологии и лингвистике Хомского. Согласно его мнению, таких «общих принципов», может быть, и не существует. Например, речевые процессы являются не только врожденными, но и «специальными» (или домено-специфическими domain-specific), в смысле их независимости как от когнитивных способностей в других столь же специальных областях, так и от интеллекта в целом. Аналогично, в исследованиях памяти было высказано сходное предположение, что долговременная память на самом деле не едина, а разделена, как минимум, на две автономные подсистемы — вербальную и образную (см. 5.3.1). Множество предположительно параллельных  подсистем обработки сенсорной информации было обнаружено при

психофизических и нейрофизиологических исследованиях восприятия, причем как в случае отдельных модальностей (зрение, слух и т.д.), так и субмодальностей, например, восприятия формы, пространственного положения или цвета объектов (см. 3.1.3). Все эти данные требовали совершенно других объяснительных схем.

2.3.2 Гипотеза модулярности: вклад Джерри Фодора

Последователь Хомского, видный американский лингвист и философ Джерри Фодор выступил в 1983 году с манифестом нового подхода к пониманию когнитивной архитектуры, названным им концепцией модулярности (Fodor, 1983). Фодор предположил, что «специальность» речи, о которой говорил Хомский, представляет собой не частный, а общий случай. Архитектура познания представляет собой, с этой точки зрения, скорее мозаику множества параллельных и относительно автономных в функциональном отношении процессов, а совсем не организованное в единый механизм целое. Как образно пишут в наши дни последователи этого подхода: «По-видимому, психика больше напоминает швейцарский офицерский нож, чем некий универсальный инструмент. Швейцарский нож "компетентен" в таком обилии ситуаций благодаря большому числу специализированных компонентов: штопор, ножик, открывалка, пинцет, ножницы — каждый из этих компонентов прекрасно приспособлен, но только для решения своих собственных задач» (Cosmidis & Tooby, 1994).
Базовая таксономия механизмов включает в себя, по Фодору, три уровня: так называемые «проводники» (transducers), системы входа и центральные системы. Под проводниками имеются в виду органы чувств, обеспечивающие преобразование физической информации на рецепторных поверхностях в некоторую первичную форму представления проксимальной стимуляции, с которой могут работать модулярно организованные перцептивные системы — системы входа. Функция систем входа заключается в вычислении параметров предметного окружения. С этими репрезентациями, в свою очередь, работают центральные системы, обеспечивающие функционирование высших когнитивных процессов, а именно формирование мнений и убеждений, принятие решений и планирование разумных действий. Таким образом, психика имеет смешанную архитектуру. Если вынести за скобки относящиеся к сфере интересов сенсорной физиологии проводники, то остаются лишь два уровня элементов. Системы входа (и, по-видимому, просто упущенные Фодором из вида «системы выхода» — механизмы контроля моторики, речевых артикуляций и т.п.) специализированы на эффективном решении ограниченного класса задач. Центральные системы, напротив, универсальны и «изотропны»: они допускают возможность использова-
129

ния и интеграции любого источника информации, построения любой мыслимой и, можно сказать, «немыслимой мысли».
Важное значение имеет тезис о том, что научная психология и, шире, когнитивная наука могут успешно заниматься исследованием исключительно модулярных компонентов познания. Препятствием для научного анализа центральных систем служит классическая проблема фрейма — невозможность фиксации какого-либо определенного контекста или конечного объема знаний, отслеживанием которых можно было бы ограничиться при анализе исследуемых феноменов12. В самом деле, такие центральные процессы, как формирование мнений и принятие решений, предполагают взвешенный, подчас многократный просмотр и пересмотр существующих сведений и возможных последствий предпринимаемых действий. Эти процессы принципиально отличаются от дедуктивного вывода, поскольку их результаты не следуют с необходимостью из посылок. Отсутствие ограничений на ассоциации, аналогии и субъективные предпочтения делает научное отслеживание и оценку функционирования центральных систем практически безнадежной задачей.
Тем большее внимание уделяется Фодором модулярным системам. Он сформулировал в общей сложности 8 критериев, или признаков, которые в совокупности позволяют идентифицировать когнитивные модули. К ним относятся:

  1. узкая специализация,
  2. информационная закрытость,
  3. обязательность,
  4. высокая скорость,
  5. поверхностная обработка,
  6. биологическое происхождение,
  7. селективность выпадений,
  8. фиксированность нейроанатомических механизмов.

Первым признаком модулярности является узкая специализация, или, другими словами, ограниченность области (или домено-специфич-ность — от англ. domain-specificity), в рамках которой этот гипотетический механизм получает необходимые для работы данные и обеспечивает вычисления, ведущие к определенному выводу. Фодор подчеркивает, что внутри широких областей, таких как зрение, слух или речь, имеются многочисленные подобласти, которые вполне могут анализироваться своими собственными подсистемами, например, в случае зрения — детекция края и движения, восприятие цвета, оценка бинокулярной дис-
12 Проблема фрейма впервые была сформулирована в работах по философским основаниям искусственного интеллекта и особенно интенсивно обсуждается сегодня в когнитивной роботике, где она связана с трудностями четкого ограничения подмножества знаний о мире, требующих пересмотра в связи с движениями и действиями робота в этом 130        мире (см. 9.2.2).

паратности и т.д. Некоторые сложные перцептивные функции, имеющие особое биологическое значение, такие как узнавание лиц или обработка звуков речи, также вполне могут быть основаны на работе собственных когнитивных модулей. Вместе с тем, специфичность области обработки недостаточна сама по себе для идентификации когнитивных модулей в смысле теории Фодора. Так, многие навыки, типа навыков вождения автомобиля, весьма специфичны, но едва ли можно предположить, что они обеспечиваются работой некоторого специализированного модуля (см. 5.4.2).
При всей осторожности, необходимой при оценке этого и других критериев модулярности, следует признать, что имеются некоторые удивительные примеры подобной специализации. Изучение одного из них — синдрома Уильямса — началось уже после публикации Фодора. Этот синдром возникает вследствие врожденного выпадения около 20 генов хромосомы 7, участвующей в кальциевом обмене и, по-видимому, в каких-то других, пока не вполне понятных процессах (см. 9.4.2). Дети с синдромом Уильямса часто демонстрируют абсолютный слух, а также нормальные или даже выдающиеся показатели речи при серьезном интеллектуальном отставании, с показателями IQ (коэффициента интеллекта) порядка 50—60% (рис. 2.8). Как пишет психолингвист Стивен Пин-кер, «Попросите нормального ребенка назвать нескольких животных,

норма
синдром Уильямса Ш-] синдром Дауна

JQ
150 -,


100 -


вербальный интеллект

невербальный интеллект

Рис. 2.8. Результаты тестов на вербальные и невербальные интеллектуальные способности у трех групп детей: контрольная группа нормальных детей, дети с синдромом Дауна и синдромом Уильямса (неопубликованные данные, с разрешения Department of Psychology, Emory University).

131

и вы получите стандартный список обитателей зоомагазинов и пригородных ферм: собака, кошка, лошадь, корова, свинья. Попросите об этом ребенка с синдромом Уильямса, и вы получите более интересный набор: единорог, птеранодон, як, ибекс, саблезубый тигр, коала, дракон и, к особой радости палеонтологов, бронтозаврус реке» (Pinker, 1994, р. 53). В одной из недавних публикаций итальянских нейропсихологов приводится случай 9-летнего мальчика с этим синдромом, который был лучшим в своем классе по развитию навыков чтения. В то же время интеллектуально он был так слаб, что играя в любимую игру — футбол, так и не мог понять разницу между своими и чужими воротами.
Второй признак модулярности — информационная закрытость соответствующих механизмов (Фодор использует более выразительный термин «инкапсулированность»). Лучше всего этот признак иллюстрируется хорошо известными оптико-геометрическими иллюзиями, такими как иллюзия Мюллера-Лайера (рис. 2.9). Выраженность этой иллюзии не меняется при полном знании о физическом равенстве центральных отрезков13, а значит, процессы восприятия оказываются когнитивно непроницаемыми для наших знаний о ситуации. Соавтор Фодора по ряду публикаций Зенон Пылишин считает когнитивную непроницаемость основным критерием анализа фиксированных компонентов архитектуры познавательных процессов. Для Фодора существенными являются и некоторые другие признаки. Третий признак в его классификации — это обязательный («мандатный») и баллистический характер модулярных процессов: если на входе некоего модуля оказывается соответствующая информация, то ничто уже не может остановить или изменить его работу. Так, если, открыв дверь, мы наблюдаем некоторую сцену, мы не в состоянии не увидеть ее или увидеть ее иначе, если нам не нравится то, что мы видим.
Перцептивные процессы и потенциально любые другие, модуляр-но организованные процессы переработки информации, с этой точки зрения, являются вычислительными рефлексами. Из этого, в частности, естественно следует четвертый признак: модули работают очень быстро. Пятый признак тесно связан с предыдущим и заключается в том, что результатом работы модулярных систем оказываются сравнительно поверхностные репрезентации, зачастую служащие лишь сырым материалом для дальнейшего использования центральными системами.
Три последних признака модулярности, описываемые Фодором, оказали в дальнейшем особое влияние на переориентацию всего комп-
13 Более того, как показали наблюдения одного из классиков гештальт-психологии Вольфганга Метцгера, иллюзорному искажению подвержены даже металлические балки (!), если они образуют соответствующую перцептивную конфигурацию (Metzger, 1941/ 2001) В последние годы были, впрочем, получены новые данные, описывающие условия, при которых данная и некоторые другие оптико-геометрические иллюзии не возни-132         кают (см. 3.4.1)



Рис. 2.9. Иллюзия Мюллера-Лайера — выраженный иллюзорный эффект сохраняется, несмотря на знание истинных размеров и наличие линейки.

лекса когнитивных исследований. Согласно шестому признаку, очень похожие когнитивные модули могут встречаться у представителей различных биологических видов. Седьмой признак заключается в том, что нарушения и распад работы некоторого модуля обнаруживают свою собственную картину симптомов и могут происходить на фоне полной сохранности других механизмов. В нейропсихологии соответствующая особенность организации мозговых процессов по сути дела давно предполагалась таким методическим приемом, как поиск двойных диссоциаций: выявления такой пары мозговых поражений, которые селективно вызывают один из двух контрастируемых неиропсихологических синдромов (см. 2.4.1). Не удивительно, что последним, восьмым признаком когнитивных модулей оказывается фиксированность их нейроанатоми-ческой локализации. В целом, эта группа признаков позволяет сделать дополнительный и, надо сказать, достаточно сильный (если не провокационный) вывод о врожденности модулярных компонентов когнитивной архитектуры.
Вызванные книгой Фодора дискуссии продолжаются в психологии и за ее пределами, не утихая, и по сегодняшний день. Оценивая эту работу, следует отдельно обсудить ее конкретные положения, часть из которых не выдерживает критики, и те, скорее неспецифические последствия, которые она имела для современных когнитивных иссле-

133

дований в целом. Конкретные положения действительно вызывают множество вопросов. Насколько правомерны, например, приписывание модулярных характеристик перцептивным «системам входа» и подчеркнуто «изотропная» интерпретация функционирования «центральных систем»?
Одной из базовых функций перцептивных механизмов (то есть «систем входа», по Фодору) является пространственная локализация объектов и самого наблюдателя. По ряду параметров процессы пространственного восприятия, однако, трудно отнести к типичным модулярным механизмам. Так, восприятие пространства связано с широкой интермодальный интеграцией сенсорной информации (зрение, слух, кинестезия, гаптика и т.д.) и сенсомоторных навыков, основанных на опыте активных локомоций и действий (см. 3.1.1 и 3.4.3). Далее, восприятие пространства оказывается чрезвычайно пластичным, способным корректировать драматические изменения сенсорной информации. Пластичность восприятия сохраняется и у взрослых индивидов, как это было показано в многочисленных экспериментах с адаптацией к искажающим изображение на сетчатке оптическим устройствам (см. 3.4.3). При этом может учитываться также и семантическая информация — на промежуточных этапах адаптации к переворачивающим ретинальное изображение линзам свечка, видимая сначала в перевернутом положении, иногда вдруг воспринимается правильно, если ее поджигают и пламя начинает указывать направление «вверх» (O'Reagan & Noe, 2001).
Обращаясь к центральным системам, можно, напротив, найти массу примеров отклонений от предполагаемой гомогенности («изотропности») высших когнитивных процессов. Лучше всего это иллюстрируют работы по нейропсихологическим механизмам социального интеллекта. Узкая функциональная специализация, типичная картина выпадения, известная как аутизм, и даже возможная узкая локализация мозговых механизмов, которые предположительно связаны с префронтальными областями коры (см. 8.1.1), — все эти признаки механизмов социального интеллекта вполне соответствуют их модулярной интерпретации. Следует сказать, что многочисленные последователи Фодора пытаются в последние годы модифицировать его исходную концепцию, причем главным образом путем распространения модулярного подхода на самые разные, в том числе на высшие познавательные функции (Cosmides & Tooby, 1994). На основании данных, полученных с помощью методов трехмерного мозгового картирования, распространенным становится представление о модулярной организации именно высших форм познания и контроля деятельности (см. подробнее 2.4.2, 4.4.2 и 8.2.3).
В следующих главах мы будем часто упоминать разнообразные специализированные механизмы познавательной активности и анализировать ведущиеся вокруг этого комплекса вопросов дискуссии. Широта и интенсивность споров демонстрируют тот факт, что публикации Фодора по модулярности спровоцировали настоящий всплеск интереса  (иногда, впрочем, с элементами протеста) к классическим проблемам
развития и мозговых механизмов познавательных процессов. Хотя соответствующие упоминания работ Выготского, Пиаже и Лурия давно уже стали в когнитивной психологии правилом хорошего тона, лишь с конца 1980-х годов интересовавшие этих авторов проблемы постепенно перемещаются в фокус внимания междисциплинарного научного сообщества когнитологов (см. 9.1.3 и 9.4.2). С этой точки зрения, поиск относительно автономных когнитивных модулей и их возможных нейрофизиологических механизмов действительно может считаться одним из числа наиболее влиятельных и интересных подходов в новейших исследованиях познания.

2.3.3 Нейронные сети в психологии

Другим влиятельным подходом в течение последних 20 лет стал так называемый PDP-подход (от paralleldistributedprocessing= параллельная распределенная обработка), широко известный также как коннекцио-низмн. И в этом случае речь идет об отказе от компьютерной метафоры в ее символьном варианте, связанном первоначально с логико-математическими работами Алана Тьюринга и Джона фон Неймана. Однако, если концепция когнитивных модулей Фодора и его последователей лишь допускает определенную параллельность обработки в каких-то звеньях когнитивной архитектуры, в коннекционизме параллельность обработки становится уже всеобщим принципом. Речь идет о массивной параллельности обработки — все элементы системы, интерпретируемой как обширная нейронная сеть, рассматриваются как потенциально связанные между собой и одновременно участвующие в формировании ответа на стимульную конфигурацию.
Типичная коннекционистская сеть показана на рис. 2.10. Наличие нескольких слоев элементов: входного и выходного слоя плюс не менее одного промежуточного (или «скрытого», от англ. hidden) слоя — отличительная черта современных коннекционистских моделей. Попытки демонстрации вычислительных возможностей сетей формальных нейронов предпринимались американскими нейрофизиологами Мак-Кал-локом и Питтсом еще в 1940-е годы. В последующие два десятилетия простые (один входной и один выходной слой) сети под названием «персептроны» использовались для машинного распознавания изображений, однако без особого успеха, так как оказалось, что они неспособны к строгой дизъюнкции («либо А» — «либо В») — логической операции, необходимой для различения состояний мира. Лишь в начале
14 Распространенный сегодня в психологии и за ее пределами термин «коннекцио-
низм» в историческом контексте впервые был использован Эдвардом Торндайком (на
пример, Thorndike, 1932) для обозначения его основанной на ассоциативных связях сти
мулов и реакций бихевиористской теории научения (см. 1.3.2 и 5.4.2).                                              135

1980-х годов было показано, что добавление по крайней мере одного «скрытого» слоя нейроноподобных элементов снимает эту проблему, позволяя осуществлять на базе параллельных архитектур весь спектр логических операций. В 1986 году Румелхарт и Макклелланд опубликовали двухтомную «библию» коннекционизма (McClelland & Rumelhart, 1986; Rumelhart & McClelland, 1986), содержащую, наряду с описанием формального аппарата моделирования, многочисленные примеры психологических и нейрофизиологических применений этого подхода.
Главное преимущество коннекционистских моделей по сравнению с традиционными когнитивными моделями — это возможность ассоциативного (контентно-адресованного) и распределенного хранения информации, а также, что особенно важно, адаптивного обучения. Первая особенность означает, что любой фрагмент первоначальной ситуации или любое сопутствующее обстоятельство способны ассоциативно поддержать припоминание. «Распределенным» хранение является потому, что его субстратом является в каждом конкретном случае не какой-то отдельный элемент, а сеть в целом, то есть состояния всех ее узлов и весовые коэффициенты их связей. Наконец, коннекционизм позволяет естественно описывать некоторые элементарные формы обучения. Процессы обучения в искусственных нейронных сетях имеют известную специфику, которая должна стать понятной из нижеследующих примеров. Простейшая, сугубо ассоциативная процедура обучения в нейронных сетях
активация на выходе


выходной слой

тренируемые связи

скрытый слой

входной слой

активация на входе

136

Рис. 2.10. Однонаправленная (feedforward) коннекционистская сеть, включающая скрытый слой элементов

восходит к классическим идеям проторения путей павловской физиологии и клеточных ансамблей Дональда Хэбба (см. 1.4.2).
В «Организации поведения» Хэбб (Hebb, 1949) предположил, что повторная стимуляция тех же рецепторов постепенно ведет к функциональному объединению нейронов ассоциативных областей мозга, так что этот клеточный ансамбль может сохранять активацию после окончания стимуляции и вновь возбуждаться при возникновении похожего узора стимуляции. В нейроинформатике используется следующее правило Хэбба: между всеми одновременно (синхронно) активированными нейронами (то есть элементами сети) снижаются пороги синаптических связей (повышаются весовые коэффициенты активационных связей). В результате многократных повторений распространение активации при возникновении на входе той же ситуации происходит быстрее, группа элементов, «ансамбль», активируется как целое, и, что важно, эта активация происходит даже при изменениях ситуации, например, выпадении каких-то компонентов изображения, а равно «отмирании» части «нейронов» самой сети. Тем самым удается моделировать особенности целостного восприятия, описанного гештальтпсихологией (см. 1.3.1). Подобная терпимость (graceful degradation) к искажениям на входе и к нарушениям механизма обработки информации разительно контрастирует с хрупкостью обычных символьных программ, где лишний пропуск или неправильно поставленная запятая способны остановить работу программы и даже самого компьютера. Кроме того, пластичность синаптических связей, лежащая в основе формирования ансамблей, позволяет дать физиологическое объяснение процессам обобщения (категоризации) отдельных стимульных ситуаций.
Недостатком описанного механизма самоорганизации нейронных связей является его чрезвычайно медленный, требующий сотен и тысяч повторений характер. В 1981 году немецко-американский нейрофизиолог К. фон дер Мальсбург предположил, что для объяснения одноразового обучения должны существовать быстрые синапсы, меняющие свои характеристики в ответ на однократное возникновение некоторой, обычно новой или значимой ситуации. Мальсбург назвал их «хэббов-скими синапсами». Такие синапсы действительно были обнаружены в последнее время и по предложению Нобелевского лауреата по биологии Фрэнсиса Крика иногда называются теперь «мальсбургскими». Мы подробнее остановимся на обсуждении этих нейрофизиологических механизмов в последующих главах, посвященных сознанию и памяти (см. 4.4.3 и 5.3.2).
Примером более эффективного компьютерного алгоритма обучения в самой нейроинформатике служит предложенный канадским информатикой Джеффри Хинтоном и его коллегами метод обратного распространения ошибки (backpropagation of error). В этом случае сети предъявляется некоторая конфигурация, а затем ответ на выходе сравнивается с идеальным, желаемым ответом. Результат подобного сравнения того, что должно быть (Sollwert), с тем, что есть (Istwert), вычисляется и пропускается затем в обратном направлении: от выхода сети к ее входному слою, причем на каждом промежуточном этапе осуществляются некоторые

коррекции весовых коэффициентов связей элементов с целью последующей минимизации рассогласования. Телеологизм этих процессов и необходимость эксплицитного надсмотра за обучающейся сетью порождают, с одной стороны, множество смутных психологических аналогий, а с другой стороны, известный скептицизм в оценке «обратного распространения» как подходящего средства моделирования когнитивных процессов. Дело в том, что «контролируемая минимизация рассогласования» оставляет сильное впечатление произвольного подбора желаемого результата15.
Ряд коннекционистских моделей использует обратные связи для повторного пропускания продуктов обработки через нейронную сеть. Это свойство, называемое рекуррентностью, позволяет обрабатывать конфигурации на входе в контексте предыдущих событий («прошлого опыта»). Два варианта рекуррентных сетей, использовавшихся для моделирования синтаксического анализа речи, показаны на рис. 2.11. Существует практически открытое множество других вариантов коммутации элементов, а также возможность соединения коннекционистских моделей с традиционными символьными архитектурами в рамках гибридных моделей, включающих как символические, так и коннекцио-нистские компоненты. Так, в литературе интенсивно обсуждается возможность существования разных нейролингвистических механизмов для работы с регулярными и нерегулярными глаголами (Pinker, 2000). В случае регулярных глаголов, склоняемых по определенным фиксированным правилам, в памяти могла бы сохраняться лишь корневая морфема, по отношению к которой осуществляются традиционные символьные трансформации (скажем, добавление «-ed» при переходе к прошедшему времени в английском языке). Работа с нерегулярными глаголами, напротив, требует заучивания индивидуальных паттернов (как в случае грамматических форм английского глагола «to be»: am, are, is, was, were). При моделировании такого, скорее механического, заучивания могли бы помочь нейронные сети (см. 7.1.3).
Коннекционизм не мог не вызвать острых научных дискуссий. Они возникли прежде всего с представителями символьного и модулярного подходов (Fodor & Pylyshin, 1988), для которых подобное применение идеи параллельности ведет слишком далеко, вплоть до отказа от основных принципов переработки символьной информации, выделенных к началу 1980-х годов. В самом деле, в распределенных архитектурах не выполняются основные логические требования к символьной записи информации, а следовательно, к коннекционистским репрезентациям не применимы средства исчисления предикатов (см. 2.3.3). Поэтому,
15 Вне психологии — нейроинформатика, компьютерное зрение и роботика — широко используются алгоритмы обучения нейронных сетей, не требующие внешнего надсмотра. Речь идет прежде всего о разновидности разработанных финским информатикой 138        Т. Кохоненом самоорганизующихся карт (self-organizingmaps).


-   контекстные нейроны ''
Рис. 2.11. Рекуррентные нейронные сети, применяющиеся для (А) моделирования построения форм прошлого времени английских глаголов и (Б) предсказания грамматической категории следующего слова в предложении (по: Cooper, 1996).
кстати, сами коннекционисты говорят об изучении субсимвольных процессов. Для некоторых видных психологов и лингвистов (например, Levelt, 1990) попытки моделирования познания с помощью обучающихся искусственных нейронных сетей представляют собой лишь слегка осовремененную редакцию упрощенных ассоцианистских взглядов. Интересно, что слабые и сильные стороны более традиционных символьных и относительно новых коннекционистских моделей различаются между собой. Символьные программы относительно удобны при реализации эксплицитных правил и практически беспомощны в области интуитивных достижений, таких как разделение сцены .на фигуру и фон в процессах зрительного восприятия (см. 1.3.1 и 4.3.3). Искусственные нейронные сети, напротив, впервые позволили легко смоделировать эффекты перцептивной организации и, скажем, эффекты ассоциативного обучения и запоминания, но они плохо, путем многочисленных повторных приближений справляются с выделением, казалось бы, совсем простых правил. Это позволяет предположить, что наиболее вероятным будущим в области моделирования познавательных возможностей человека и животных станет использование интегральных или гибридных архитектур, сочетающих достоинства символьного и субсимвольного подходов (и, будем надеяться, свободных от их недостатков!).

Одним из самых первых примеров интегрального подхода, заполняющего брешь между субсимвольными и символьными репрезентациями,

139

являются работы ученика Румелхарта Пола Смоленского (Smolensky, 2005). Использовав математический аппарат тензорного исчисления, он доказал принципиальную возможность построения коннещионистско-символъных когнитивных архитектур (ICS = Integrated Connectionist/ Symbolic), в которых свойства символьных преобразований реализуются
1                                                                            на макроуровне описания, тогда как на микроуровне ментальные репре-
зентации описываются как массивно-параллельные процессы распространения волн активации по нейронным сетям. Этот подход был применен Смоленским и его коллегами в области теоретической лингвистики, где они, прежде всего, попытались объяснить разнообразные феномены маркированности — использование специальных лингвистических средств для выражения относительно нетипичных (или «менее гармоничных») в данном контексте языковых конструкций (см. 7.3.2 и 8.1.2). Несмотря на то, что их реализация осуществляется посредством нейро-сетевых механизмов, подобные «гармоничные грамматики» способны, по мнению Смоленского, полностью заменить генеративные грамматики при описании общих принципов функционирования языка. Процесс порождения речевых звуков (модель относится пока преимущественно к сфере фонологии речи — Prince & Smolensky, 1997) описывается при этом как оптимизация решения, удовлетворяющая нескольким гетерогенным правилам, таким как запрет на возникновение последовательностей из большого числа согласных звуков (см. 7.1.1).
В столь динамичной области, как когнитивная наука, трудно предсказывать будущее развитие событий. В рамках работ по вычислительной нейронауке (нейроинтеллекту) и эволюционному моделированию в последнее время начинают рассматриваться более реалистичные, с биологической и биофизической точки зрения, альтернативы искусственным нейронным сетям (такие как самоорганизующиеся карты, клеточные автоматы и, в отдаленной перспективе, квантовые компьютеры — см. Doyle, 2003; O'Reilly & Munakata, 2003). При увеличении объема мозга в процессе эволюции исходный сетевой принцип «всё связано со всем» перестает выполняться, возникают элементы модулярной макроорганизации (Striedter, 2004). Кроме того, при моделировании познания до сих пор практически никак не учитывалась роль нейро-трансмиттеров, химических передатчиков сигналов между нейронами и модуляторов их активности. Диффузное, не ограниченное одним лишь преодолением синапсов действие нейротрансмиттеров может, лежать в основе регуляции эмоциональных состояний и интеграции нейронов в сложные самоорганизующиеся системы. Последнее представляется очень существенным — ведь целостный мозг демонстрирует не только способности решения тех или иных узкопознавательных задач, но и множество других биологически и социально необходимых функций, в частности, связанных с эмоциями и мотивированным поведением (см. 2.4.3 и 9.4.3).
140

2.4 Усиливающееся влияние нейронаук
2.4.1 Интерес к нейропсихологическим данным

Глобальная тенденция, ярко выступившая в течение последнего десятилетия 20-го века, связана с ростом интереса к мозговым механизмам — реальной архитектуре познавательных процессов. Возникновение когнитивного подхода многие психологи восприняли первоначально как освобождение от (пусть часто лишь декларируемой) необходимости интересоваться мозговым субстратом и возможными нейрофизиологическими механизмами тех или иных познавательных процессов. Если уподобить психику компьютерным программам, то очень важно, что одна и та же программа может быть запущена на разном «хардвере» — на различных реализациях машины Тьюринга. Есть, следовательно, известная независимость программного обеспечения, или «софтвера», от машинного субстрата. Суть ранней компьютерной метафоры состояла в предположении о том, что психика относится к мозгу так же, как программа относится к машинному субстрату. Компьютерные программы в качестве психологической теории позволяют интерпретировать наблюдаемые в исследованиях эффекты, «не дожидаясь — по словам Найссера — пока придет нейрофизиолог и все объяснит» (см. 2.3.2).
В 1982 году Дэвид Марр (Магг, 1982), изучавший сенсорные механизмы зрительного восприятия и координации движений, сформулировал альтернативный методологический принцип, предполагающий одновременный анализ как биологических, так и искусственных систем переработки информации на трех уровнях их описания:

  1. общий функциональный анализ решаемых системой задач;
  2. алгоритмическое описание выполняемых операций;
  3. анализ воплощения этих алгоритмов на конкретном субстрате, или
    «хардвере».

В последующие годы с появлением множества нестандартных архитектур в коннекционизме и, в особенности, в связи со спекуляциями о мозговой локализации тех или иных «когнитивных модулей» естественно стал возникать вопрос о том, как эти гипотетические механизмы реализованы на самом деле. Требование Марра к доведению анализа до уровня нейрофизиологического «воплощения» постепенно стало если не необходимым, то во всяком случае желательным элементом любого претендующего на научную полноту когнитивного исследования.
Все это, наряду с наметившимися трудностями проверки формальных моделей (см. 9.1.2), привело к настоящему всплеску интереса к нейропсихологическим данным о нарушениях и мозговых механизмах познавательных процессов. Изменился и сам характер когнитивных исследований, которые в значительной степени опираются сегодня на данные нейропсихологических и нейрофизиологических работ. Поэтому общие очертания многих моделей познавательных процессов в нача-



Рис. 2.12. Новая метафора когнитивных исследований: А. Левое полушарие коры с обозначением долей: (1) фронтальных, (2 теменных, (3) затылочных и (4) височных; Б. Продольный разрез мозга, позволяющий увидеть некоторые субкортикальные структуры, такие как таламус и средний мозг.
ле 21-го века напоминают рис. 2.12. Напротив, начиная с 1990-х годов ослабло влияние собственно компьютерной метафоры и машинных (или машиноподобных) моделей. В связи с этим развитием в психологических работах стали использоваться анатомо-физиологические термины, в частности, для обозначения локализации возможных мозговых механизмов: антериорные (передние), постериорные (задние), дорзаль-ные (расположенные в верхней части коры), вентральные (в нижней ее части), латеральные (на боковой поверхности), медианные (вблизи разделяющей кору на два полушария продольной борозды). Типичным стало и упоминание долей коры головного мозга: фронтальных (лобных), темпоральных (височных), париетальных (теменных), окципитальных (затылочных), а также и более локальных их областей16.
Традиционным нейропсихологическим подходом является выделение разнообразных синдромов — систематического сочетания отдельных симптомов нарушения поведения и работы мозга. Значение синдромного анализа двояко. Во-первых, он позволяет относительно упорядочить материал клинических наблюдений, главным образом, поведенческих коррелятов локальных поражений мозга. Во-вторых, он дает возможность, хотя бы в самом первом приближении, опреде-

142

16 В этой книге при упоминании различных долей коры используются принятые в русскоязычной литературе термины с одним исключением — вместо термина «лобные доли» мы вынуждены чаще использовать международный термин «фронтальные доли». Это связано с тем, что вслед за упоминанием общего региона сегодня часто приходится вводить дальнейшие уточнения локализации, такие как «префронтальные» или «фронтополяр-ные» структуры (см. 4.4.2). Соответствующих производных от прилагательного «лобные» не существует.

лить области мозга, ответственные за те или иные функциональные проявления — речь (синдромы афазии), память {амнезия), восприятие (агнозия), программирование и реализацию действий (апраксия) и т.д. Некоторые из числа наиболее известных синдромных нарушений приведены в таблице 2.1.
Таблица 2.1. Наиболее известные синдромы клинической нейропсихологии

Синдром

Область нарушений

Речевые процессы (см. 7.1.3 и 7.3.3)

Афазия Брока

Произношение и грамматическая правильность речи

Афазия Вернике

Понимание речи, использование подходящих слов

Проводниковая афазия

Повторение услышанных (и понятых) слов и предложений

Аномия

Нахождение слова в памяти

Словестная глухота

Узнавание слова на слух и его повторение

Алексия/Дислексия

Чтение, понимание и повторение написанного

Аграфия

Различные аспекты навыка письменной речи

Другие символические координации

Акалькулия

Математические способности, счет в уме

Восприятие и сенсомоторные процессы (см. 3.3.1 и 3.4.2)

Агнозия

Узнавание предметов в той или иной модальности

Прозопагнозия

Зрительное узнавание лиц

Апраксия

Произвольные движения и сенсомоторные навыки

Внимание (см. 3.4.2 и 4.4.3)

Синдром Балинта

Интеграция локальных впечатлений в целостный образ

Игнорирование полупространства

Внимание к предметам, латерализованным в пространстве

Память (см. 5.1.1 и 5.3.2)

Амнезия

Процессы произвольного припоминания и узнавания

Мышление и планирование деятельности (см. 4.4.2, 5.2.3 и 8.1.3)

Лобный/Дезэкзе-кутивный синдром

Произвольный контроль действий, достижение целей, а также их смена в случае изменения обстоятельств


Несколько иная стратегия исследований связана с анализом отдельных случаев, когда в первую очередь подчеркивается индивидуальная картина нарушения и личности пациента, а не то общее, что роднит данный случай с множеством аналогичных, как при описании обобщенных синдромов. Настоящим мастером анализа отдельных случаев был А.Р. Лурия. Этот жанр чрезвычайно распространен и в современной когнитивной науке, особенно в работах известного американского нейро-психолога Оливера Закса (например, Sacks, 1995). Наконец, третья стратегия исследований, называемая методом двойных диссоциаций, состоит в поиске таких пар отдельных случаев (или, если повезет, синдромов), которые представляют собой как бы зеркальную картину друг друга.
В связи с тем, что поиск двойных диссоциаций — это весьма распространенная стратегия в современных когнитивных исследованиях, остановимся на ней несколько подробнее. Этот прием предназначен для контроля правильности интерпретации отдельных случаев. Рассмотрим конкретную проблему. В последние годы описано несколько случаев пациентов с интересной формой семантической агнозии. Эти пациенты способны узнавать и семантически классифицировать неодушевленные предметы, но испытывают сильные затруднения в узнавании живых существ. Можно ли на основании этих данных сделать вывод о том, что семантическая память и ее мозговые механизмы разделены на две подструктуры по принципу живой—неживой? Очевидно, такой вывод был бы преждевременным, поскольку узнавание живых существ может быть просто более сложным процессом, превышающим ослабленные познавательные возможности пациентов с поражениями мозга. Поэтому если бы удалось найти двойную (парную) диссоциацию — один или более случаев сохранного узнавания живых существ и трудностей с узнаванием неодушевленных предметов, то о возможном расщеплении механизмов семантической памяти можно было бы говорить с большей степенью определенности (см. 6.1.3).
Первоначально в когнитивной психологии роль нейропсихологи-ческих данных была связана с обсуждением отдельных, особенно ярких клинических случаев. Однако вскоре стало ясно, что они могут играть важную роль и при проверке справедливости некоторых, подчас весьма общих психологических теорий. Так, Т. Шаллис и Э. Уоррингтон (Shallice & Warrington, 1970) описали пациента, у которого есть долговременная, но нарушена кратковременная память. Существование такого нарушения означает, что едва ли может быть правильной распространенная в когнитивной психологии трактовка запоминания, в которой информация, чтобы попасть в блок долговременного хранения, обязательно должна пройти через блок кратковременной памяти (см. 5.2.1).
Аналогично и несколько ранее А. Р. Лурия (1968) описал знаменитого мнемониста Ш., исследования памяти которого заставляют усомниться в том, что способности к кратковременному запоминанию всегда ог-144

раничены «магическим числом» Миллера17. На самом деле, между кратковременной и долговременной памятью Ш. не было большого различия (см. 5.1.1). Следует заметить, что описание личности и специфических возможностей (а также ограничений) памяти, восприятия и мышления Ш., конечно же, не было «клиническим случаем» в прямом смысле этого слова, однако по характеру анализа оно остается одним из лучших исследований нейропсихологического типа (casestudy, Einzelfallanalyse) в мировой научной литературе.
С возникновением гипотезы модулярной организации познания (см. 2.3.2) в середине 1980-х годов нейропсихологическим данным как таковым начало уделяться повышенное внимание. Более того, многие модели познавательных процессов стали в явном виде строиться как нейрофизиологические модели, причем не только нормального, но и аномального функционирования мозга. Серьезной проблемой на этом пути оказался неэкспериментальный, корреляционный характер ней-ропсихологических данных. Всякое мозговое поражение — это своего рода уникальный «эксперимент природы». У клинического нейропси-холога нет возможности выполнить требования, необходимые для подлинного эксперимента: произвольно воспроизводить поражение или создать контрольную ситуацию, которая бы отличалась от исходной исключительно фактом данного поражения. Поэтому в случае клинических данных всегда остается вероятность того, что наблюдаемая картина в какой-то степени обусловлена особенностями, сложившимися еще до возникновения патологических изменений.
Конечно, если бы было возможно временно «выключать» и затем «включать» без каких-либо последствий отдельные мозговые структуры или, быть может, даже «видеть» их функционирование по ходу нормального решения задач, то можно было бы надеяться на получение значительно более надежных и общих результатов, чем при анализе клинических данных. Такие методы действительно появились в течение последних 10—15 лет, став особенно мощным стимулом нейропси-хологической и нейрофизиологической переориентации заметной час-
17 Об этом же могут говорить наблюдения канадского нейрохирурга У. Пенфидда, раз
дражавшего во время операций на мозге различные участки коры бодрствующих пациен
тов. Примерно в 40 случаях (из 520) электрической стимуляции нижних височных облас
тей возникал своеобразный феномен, названный «вспышками пережитого». Они пред
ставляли собой живые зрительные и слуховые образы, которые всегда переживались па
циентом как воспоминания из его далекого прошлого, а не актуальные события. Ни в
одном из описанных случаев не наблюдалось обратного течения событий или пересече
ний воспоминаний из различных периодов жизни пациента. Воспоминания прекраща
лись с остановкой стимуляции, но иногда могли быть возобновлены с прерванного мо
мента при повторном раздражении той же точки коры. При интерпретации этих данных
возникают трудности, связанные прежде всего с идентификаций сообщений как аутен
тичных переживаний из прошлого пациента. Возможно поэтому наблюдения Пенфидда
уже около 50 лет остаются непроверенными другими авторами.                                                       145

ти современной научной психологии и когнитивных исследований в целом. Речь идет о создании и начавшемся широком применении новых методов трехмерного картирования мозга и его функциональных состояний {brainimaging). Разработка этих методов была отмечена в 2003 году присуждением Нобелевской премии. Мозговое картирование используется сегодня как в клинических, так и в чисто исследовательских целях, в частности, во все большем числе относительно традиционных психологических экспериментов, проводимых с обычными испытуемыми.
2.4.2 Новые методы и старые проблемы
Вплоть до самого последнего времени существовали две основные группы методов изучения нейрофизиологических механизмов invivo: анализ ЭЭГ и микроэлектродное отведение активности отдельных нейронных структур. Первая группа методов использует регистрацию интегральных электрических ритмов мозга, или электроэнцефалограммы (ЭЭГ). Это делается с помощью внешних, наложенных на кожу головы испытуемых электродов и не требует при использовании соответствующих усилителей сигнала создания особых условий, выходящих за рамки обычного лабораторного окружения. Вместе с тем, как правило, картина регистрируемых колебаний столь зашумлена, что по ней невозможно прямо судить о влиянии отдельных экспериментальных переменных, а лишь о глобальных стадиях изменения функциональных состояний, таких как бодрствование или сон. Поэтому в когнитивных исследованиях получила распространение модификация, известная как метод регистрации вызванных потенциалов мозга (ERPsevent-relatedpotentials).
В этом случае предъявление стимула многократно повторяется, а затем сегменты записи ЭЭГ, синхронизированные с моментом отдельных предъявлений, накладываются друг на друга и суммируются. Случайные, разнонаправленные колебания компенсируют друг друга, и вырисовывается электрический ответ коры мозга на само стимульное событие. Этот ответ демонстрирует ряд характерных особенностей, например, негативное отклонение потенциалов через 100—200 мс после предъявления (этот пик в картине вызванных потенциалов получил название N1) и положительное отклонение примерно через 300 мс (РЗ). По расположению и амплитуде этих отклонений, несколько отличающихся в случае разных областей коры и для разных модальностей стимуляции (рис. 2.13), можно в определенной степени судить о временной развертке процессов переработки информации. Данный метод позволил подойти к решению некоторых фундаментальных проблем когнитивной психологии. Так, сравнение вызванных потенциалов на акустические стимулы в условиях направленного внимания и при его отвлечении показало, что внимание усиливает компоненты вызванных 146       потенциалов уже через 40—60 мс после стимульного события (Woldorff

-10

-0,2

0,6

0,2       0,4 Секунды


Рис. 2.13. Типичная картина вызванных потенциалов мозга (А) и подготовка эксперимента по регистрации электрической активности мозга в процессах социального взаимодействия (Б).

et al., 1993). Очевидно, это важный аргумент в пользу гипотезы так называемой ранней селекции в спорах сторонников различных моделей селективного внимания (см. 2.2.1 и 4.1.2).
Недостатком, ограничивающим применение ЭЭГ в ее различных вариантах, является низкое пространственное разрешение, а также то обстоятельство, что при этом методе регистрируются электрические изменения на поверхности, а не в глубине мозга. Метод микроэлектродного отведения активности — второй классический метод нейрофизиологического анализа — чрезвычайно точен, позволяет работать с отдельными нейронами или группами нейронов, которые расположены в любых, в том числе глубинных отделах мозга, но его применение трудоемко и, по понятным причинам, ограничено почти исключительно экспериментами на животных. Несмотря на выдающиеся результаты, полученные, например, в исследованиях зрительной сенсорной обработки (см. 3.3.2) и памяти (см. 5.3.2), значение этого метода непосредственно для когнитивных исследований относительно невелико.
Предпосылки для современных методов трехмерного картирования работы мозга были созданы благодаря компьютерным программам, обеспечивающим реконструкцию объемной пространственной модели регистрируемых процессов. Наиболее известным из числа этих новых методов до сих пор является позитронно-эмиссионная томография {ПЭТ-сканирование). Неприятной особенностью этого метода является необходимость введения в кровь радиоактивного раствора. Когда в ходе решения задач та или иная область мозга становится активной, радиоактивное вещество поступает вместе с усилившимся кровотоком к соот-

147

ветствующим регионам. Для экспериментов выбираются относительно неустойчивые изотопы, и в этих регионах мозга усиливаются процессы радиоактивного распада. Выделяющиеся в результате положительно заряженные частицы — позитроны — практически сразу же аннигилируют с электронами. При этом образуются два разлетающихся под углом 180° друг к другу фотона. Эти последние и регистрируются датчиками; расположенными вокруг головы испытуемого. Метод обеспечивает довольно высокое пространственное разрешение, порядка 3—4 мм. Однако его временное разрешение мало — в лучшем случае оно составляет примерно одну минуту, что не позволяет отслеживать сколько-нибудь быстрые когнитивные процессы. Тем не менее с помощью ПЭТ-скани-рования были получены фундаментальные результаты, в особенности относящиеся к мозговой локализации различных систем памяти и даже личности (Craik et al., 1999).
Во многих отношениях значительно более совершенным методом картирования является ядерная магниторезонансная томография (МРТ). Этот метод делает возможной очень точную (до I мм) и довольно быструю, по сравнению с ПЭТ, регистрацию. Кроме того, он неинвазивен, то есть не связан с нарушением целостности тканей организма, например, введением в кровь каких-либо субстанций. Его физической основой является эффект излучения радиоволн определенной частоты отдельными атомами, находящимися в переменном магнитном поле, которое создается расположенным вокруг испытуемого магнитом весом более 10 тонн. В экспериментальной психологии данный метод используется в варианте функциональной МРТ (фМРТ), когда определяется количество кислорода в крови (а именно в молекуле гемоглобина)18. Этот показатель интенсивности метаболических процессов коррелирует с активностью нейронов в соответствующих областях мозга. Недостатком фМРТ является все-таки слишком низкая временная разрешающая способность, позволяющая, в лучшем случае, различать события продолжительностью не менее одной секунды19. Тем не менее это, несомненно, самая лучшая на сегодняшний день методика мозгового картирования. Насколько можно судить по стремительно накапливающимся данным, фМРТ часто подтверждает и значительно уточняет результаты ПЭТ-сканирования.
18    Модификация фМРТ — метод DTI (DiffusionTensorImaging), позволяющий от
слеживать процессы миелинации аксонов, то есть изменения объема и распределения
белого вещества мозга (см 9.4.2), начинает широко использоваться в нейропсихоло
гии развития.
19     В последнее время появились первые работы, направленные на использование фМРТ
для регистрации изменений магнитного поля, вызванных непосредственно нейронной
активностью. Временное разрешение увеличивается при этом на порядок. В сочетании с
параллельной регистрацией ЭЭГ можно надеяться получить в ближайшем будущем еще
более высокое разрешения — до 1 мс. В отдельных случаях делаются попытки совмеще
ния фМРТ с регистрацией движений глаз испытуемого, что также обеспечивает лучший
148        тайминг событий.





Рис. 2.14. Визуализация данных фМРТ в задаче припоминания географических названий.

На рис. 2.14 показано зарегистрированное с помощью этого метода изменение активности различных участков коры испытуемого, пытающегося вспомнить название столицы Южной Кореи. Особенно сильно выраженный участок активации в префронтальных областях левого полушария может интерпретироваться как типичное проявление интенции на воспроизведение информации из безличной семантической памяти (при попытках припоминания автобиографических сведений активация наблюдается в правых префронтальных структурах — см. 5.3.2). Одновременная активация заднетеменных областей коры свидетельствует о том, что эта задача, по-видимому, решается при помощи фоновых координации, связанных с мысленным просмотром пространственных репрезентаций, или «когнитивных карт» (см. 6.3.1).
Как мы отмечали выше, магнитные поля могут использоваться не только для диагностики, но и для активного изменения динамики физиологических процессов. Для этого применяются мощные магнитные воздействия, которые ведут к кратковременному нарушению работы определенных участков мозга. Сам этот метод получил название трансчерепной магнитной стимуляции, или ? MC {transcranial magneticstimulation, TMS). Один из интереснейших результатов, полученных с помощью данного метода, явно противоречит предсказаниям и духу концепции модулярности Фодора (см. 2.3.2). Оказалось, что затылочные (то есть с анатомической точки зрения зрительные) отделы коры слепых испытуемых постепенно меняют свою специализацию и принимают на себя часть функций по переработке тактильной информации. Они не только систематически активируются в случае тактильных за-

149

дач, но их временное «выключение» ведет к возникновению ошибок узнавания воспринимаемых на ощупь объектов, например, при чтении шрифта Брайля.
Одним из самых мощных методов современной когнитивной нейронауки является магнитоэнцефалография (МЭГ). В ней применяется регистрация магнитных полей, сопровождающих активность нейронов. Поскольку эти эффекты примерно в 100 млн. раз слабее фонового магнитного поля Земли, их регистрация чрезвычайно трудоемка и требует использования специальных сверхпроводниковых детекторов (superconducting quantum interference devices — SQUIDs). Это самый быстрый из всех неинвазивных методов, конкурирующий даже с микроэлектродным отведением. МЭГ с успехом используется для уточнения функции отдельных регионов мозга, а также для описания временной развертки активации. Так, с ее помощью было установлено, что зрительные поля V5, участвующие в переработке информации о движении, включаются в работу через 20—30 мс после активации первичных зрительных полей VI (Andersen et al., 1997). К сожалению, МЭГ имеет слабое пространственное разрешение, поэтому обычно ее применяют в сочетании с фМРТ. Для проведения подобных исследований нужно участие междисциплинарного коллектива в составе физиков, психологов, нейрофизиологов и медиков, владеющих навыками работы с дорогостоящей физической аппаратурой, способных интерпретировать получаемые данные и объяснять их друг другу20.
Стоимость необходимой технической инфраструктуры и уникальная квалификация сотрудников — не единственная проблема мозгового картирования. Большинство этих методов основано на регистрации метаболических процессов, лишь сопутствующих собственно нейрофизиологической активности. Характер этой связи не всегда понятен в деталях. Далее, получаемая информация, давая трехмерную модель активированных областей, обычно ничего не говорит о взаимоотношениях между этими областями в процессе решения задачи. В этом смысле известные преимущества имеет классический метод ЭЭГ, так как он дает возможность определять корреляцию (когерентность) колебаний электрических потенциалов в различных областях поверхности коры и, таким образом, судить о типе взаимоотношений этих областей. Наконец, серьезные сомнения начинает вызывать так называемая процедура вычитания, с которой практически всегда связано использование мозгового картирования
20 В настоящее время апробируется так называемая оптическая томография, при которой применяется близкое к инфракрасной зоне спектра световое облучение {NearInfra-RedSpectroscopy, ? 1RS). Хотя значительная часть фотонов поглощается при этом тканями кожи, черепа и мозга, некоторая часть выходит наружу, что позволяет судить о состоянии активации нейронных структур и степени кровенаполнения. По-видимому, речь идет о создании аналога фМРТ, но более дешевого и удобного в применении. Ведется работа и над простыми акустическими методами мозгового картирования, использующими для оп-150        ределения скорости кровотока эффект Допплера.

в экспериментальных исследованиях. При этом из картины активации мозга в экспериментальном условии вычитается картина активации в контрольном или некотором другом референтном условии.
Так, чтобы узнать, в чем состоит особенность нейрофизиологических механизмов семантической обработки материала по сравнению с перцептивной обработкой, из результирующего «образа активации» в задаче на семантическую категоризацию вычитается «образ активации» в задаче на анализ перцептивных признаков материала. При этом, естественно, все области мозга, которые были примерно одинаково активированы в обеих задачах, выпадают из рассмотрения. Но что если активированные области — это не просто мозаика независимых друг от друга модулей и целое в работе мозга, как подчеркивали гештальтпсихологи, всегда «больше суммы своих частей»? Тогда процедура вычитания может не только не помочь, но даже осложнить интерпретацию полученных данных. В формальном отношении это старая проблема, которая впервые возникла в 19-м веке в связи с дискуссиями, развернувшимися в связи с методом вычитания Дондерса (см. 1.2.1 и 2.2.3). Наметившееся решение применительно к методикам трехмерного мозгового картирования заключается в использовании статистических процедур факторного анализа, выявляющих информацию о взаимодействии (обычно в форме корреляций) процессов активации различных структур мозга.
Перед тем как перейти к рассмотрению нового поколения теоретических моделей когнитивной психологии, необходимо упомянуть еще одну группу методов, использование которых становится обязательным атрибутом все большего числа исследований. Речь идет о регистрации движений глаз, основанной на быстрой обработке видеоизображений. Хотя история анализа движений глаз насчитывает более 100 лет, значительная часть ранних работ была направлена на классификацию типов движений глаз и на описание их биомеханических характеристик. Безусловно релевантными для психологии были лишь исследования чтения и зрительного поиска. Они позволили описать характерный узор очень быстрых саккадических движений и относительно неподвижных фиксаций, а также выявить то обстоятельствог что глазодвигательная активность обычно несколько опережает все формы отчета (включая интроспекцию!) о выполняемой деятельности (см. 3.4.1).
В конце 1960-х годов широкую международную известность получили работы отечественных исследователей, прежде всего биофизика А.Л. Ярбуса (1965). Он продемонстрировал выраженную зависимость траектории движений глаз при рассматривании сложных осмысленных изображений от стоящей перед субъектом задачи. Насколько всеобщим было восхищение результатами Ярбуса, настолько незначительным оказалось желание их повторить. Дело в том, что его методика была основана на использовании резиновой присоски с укрепленным на ней зеркальцем (позднее радиоантенной). Присоска ставилась непосредственно на поверхность (склеру) глаза испытуемого, голова которого жестко фиксировалась в металлической рамке. Часто испытуемый еще       151

должен был в течение эксперимента держать прикушенной специальную соединенную с рамкой и вылитую по форме его зубов пластиковую пластину. Такой эксперимент мог продолжаться не более нескольких минут, обработка же данных занимала недели и месяцы.
Ситуация стала быстро меняться в середине 1990-х годов, когда началось гражданское использование технологии автоматического наведения ракет по видеоизображениям цели и ее непосредственного окружения. При регистрации движений глаз роль отслеживаемой «цели» выполняют зрачки, снимаемые в инфракрасном, остающемся невидимым для испытуемого свете быстрыми (с частотой смены кадра до 500 Гц) и очень маленькими (примерно 5 мм) телекамерами. Одновременно таким же образом регистрируются движения головы. Объединение информации о положении головы и зрачков позволяет чрезвычайно быстро (с задержкой в несколько миллисекунд) определять абсолютное направление взора в окружающем пространстве. Эти новые методы могут быть совершенно бесконтактными (камеры устанавливаются только в окружении, например, монтируются над компьютерным монитором). Они также позволяют испытуемому одновременно с регистрацией в известных пределах двигать головой, взаимодействовать с техническими устройствами и общаться с другими людьми (рис. 2.15).
Значение этих методов выходит за рамки исследований собственно зрительного восприятия, поскольку направление взора служит наиболее надежным и практически мгновенным индикатором положения фокуса внимания, а следовательно, и выполняемых действий (см. 4.1.1). Кроме того, продолжительность зрительных фиксаций и общее время пребывания взора в определенной области окружения позволяют судить о характере и уровне обработки информации (Vehchkovsky, 1999). Существенно, что данные о направлении взора и окуломоторных собы-


инфракрасная видеокамера

компьютер

152

Рис. 2.15. Бесконтактная методика регистрации движений глаз А — инфракрасное освещение, выделяющее зрачки для компьютерной видеообработки и слежения, Б — возможное расположение аппаратуры (по Joos, Rotting & Vehchkovsky, 2003)

тиях, включающих саккады и моргания, обрабатываются за сотые доли секунды. Это дает возможность менять параметры ситуации прямо по ходу эксперимента, в зависимости от параметров движений глаз (gaze-contingentexperiments). Более того, специальные процедуры, близкие коннекционистским моделям, делают возможным по узору саккад и фиксаций идентифицировать намерения человека, что необходимо для адаптивной поддержки операторов сложных технических систем (см. 2.1.2 и 7.4.3). Если мозговое картирование радикально изменило характер работ в области нейропсихологии, регистрации движений глаз, судя по всему, предстоит революционизировать многие практические приложения когнитивных исследований.

2.4.3 Нейробиологические модели познания
В потоке новых данных, порожденных использованием методов трехмерного картирования мозга, стало не всегда просто узнавать аналоги традиционных психологических понятий и те компоненты ранних когнитивных моделей, которые строились на базе традиционной компьютерной метафоры. Даже если пытаться и далее описывать мозг как машину, занимающуюся вычислениями, ясно, что это машина совершенно другого рода, чем все известные нам на сегодняшний день рукотворные технические устройства. Главное отличие состоит, несомненно, в эволюционном и онтогенетическом развитии, а также в обилии элементов — по некоторым данным общее число нейронов головного мозга превышает 100 миллиардов, число же их специализированных соединений, синапсов, оказывается на два-три порядка больше (см. 9.4.2). Все это ведет к массивной параллельности нейрофизиологических процессов, сочетающейся, впрочем, с определенной анатомической дискретностью и функциональной специализацией мозговых структур.
Многие авторы пытались дать описание такой глобальной специа
лизации. Одним из самых известных примеров служит схема А. Р. Лурия
(1975), в которой выделено три основных функциональных блока мозга.
Так называемый энергетический блок (стволовые отделы мозга, древняя
кора и медиобазальные отделы лобной коры) обеспечивает длительное
бодрствование и осуществление форм деятельности, требующих кон
центрации внимания. Второй блок (задние височные и теменно-заты-
лочные отделы коры) обеспечивает получение, переработку и хранение
информации. Это гностический или познавательный блок. Наконец,
третий, исполнительный блок (лобные доли) необходим для программи
рования, регуляции и контроля текущей деятельности. Взгляды Лурия
продолжают сегодня интенсивно развиваться в нейрокогнитивных мо
делях внимания, которые выявляют также различные генетические и
биохимические основания для каждого из этих функциональных блоков
(см. 4.3.3).                                                                                                          153

Надо сказать, что это была далеко не первая и не последняя трехуровневая классификация. Самая первая из них была предложена Джоном Хьюлинг-Джексоном, выдающимся английским неврологом конца 19-го века. Опираясь на эволюционное учение Дарвина, он выделил лобные доли коры как высшую инстанцию поведенческого контроля у человека. Кроме того, проведенный им в ряде работ анализ расстройств речи (афазий) привел его к выводу, что в реализации речевых функций принимают участие не только традиционно рассматриваемые в этом контексте структуры левого полушария (уже хорошо известные к тому времени зоны Брока и Вернике — см. 7.1.1 ), но и механизмы правого полушария, а также субкортикальные центры. Он сформулировал идеи координации активности нескольких разноуровневых механизмов в процессе решения задач, близкие понятию «функциональная система». Эти работы послужили одним из оснований для предпринятой H.A. Бернштейном 50 лет спустя попытки теоретического синтеза накопленных к середине 20-го века поведенческих и нейропсихологических данных о механизмах регуляции движений (см. 1.4.2).
Практически одновременно с Лурия американский нейрофизиолог Пол Маклин (например. McLean, 1973) предложил несколько иную концепцию тройственной организации работы мозга. Наибольший интерес в ней представляет описание среднего уровня, включающего связанную с пространственной памятью и аффективным поведением лим-бическую кору — высшую инстанцию мозга у древних млекопитающих. Лимбическая система, в свою очередь, развивается из субкортикальных базалъных ганглиев, ответственных за контроль поведения у рептилий и птиц. По мнению Маклина, агрессивность территориального поведения отдельных людей, групп и целых государств — наследие этого периода филогенеза. Хотя человек интеллектуально и покинул царство биологических закономерностей, эмоционально он не в состоянии контролировать свой, в его основе все еще «рептильный мозг» {reptilianbrain)21.
Все эти авторы — Хьюлинг-Джексон, Бернштейн, Лурия и Маклин, — по сути дела, решали одну и ту же общую задачу, которая называется в геологии стратификацией, то есть выделением в общем массиве породы отдельных слоев, или уровней, относящихся к различным предысторическим эпохам (Velichkovsky & Challis, 1999). Стратификация выполняет в геологии чрезвычайно полезную роль, позволяя сразу переносить на найденный в некотором слое материал общие характеристики соответствующей эпохи, например, кембрия или триасса. Если
21 Речь идет о довольно смелом, критикуемом многими авторами предположении. Оно частично подтверждается современными исследованиями эволюции мозга, свидетельствующими о том, что одна из ответственных за эмоциональные реакции млекопитающих (а тем самым, и человека — см. 9.4.3) структура, так называемая миндалина (амигдала), развивается непосредственно из зачатков коры древних рептилий (Abolotz, Morales & Montiel, 154        2003).

бы нам удалось построить уровнево-эволюционную модель психофизиологических процессов, то она могла бы выполнять по отношению к частным находкам и феноменам когнитивной науки аналогичную эвристическую функцию (см. 1.4.1 и 8.4.3).
Характеризуя актуальное состояние исследований, следует отметить их известную противоречивость, вызванную быстрой сменой характера объяснительных моделей. Волна технических инноваций стремительно меняет в последнее время сам облик когнитивной психологии как научной дисциплины в направлении комплексных когнитивных нейроисследований. Современные модели психологических процессов испытывают особенно сильное влияние «модулярной» нейропсихологии. При этом из-за обилия данных и противоречивости теоретических взглядов зачастую оказывается забытой более общая эволюционная и функциональная перспектива исследований. Конец 20-го века, когда многие когнитивные психологи — порой довольно неожиданно для самих себя — стали нейропсихологами и психофизиологами, оказался временем выдающихся открытий (часть из них будет обсуждаться в последующих главах), но зачастую и псевдооткрытий, в традициях так называемой френологии — популярной в начале 19-го века салонной игры на ощупывание формы черепа с целью определения бугров и впадин, предположительно связанных со степенью развития патриотизма, памяти или, например, литературных способностей.
Так, несколько лет назад одновременно в Северной Америке и Европе появились сообщения двух видных авторов об открытии с помощью ПЭТ-сканирования «центра мышления» — любое умственное усилие действительно вызывало активацию этой узколокализованной области в основании фронтальных долей. При последующем анализе этот «центр» оказался, однако, всего лишь крупным узлом питающих передние отделы коры мозга кровеносных сосудов. По сегодняшний день в профессиональной литературе обсуждается другое недавнее предположение (Tulving, 1998), согласно которому кодирование информации о различных событиях собственной биографии при запоминании (так называемая эпизодическая память — см. 5.3.2) преимущественно осуществляется фронтальными отделами левого полушария, а ее извлечение при припоминании — префронтальными структурами правого. Трудно прежде всего представить эволюционные основания для подобной специализации полушарий, ведь запоминание и припоминание обычно представляют собой моменты единого мнестического действия. Не случайно это предположение оказалось скорректированным в ходе психологических и нейропсихологических исследований памяти (см. 5.3.3).
Одновременно накапливаются новые данные о множественности механизмов и чрезвычайно широких взаимосвязях таких глобальных когнитивных функций, как, например, речь и память. В частности, в случае речи (как это предполагал уже Хьюлинг-Джексон) было установлено, что мозговая локализация основных механизмов не ограничена только левым полушарием коры, но включает также структуры правого

155

полушария и различные субкортикальные механизмы (см. 7.3.3). В результате подобного обилия взаимосвязей изучаемых структур наиболее успешными практически во всех областях когнитивных исследований сегодня оказываются нейросетевые, или коннекционистские модели.
В связи с распространением моделей, основанных на использовании искусственных нейронных сетей, следует заметить, что реальные мозговые механизмы, по-видимому, демонстрируют несколько различных принципов эволюционной организации (Striedter, 2004). Наряду с формами организации, напоминающими относительно автономные «модули» («ядра» или «центры» — они находятся, главным образом, в субкортикальных структурах), значительная часть коры, ее так называемые ассоциативные отделы, демонстрирует более распределенный, сетевой тип организации, когда каждая группа нейронов связана со всеми остальными. Это различение, впрочем, не является очень строгим. Сетевой тип организации демонстрирует и так называемая восходящая ретикулярная активирующая система {AscendingReticularActivatingSystem, ARAS), локализованная в глубоких субкортикальных структурах ствола, а также среднего и промежуточного мозга. Ее функция состоит в широкой активации коры, без чего состояния бодрствования и внимания оказываются невозможны (см. 4.4.1)22. Модулярные и коннекционистские подходы в когнитивных исследованиях опираются на данные о подобной горизонтальной организации самого мозгового субстрата.
Помимо и сверх того, мозговые структуры сохраняют следы их эволюционного происхождения, которые обуславливают моменты иерархических отношений между ними. Разумеется, эти иерархические, межуровневые отношения выражены не так явно, как в случае структуры бюрократических учреждений (типа какого-нибудь министерства или крупного университета). Часто они оставляют впечатление скорее градуальных переходов (Гольдберг, 2004). Существуют три основных градиента эволюционного развития мозга. Первый и наиболее ранний из них связан с переходом от древнейших, субкортикальных к кортикальным структурам (Grillner et al., 2005). Внутри коры больших полушарий, которая, кстати говоря, имеется в развитом виде только у млекопитающих (Aboitiz, Morales & Montiel, 2003), возник второй выраженный градиент развития — от задних к более новым, передним (лобным, или фронтальным) структурам. Данные эволюционные изменения продолжались вплоть до начала антропогенеза (6—7 млн. лет назад), который иногда даже называют в литературе «эпохой лобных долей» (рис. 2.16). На этой последней фазе эволюции внутри самих передних отделов коры наметился еще один градиент роста, сопровождающийся ускоренным разви-
22 В последние десятилетия было, впрочем, обнаружено, что в действительности эта система состоит из нескольких параллельных подсистем со своими начальными структурами в субкортикальных областях и конечными в коре Более того, отдельные подсисте-156        мы имеют различную биохимическую основу (см в особенности 9 4 3)



Рис. 2.16. Коэффициенты относительного роста участков коры в антропогенезе, демонстрирующие ускоренное развитие ассоциативных, в особенности фронтальных областей
тием фронтополярных областей правого полушария и теменно-височ-но-затылочных областей левого полушария23.

23 Мы никак не затрагиваем здесь проблему ко-эволюции, параллельно разворачивающейся на многих уровнях организации мозга (Deacon, 1996) Иными словами, изменения могут происходить не только в порядке развития высших эволюционных механизмов, но и в ходе модификации низкоуровневых структур Примером служит мозжечок, или цере-бемум, включающий в развитом виде структуры палео-, архе- и неоцеребеллума Активация мозжечка наблюдается как в случае сравнительно простых сенсомоторных тестов на сохранение равновесия или выполнение точностных движений, так и при решении разнообразных когнитивных и коммуникативных задач (Casey, 2005) Общим для всех этих задач является точное пространственно-временное согласование некоторого множества операций (см 7 3 3)

157

Насколько можно судить по имеющимся данным, существование подобных градиентов эволюционного развития мозга не проходит бесследно для взаимоотношения соответствующих познавательных процессов, задавая, так сказать, «вертикальное измерение» их организации, исключительно важное с точки зрения упомянутой выше общей задачи стратификации (см. 3.4.2, 5.3.3 и 8.4.3). В самом деле, примерно такая же динамика изменения неирональнои пластичности различных участков коры наблюдается и в раннем онтогенезе (см. 9.4.2). При этом сначала формируются субкортикальные структуры, затем сенсорные и моторные зоны коры и, с временным сдвигом, ассоциативные области ее теменных и височных долей, после чего постепенно, в течение значительной части жизни формируются структуры филогенетически наиболее новых лобных долей (Huttenlocher, 2002; Thatcher, 1992). Наконец, близкая последовательность вовлечения уровневых механизмов мозга имеет место и при актуальном развертывании — микрогенезе — познавательных процессов, таких как предметное восприятие или понимание речи.
Многие из полученных в последние годы конкретных результатов нейрофизиологического и нейропсихологического анализа будут обсуждаться в последующих главах, посвященных отдельным областям когнитивных исследований. Вместе с тем, чтение данной книги ни в коей мере не может заменить углубленного изучения данных и методов современной когнитивной нейронауки. Мы попытались лишь указать возможные точки соприкосновения, сознательно сделав акцент на анализе относительно молярных психологических феноменов, их механизмов и функциональной роли в деятельности. Преимущественное внимание к молярным механизмам объясняется двумя обстоятельствами. Во-первых, детальное и одновременно целостное описание различных познавательных процессов сегодня все еще едва ли возможно. Во-вторых, накапливается все больше данных о чрезвычайной пластичности мозга (см. 9.4.2). Поэтому сколько-нибудь общие, инвариантные закономерности могут быть выявлены только при рассмотрении более или менее глобальных механизмов. Можно надеяться, что отдельные открытия будут вписываться в намечающуюся глобальную картину и уточнять ее.
Одним из таких выдающихся открытий стало недавнее описание группой итальянских нейрофизиологов во главе с Джиакомо Риццолат-ти в нижней (вентральной) части премоторной коры и в теменных областях коры обезьян так называемых зеркальных нейронов (mirrorneurons— см., например, Rizzolatti, 2004). Эти нейроны активируются при выполнении сложных, осмысленных движений, типа доставания пищи или разгрызания ореха. Их нельзя считать просто моторными или «командными» нейронами, так как они активируются уже при одном виде выполнения тех же самых целенаправленных движений, или действий, другими обезьянами или экспериментатором. Функция этих нейронов может состоять прежде всего в обеспечении имитации действий других 158       особей. Такая имитация, несомненно, играет важную роль в социаль-

ной жизни и научении приматов, являясь одной из основ характерной для психологии человека интерсубъектности (см. 9.4.1). Уже Кёлер (КоеЫег, 1921) описал внезапно охватывавшие наблюдавшуюся им колонию шимпанзе кратковременные «моды» на украшение себя яркими полосками ткани или на новый способ добывания термитов. Прелесть кёлеровских описаний, несомненно, состоит именно в том, что в таком «обезьянничании» мы сразу и легко узнаем самих себя.
В связи с данными о локализации зеркальных нейронов в нижних премоторных областях, следует также отметить два дополнительных обстоятельства. Во-первых, эти области граничат с нижними структурами префронтальной коры, которые участвуют у человека в эмоциональной саморегуляции и контроле социального поведения (см. 4.4.2 и 9.4.3). Во-вторых, они отчасти совпадают с областями, гомологичными так называемой зоне Брока, которая ответственна у человека за экспрессивное речевое поведение и грамматику речи (см. 7.1.1 и 7.3.3). Речь является функцией, которая наиболее сильно зависит от социальной имитации, а также от ситуативной настройки процессов понимания на параметры речи и мимики партнера (см. 7.1.3). С помощью фМРТ функции зеркальных нейронов начинают исследоваться и у человека. Фундаментальное значение этих данных для когнитивной науки состоит в том, что они объясняют механизмы развития речи и языка в филогенетической перспективе, демонстрируя их связь не столько с ранними вокализациями (у других приматов эти вокализации связаны с базальными ганглиями и структурами древней, лимбической коры), сколько с жестикуляцией и кооперативными, осуществляемыми совместно с другими особями действиями. Конечно, эта перспектива весьма сильно отличается от сугубо формального анализа языка в работах Хомского и его последователей.
Целый каскад аналогичных открытий подтверждает более ранние теоретические представления отечественных физиологов и нейропсихо-логов о социальной основе высших мозговых процессов (см. 4.1.1 и 7.1.2). Среди пионеров исследования социального мозга следует, наряду с А.Р. Лурия, отметить выдающегося физиолога и философа Алексея Алексеевича Ухтомского (1889—1942), который ввел понятие «доминанта на другого человека». Некоторые новые результаты исследования этого социального по сути дела комплекса поведенческих, психологических и физиологических реакций будет рассмотрена нами в последней главе книги (см. 9.4.2). Работу ведущих исследовательских коллективов, таким образом, начинает определять романтическая задача создания культурно-исторической нейропсихологии развития.
В то же время понятно, что эта общая задача не может быть решена без анализа моторики, сложных форм социального взаимодействия, а также эмоционально-аффективной жизни. При этом все чаще выявляется недостаточность распространенной в когнитивной науке методологии анализа локальных (модулярных) механизмов обработки. На первый план выдвигается бернштейновское понятие «координация»       159

(Velichkovsky, 2005). Кроме того, при всем внимании, уделяемом в последние годы трехмерному картированию мозга, для когнитивной науки до сих пор во многом неизведанным континентом остаются функции нейротрансмиттеров24. В современной нейрокогнитивной литературе в особенности обсуждается роль селективной гибели рецепторов, чувствительных к нейромедиатору ацетилхолину, в нарушениях внимания и в возникновении болезни Алъцгеймера (см. 4.3.3 и 5.4.3), а также влияние выделяемого при положительных эмоциях дофамина на функции самоконтроля и особенности процессов принятия решений (см. 9.4.3). Нарушение баланса дофаминэргической и глутаматэргической систем, возможно, лежит в основе патогенеза такого заболевания, как шизофрения. Исследования физиологических механизмов действия дофамина были удостоены в 2002 году Нобелевской премии.
Для понимания действия нейротрансмиттеров необходимы более молекулярные подходы, развиваемые в так называемой «мокрой» физиологии, биохимии и молекулярной генетике. В связи с недавней расшифровкой генома человека, в частности, стали быстро развиваться работы по когнитивной геномике (см. 4.3.3 и 9.4.2). Так, ген АРОЕ (от Apolipoproteine), участвующий в работе холинэргической системы, оказывает широкое влияние на формирование памяти и пространственного внимания. Близкую роль играют некоторые генетические маркеры иммунной системы человека (Nilsson, 2005). Функции имеющей автобиографический оттенок эпизодической памяти более специфично связаны с генами DRD4 и СОМТ, регулирующими дофаминэргические процессы. Эти же гены, вместе с рядом других, оказывают существенное влияние на формирование высших форм внимательного контроля поведения и познания (Posner, 2004). Работы по когнитивной геномике ставят на более прочную основу анализ психогенетических вопросов развития интеллекта (см. 9.4.2). В этих относительно новых для психологии областях можно искать дополнительные объяснения особенностей аффективно-эмоциональных состояний, стресса или утомления, механизмов возникновения психосоматических и психиатрических нарушений, а также многих, в том числе уровневых аспектов развития, функционирования и распада когнитивных процессов.
Все перечисленные в этом разделе книги области исследования развиваются столь быстро, что очень трудно делать прогнозы о том, как они будут выглядеть через 15—20 лет. Единственное предсказание, которое можно с уверенностью сделать сегодня, состоит в том, что как бы ни

160

24 К нейротрансмитгерам относятся аминокислоты (прежде всего, главные возбуждающие и тормозные медиаторы связей нейронов головного мозга — глутамат и, соответственно, гамма-аминомасляная кислота, ГАМК), моноамины (дофамин, серотонин, адреналин, норадреналин/норэпинефрин), нейропептиды, а также некоторые быстрорастворимые газы и ацетилхолин. По способу их действия нейротрансмиттеры разделяются на два класса — нейромедиапгоры и нейромодуляторы

изменились основные исследовательские подходы в будущем, в истории когнитивной нейронауки останутся имена таких авторов, как Дж. Хьюлинг-Джексон, П.К. Анохин, H.A. Бернштейн, А.Р. Лурия, П. Маклин, A.A. Ухтомский и Д. Хэбб, задолго до появления современных методов картирования работы мозга попытавшихся на основе общих эволюционных соображений, продуманного экспериментального анализа и изучения отдельных клинических случаев восстановить картину развития функциональных механизмов познания и регуляции поведения.

Ваш комментарий о книге
Обратно в раздел психология










 





Наверх

sitemap:
Все права на книги принадлежат их авторам. Если Вы автор той или иной книги и не желаете, чтобы книга была опубликована на этом сайте, сообщите нам.