Текст книги "Четыре возраста человека. Системная психология"
![](/books_files/covers/thumbs_240/chetyre-vozrasta-cheloveka-sistemnaya-psihologiya-301647.jpg)
Автор книги: Борис Рыжов
Жанр: Общая психология, Книги по психологии
Возрастные ограничения: +16
сообщить о неприемлемом содержимом
Текущая страница: 6 (всего у книги 29 страниц) [доступный отрывок для чтения: 10 страниц]
Незавершенность теории неизбежно проявляет себя в несовершенстве ее понятийного аппарата и аксиоматики. Напротив, когда понятийный фундамент становится отлаженным и непротиворечивым, начинает работать и построенная на нем теория. С этих позиций современная системная теория еще весьма далека от своего завершения. Многие ее основополагающие понятия так и не получили четкого определения и остаются рыхлыми и размытыми. Другие понятия, наоборот, имеют весьма консервативную трактовку, что нередко оказывается серьезным тормозом для движения вперед. Примером первого может быть само понятие «система», несмотря на свое ключевое значение, так и не получившее до сих пор четкого определения в системологической литературе. Примером второго – понятие энтропии, имеющей, как уже было отмечено, ряд формальных физических определений, но не исчерпывающих тем не менее всей полноты этого понятия за пределами собственно физических дисциплин. Системологический анализ психических явлений, подразумевает прежде всего необходимость уточнения наиболее важных определений и характеристик системологических понятий в том ракурсе, который они приобретают как психологические объекты.
Основным понятием системологии является система. Среди множества ее определений можно выделить несколько самых распространенных. Для Л. фон Берталанфи система – это комплекс взаимодействующих элементов [2, 3]. По мнению Р. Акоффа, это множество взаимосвязанных элементов [1]. А. И. Уемов дает определение системы как множества объектов, на которых реализуется заранее определенное отношение с фиксированными свойствами [10]. Легко заметить, что во всех этих определениях упущен или недостаточно выражен главный системообразующий признак, на который указывал еще Аристотель, – целое больше суммы составляющих его частей. С его учетом определение системы должно звучать следующим образом:
СИСТЕМА – это множество связанных между собой объектов, обладающих в своей совокупности особой функцией по отношению к какому-либо постороннему объекту.
Таким образом, система представляет собой всегда относительное понятие, имеющее смысл по отношению к внешнему объекту. В то же время по отношению к какому-либо другому внешнему объекту совокупность объектов, ранее определенная как система, может не иметь системообразующего признака и, следовательно, не являться системой. Или же напротив, эта совокупность, имеющая общую связь с другими объектами, может соответствовать элементу системы более высокого уровня организации.
Например, группа спортсменов по отношению к их тренеру – команда и, конечно, система, определяющая его особое поведение в их присутствии. Те же люди на улице по отношению к случайному встречному – просто прохожие, никак не влияющие на его поведение. Для него они не являются системой.
Упомянув категорию системной связи, необходимо заметить, что в системологической литературе эта категория относится к наиболее развитой области системных описаний. Особенно обстоятельно представлено в литературе направление, касающееся качественной и структурной организации связей, определяющих типологию образуемых ими систем. Однако для количественного описания систем не менее важно то, что понятие связи должно рассматриваться как категория вероятностная, и в этом смысле вероятность функциональной связи между двумя ее элементами определяет жесткость этой связи. Если вероятность связи равна единице, связь является абсолютно жесткой.
Необходимо выяснить и еще один момент категориального характера – форму существования систем. В дальнейшем мы будем исходить из того, что система может существовать и как особый материальный объект, и как отражение этого объекта в виде композиции других материальных объектов, воспроизводящей основные связи исходной системы. Это замечание позволяет дать определение еще одному важному понятию – информации. Отражение системы в связях другой системы есть информация о ней.
Анализ формальных характеристик систем начинается с описания статических характеристик, не учитывающих изменений состояния системы во времени. Любая система может иметь ряд статических характеристик, в том числе первичных характеристик, под которыми следует понимать ее объем, или количество составляющих элементов (n), и сложность системы (С), соответствующую суммы всех имеющихся связей между ее элементами.
При этом для каждой системы могут быть определены предельные уровни сложности – максимальный и минимальный. Максимального уровня сложности система достигает в том случае, когда каждый ее элемент связан с каждым из остальных (Сmax). В качестве иллюстрации максимального уровня сложности, или максимального числа связей в системе, представим ее состоящей из четырех элементов, каждый из которых связан с тремя другими (рис. 2.1, поз. С).
Минимальный уровень сложности (Сmin) имеет место тогда, когда разрушение любой из имеющихся в системе связей между ее элементами означает разделение системы на независимые фрагменты. В приведенном выше примере минимальный уровень связей в системе будет достигнут, когда в ней останется всего три связи (рис. 2.1, поз. А, В).
Если устранение какой-либо связи приводит к разрушению системы и отделению от нее одного или нескольких элементов, такая связь считается основной. Все остальные связи считаются дополнительными.
![](i_010.jpg)
Рис. 2.1 Типы структурной организации систем
На основе первичных характеристик системы могут быть выделены ее вторичные характеристики, определяющие меру порядка в системе. Очевидно, что максимальной упорядоченности, т. е. полного взаимного соответствия всех элементов система достигает при максимальном уровне сложности – Сmax. Напротив, при минимальном уровне сложности (Сmin) система обладает минимальной упорядоченностью и наибольшим числом степеней свободы.
Учитывая это, унифицированную количественную меру неупорядоченности системы, энтропию можно представить как разность максимально возможной и реальной сложности системы, отнесенную ко всему диапазону уровней сложности этой системы, т. е. разности величин Сmax и Сmin (от максимальной сложности до предельного упрощения). Обозначив энтропию символом S, получим формулу энтропии:
![](i_011.jpg)
где S – энтропия системы; Сmax – максимальный уровень сложности системы; Сmin – минимально возможный уровень сложности системы.
Из этой формулы видно, что энтропия системы может изменяться от нуля, в случае максимального усложнения системы (С = Сmax), до единицы при ее предельного упрощения (С = Сmin). Следует отметить, что в случае предельного упрощения системы вероятность связей между элементами системы стремится к нулю и абсолютная минимальная сложность системы также стремится к нулю. При этом, разумеется, сложность системы никогда не может достичь нуля, иначе само выделение системы утрачивает смысл.
Естественнонаучное понимание энтропии сложилось во второй половине XIX – середине ХХ в. и несло на себе характерное для физики того периода стремление к статистической метрике мира бесконечного числа взаимодействующих между собой частиц. Однако взгляд на мир физика во многом не совпадает со взглядом биолога или психолога, для которых более привычна качественная оценка рассматриваемых явлений. Противоречие здесь заключается в том, что физика, как правило, имеет дело с гомогенной средой, а психология и биология всегда работают со сложными гетерогенными системами, не допускающими простых статистических описаний, удобных для газов или кодов сообщений, передаваемых по каналам связи. Это противоречие лежит в основе уже упоминавшихся затруднений при переносе физических метрик энтропии в область психологии. Для его устранения психология должна опираться на собственную метрику состояний сложных систем. При этом она должна иметь в виду либо анализ наиболее общих и часто встречающихся, так называемых характеристических, состояний систем либо их содержательный, предметный анализ.
Вместе с тем в задачах сравнительного анализа состояния систем с неизменным (или близким к неизменному) числом элементов важную роль начинают играть разностные меры, типа:
DS = S1 – S2
которые после раскрытия входящих в них членов приобретают вид:
![](i_012.jpg)
где S1, S2 и С1, С2 – соответственно энтропия и сложность системы в двух ее сравниваемых состояниях.
Можно заметить, что выражение для изменения энтропии может быть сведено к формуле Клаузиуса, представляющей изменение некоторой системной характеристики тела (в данном случае, количества подведенного к нему тепла), отнесенное к абсолютной величине этой характеристики (температуры).
Аналогично можно дать интерпретацию психофизичекому закону Вебера – Фехнера о соотношении интенсивности ощущения и вызывающего его раздражения. Применительно к нему С1 и С2 являются сравниваемыми интенсивностями раздражителя, которые дают минимальное ощущение их различия – ∆S. Сmax в данном случае соответствует максимальной из действующих интенсивностей. Системологическая интерпретация психофизического закона, таким образом, заключается в том, что мы реагируем на организованность, упорядоченность действующего стимула – обстоятельство, на которое указывали еще гештальтпсихологи, выдвинувшие понятие закона прегнантности, или «закона хорошей формы».
2.3 Структура и свойства связей в системеДля характеристики системных связей необходимо уточнить различие между прямыми и обратными, а также непосредственными и опосредованными связями. Прямой или обратный вид связи задается только направлением действия данной связи (рис. 2.2). Однако организация этих связей может быть различна. В одном случае эти связи образуются без помощи промежуточных элементов, получая название непосредственных. В другом случае (рис. 2.2) взаимодействие между двумя элементами системы осуществляется благодаря опосредованным связям, состоящим из цепочки промежуточных элементов и связей между ними.
![](i_013.jpg)
Рис. 2.2 Организация связи между элементами 1 и 3
Сделанные уточнения могут иметь значение при определении некоторых характеристик систем. Например, если для упрощения расчетов мы рассмотрим систему, в которой действуют только непосредственные жесткие связи, то минимальная сложность такой системы (Сmin ж) будет на единицу меньшее общего количества элементов системы:
Сmin ж = n – 1
Максимальной сложности Сmax такая система достигает в случае связанности каждого элемента с каждым. Выражением Сmax ж при этом является:
![](i_014.jpg)
Подставив в формулу энтропии значения для Сmax ж и Сmin ж, получим для рассматриваемого упрощенного случая формулу энтропии, зависящую только от реального числа элементов и сложности системы:
![](i_015.jpg)
Можно заметить, что при возрастании объема системы, параметры (n – 1) и (n – 2) будут все меньше отличаться от параметра n. При больших n энтропия системы будет стремиться к изменению пропорциональному квадрату числа ее элементов и обратно пропорциональному удвоенной величине ее сложности:
![](i_016.jpg)
Представление энтропии в виде нелинейной зависимости сложности и объема системы отражает важную закономерность системной организации и имеет ряд принципиальных последствий с точки зрения теоретического анализа форм и типов существования систем. Но, разумеется, системный анализ, учитывающий только действующие в системе жесткие непосредственные связи, может иметь ограниченное применение. Вероятностный характер связей требует рассмотрения всех наличных отношений между элементами системы. При этом в отличие от упрощенной модели все элементы системы оказываются связанными друг с другом.
Учитывая это, очевидно, что ввиду имеющихся опосредованных связей общая или суммарная вероятность связи Р∑ будет больше чем вероятность, обеспеченная только непосредственными связями. Например, если вероятность каждой из непосредственных связей (рис. 2.2) будет равна 0,5, то при определении суммарной вероятности связи элемента 1 с элементом 3 (Р∑(1–3)) необходимо наряду с вероятностью непосредственной связи Р1–3 = 0,5 учесть вероятности двух опосредованных связей Р1-2-3 и Р1-4-3. Поскольку суммарная вероятность Р∑(1–3) представляет собой в этом случае вероятность появления хотя бы одного из трех совместных событий, согласно требованиям теории вероятностей она может быть найдена как разность между единицей и вероятностью произведения соответствующих противоположных событий. В рассматриваемом случае она будет равна 0,7.
Таким образом, система, состоящая из n элементов, будет иметь n2 прямых и обратных связей между этими элементами, включая связь каждого элемента с самим собой. Суммарные вероятности всех имеющихся в данной системе связей могут быть записаны в виде квадратной матрицы, сумма столбцов которой представляет обобщенное выражение сложности имеющихся в системе связей.
Приведенные уточнения для оценки характеристик системы могут иметь ряд практически важных следствий. В качестве примера можно назвать возможность объективно оценить сложность того или иного тестового задания или сравнить между собой сложность двух заданий (матриц Равена, заданий из тестов Векслера и т. п.). Не менее интересным представляется использование процедуры оценки энтропии системы в социометрических задачах, связанных с оценкой социально-психологического климата в малой группе, определением эффективности групповой организации, роли лидера группы и др.
Вместе с тем, учитывая вероятностный характер связей, важное значение принадлежит структурной организации системы и уровню опосредованности ее связей. Чем более сложно опосредованной будет связь между какими-либо двумя элементами, т. е. чем большее число промежуточных элементов и непосредственных связей будет стоять между ними, тем менее вероятной в итоге окажется эта связь и, в конечном итоге, тем большей будет энтропия системы. Поэтому важным оказывается не только общее число связей в системе, но и место их расположения, тот особый вклад, который конкретная связь привносит в упорядоченность всей системы.
Этот вклад, привнесенный в систему конкретной дополнительной связью, определяет меру существенности этой связи. Существенность каждой связи, таким образом, будет тем больше, чем больше изменяется энтропия системы в результате установления этой связи. Меру существенности или качества любой связи (К) можно представить как разницу энтропии системы до и после установления этой связи:
К = S1 – S2
где S1 – исходная энтропия системы, а S2 – конечная энтропия системы.
Примером различного качества устанавливаемых в системе связей может быть анализ следующего случая. Предположим, что существует система, состоящая из четырех элементов, соединенных в линейную структуру посредством четырех непосредственных равновероятных связей Р, и имеется возможность внесения в эту систему дополнительной связи той же вероятности, которая может быть установлена между любыми двумя ее элементами (рис. 2.3). Каков будет системный эффект от установки этой дополнительной связи в различных звеньях системы?
Прежде всего необходимо определить Сmin и Сmax системы для заданного уровня вероятности имеющихся связей Р. В исходном состоянии система оказывается упрощенной до предела, ее энтропия максимальна. Для того, чтобы вычислить сложность системы в этом состоянии, требуется построить матрицу ее исходных связей (табл. 2.1).
Согласно принятому определению, сложность имеющихся в системе связей в исходном состоянии – С4 исходн. находится как сумма столбцов этой матрицы.
![](i_017.jpg)
Рис. 2.3 Система в различных состояниях
В рассматриваемом примере исходная сложность системы из 4 элементов будет одновременно являться минимальной сложностью системы, Сmin.
Табл. 2.1.
Матрица вероятностей связей 4-элементной системы (исходное состояние)
![](i_018.jpg)
Общая формула для вычисления Сmin в системе с любым количеством элементов n при одинаковой вероятности всех непосредственных связей Р будет представлять функциональный ряд:
Сn min = n + 2(n – 1)P + 2 (n – 2)Р2 +… + 2Рn-1
Таким образом, сложность имеющихся в системе связей в исходном состоянии С4 исходн. равна:
С4 исходн. = С4 min = 4 + 6Р + 4Р2 + 2Р3
Аналогично, максимальная сложность рассматриваемой системы находится как сумма столбцов матрицы ее связей при достижении системой максимальной упорядоченности (табл. 2.2), где Р4å – суммарная вероятность прямой связи между любыми двумя элементами в 4-элементной системе.
Табл. 2.2.
Матрица вероятностей связей 4-элементной системы (максимально упорядоченное состояние)
![](i_019.jpg)
Общая формула для максимальной сложности системы с любым количеством элементов n при одинаковой вероятности всех непосредственных связей Р находится как:
Сn max = n + n(n – 1) Рn∑
При этом, Рnå – суммарная вероятность прямой связи между любыми двумя элементами системы с любым количеством элементов n при одинаковой вероятности всех непосредственных связей Р определяется по формуле:
Рn∑ = 1 – (1 – Р)(1 – РРn-1∑)n-2
В рассматриваемом случае максимальная сложность системы с 4 элементами будет равна:
Сn max = 4 + 12 (1 – (1 – Р) (1 – Р (1 – (1 – Р) × (1 – Р2)))2)
Допустим далее, что мы воспользовались возможностью внесения в систему дополнительной связи, установив ее между элементами 1 и 3 (рис. 2.3, новая связь выделена пунктиром). При этом вероятность этой связи Р осталась такой же, как вероятность остальных имеющихся в системе связей. Назовем такое состояние первым новым состоянием системы. Предположим далее, что в качестве альтернативы этому состоянию, дополнительная связь была установлена между элементами 1 и 4 (рис. 2.3, новая связь здесь также выделена пунктиром). Таким образом, структура связей системы оказалась замкнутой в кольцо. Это будет второе новое состояние системы.
Разница энтропийных характеристик системы в двух ее новых состояниях при различных уровнях вероятности непосредственных связей между элементами системы (рис. 2.4).
![](i_020.jpg)
Рис. 2.4. Зависимость энтропии 4-элементной системы (тетраэдр) от вероятности системных связей
Очевидно, что добавление новой связи всегда повышает уровень порядка в системе. Но при высоких уровнях вероятности имеющихся в системе непосредственных связей существенность новой связи, замыкающей ее кольцевую структуру, оказывается значительно больше, чем у альтернативной связи.
Так, при вероятности непосредственной связи Р = 0,9 замыкание системы в кольцо дает в 2,3 раза большее снижение энтропии, чем при установке дополнительной связи между элементами 1–3, а при Р = 0,99 кольцевая связь оказывается уже в 20 раз существеннее альтернативной.
Еще более контрастно выглядит эта зависимость при увеличении числа элементов системы. В этом легко убедиться, увеличив в рассмотренном примере число элементов до пяти, а число связей в исходном состоянии соответственно до четырех (рис. 2.5).
![](i_021.jpg)
Рис. 2.5 Зависимость энтропии 5-элементной системы (пентаэдр) от вероятности системных связей
Здесь можно заметить не только нарастающее преимущество кольцевой связи (дополнительная связь между элементами 1–5) в области высоких вероятностей непосредственных связей, но также и уменьшение порядка в системе при увеличении вероятности непосредственных связей в области их малых значений (в данном примере, в диапазоне Р = 0–0,2). Причем нарастание энтропии при малых вероятностях связей происходит независимо от места установки новой связи.
Этот факт можно интерпретировать таким образом, что система должна «созреть» для того, чтобы в ней проявился эффект существенной связи. В малоорганизованной и слабосвязанной системе важно только число системных связей, а не их структура.
При этом для системы может быть определен критический диапазон вероятности непосредственных связей, при котором добавление новой связи дает наименьшее увеличение порядка (в рассмотренных примерах такой диапазон будет составлять Р = 0,14-0,21 для 4-элементной системы и Р = 0,18-0,24 для 5-элементной системы).
Вместе с тем для психологии способность к установлению существенных связей в регулируемых системах предстает как один из важнейший показателей и наиболее заметная характеристика человеческого ума. Здесь, следует заметить немаловажным является обстоятельство, насколько велика исходная система, в которой устанавливается новая связь. Значимость или ценность одинакового изменения энтропии будет тем выше, чем больше по объему исходная система.
Например, ценность одного и того же меткого замечания, высказанного однажды в дружеской среде частным лицом, а в другой раз высказанного уже публично государственным деятелем в ситуации политического кризиса, может быть совершенно различна.
В этой связи стоит вспомнить известную метафору «железный занавес», использованную британским экс-премьер-министром Уинстоном Черчиллем[31]31
В то время мир оказался разделен на два блока. Во главе одного из них стоял Советский Союз, а второго – Соединенные Штаты Америки. Вчерашние союзники в общей борьбе против нацизма встали перед лицом забытых на время войны идеологических противоречий, усиленных обоюдными претензиями на мировое господство. В то же время в сознании народов не было четкого представления о новой ситуации, которая сложилась в мире после победы над общим врагом. И русские, и американцы, хотя и принадлежали к разным политическим системам, все же видели друг в друге братьев по оружию.
Это благодушие, считал Черчилль, может дорого обойтись западным странам. Необходимо создать понятный каждому и устрашающий образ врага, не прибегая вместе с тем к большому объему новой информации – ведь обыденное сознание хорошо воспринимает только знакомые факты. Черчилль превосходно справился с поставленной задачей. Он нарисовал в сознании своих слушателей хорошо знакомый им образ железного занавеса, которым с наступлением ночи закрывают витрины магазинов. Но в его речи занавес опустился между двумя мирами. Привычный и вполне мирный образ неожиданно приобрел зловещий символ ночи, опустившейся над половиной Европы. А в слове «железный» обывателю уже слышался металлический лязг гусениц надвигающихся на беззащитный Запад советских танковых армий.
[Закрыть] в знаменитой речи в американском городе Фултоне вскоре после завершения Второй мировой войны.
Простой, но, без сомнения, эффектный образ приобрел для западного мира роль существенной связи между двумя частями мировой системы. Выражение это было растиражировано другими политиками и журналистами и вскоре стало пугающим синонимом социалистического лагеря. На многие десятилетия борьба с «железным занавесом» стала знаменем в руках противников советского блока.
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?