ЭНТРОПИЯ КАК МЕРА КРЕАТИВНОСТИ В ЭКОНОМИКЕ И ДУХОВНОЙ СВОБОДЫ ОБЩЕСТВА
Аннотация и ключевые слова
Аннотация (русский):
Статья посвящена анализу тенденций расширения аппарата оценивания развития экономики и духовной свободы общества с использованием аналогов математических зависимости, описывающих энтропию в динамических системах, в которых, также как в экономических и социальных системах, присутствует процесс энергетического обмена. Построенная вербальная модель позволила оценить возможности и применимость термодинамических зависимостей для описания процессов в экономике.

Ключевые слова:
Информация, энтропия, неопределенность, сложные системы, креация, креативная экономика, духовная свобода, институты, эволюция институтов
Текст

Введение. Общество находясь в стадии эволюции, проходит последовательно процессы все большей усложненности организации, не исключая при этом и временные откаты назад к прежним рудиментам своих общественных институтов. Судить о нарастании сложности или упрощении системы можно исключительно на основе получаемого потока информации, сообщений, которыми оперируют аналитики. Следует вести речь о нарастании информатизации общества, где сигналы или информация как эффекты, пронизывают все общество, все его стороны жизни. Можно утверждать, что информация, как никакая иная сфера человеческого бытия, влияет на все стороны жизни отдельного человека, домашнего хозяйства, бизнес-структур, общественных институтов, государства, наконец, мирового сообщества.

Высказанное суждение вряд ли будет оспариваться в своей сути. Проблема возникает в сфере воздействия информации на свободу общества, на процессы формирования креативной среды в обществе и оценки меры этой свободы. Нарастание потоков информации детерминирует процессы изменения структуры материального традиционного производства в пользу современных форм цифровой информатизации – связь, электроника, вычислительная техника, реклама, обучение и преподавание, здравоохранение, вопросы безопасности, наконец, культуры в самом широком смысле этого термина.

Возникла и интенсивно развивается информатика как область научного знания и информатика как искусство, как область практической деятельности по производству информации и её организации. Поэтому информатика как научное знание, направлена на изучение и понимание фундаментальных свойств и процессов отражения в человеческом знании процессов и характеристик свойств природы, общества и самого сознания не только в их фиксации, но и в динамике. И хотя сам термин «информатика» был введен в научный оборот только в 1957 года Карлом Штейнбухом, из этого не следует, что информатика как искусство, т.е. как способность передавать, обрабатывать информацию, не существовала с момента появления способности живых существ рефлексировать в сознании окружающие субъектов события.

Познавать как окружающий человека мир, так и свой собственный субъективным мир чувств, психологических аффектов, человек может только на основании сигналов, информации, которая поступает в него, используя при этом все свои способности их восприятия и переработки. Этот процесс формирует наши знания как о мире вообще, так и своих собственные субъективные модели этого объективно существующего мира. Поэтому информация позволяет на основе восприятия объективного мира формировать знания, познавать этот мир, снижая меру незнания, а, следовательно, меру неопределенности.

 

Если первоначально мир с его взаимосвязями представлялся познающему субъекту как некоторая вещь, без понимания его внутренней сущностной связи его частей, то этот набор данных, скорее представлялся как некоторый хаос, неупорядоченность в своих связях. Информация об объектах позволяла сознанию вносить в эту хаотическое нагромождение вещей и связей некоторую закономерность, наконец, понимать это явление уже как сущность. В этом случае информация объективно становилась инструментом понимания сути явления, познания законов его существования с известной характерной структурой. Хотя информация ничего не прибавляла в сам передающий сигналы объект, тем не менее формируемый нашим сознанием мысленный образ, преодолевая чувственные формы информации, упорядочивал наши знания об объекте. Из первоначально воспринимаемого информационного хаоса субъективный образ, оформленный в математических, физических или иных моделях трансформируется в сознании уже из «вещи-в-себе», по И. Канту, в «вещь-для нас». Сами воспринимаемые явления, несущие информацию об объекте, уже становятся осознаваемыми. Тем самым снижается мера хаотичности бытия объекта, увеличивается знание человека о его поведении даже вне зависимости от того, что эта информация несет на себе для исследователя случайный характер, а её оценка может быть более адекватно описана в терминах теории вероятности.

Снижение меры неопределенности состояния и функционирования объекта в результате получения дополнительной информации в работах по теории информационных систем носит термин «энтропия». Первоначально данный термин был введен Р. Клаузиусом в теории термодинамики в качестве функции изменения состояния системы S, которую для обратимых процессов, где известно изменение количества тепла dQ и температура T, можно записать в следующем виде:

 

 

Было установлено, что энтропия теплоизолированной системы возрастает при необратимых процессах и остается неизменной при обратимых (DS ≥ 0). Трудами Л.Больцмана была показана связь энтропии и изменений статистических весов Ω макросостояний 1 и 2 системы через постоянную Больцмана k:

 

 

На практике это демонстрируется тем, что энтропия, характеризуя степень беспорядка в макросистеме, убывает при конденсации газа в жизкость, где молекулы располагаются более упорядоченно и, наоборот, при испарении возрастает вместе с неупорядоченностью системы.

С учетом явной схожести процессов, протекающих как в неживой природе, так и в социальных, экономических системах установленная зависимость была перенесена и в другие сферы науки, в частности, в 1902 году в работах Дж.В. Гиббса понятие энтропии представляется уже как мера распределения плотности вероятностей состояний некоторой статистической системы. Клод Шеннон в 1948 году связал меру энтропии дискретного распределения вероятности на множестве альтернативных состояний. Физическая же система могла случайным образом в каждый момент времени принимать одно из конечного множества возможных состояний являлась одновременно дискретным источником состояний, т.е. информации о системе.  Полученный результат был далее взаимоувязан с информацией об уменьшении энтропии.  К. Шеннон разработал и предложил модель вычисления количества информации. В его модели информация возрастала с уменьшением вероятности отдельного сообщения.  Также по его представлению информация определялась как мера свободы какой-либо системы выбора в выделении сообщения. Важное дополнение следует сделать в той части что речь шла не об информации вообще, а о кодированной информации [5].

Связь энтропии и информации лежит в различении энтропии как меры неопределенности, при этом информация представлена как коммуникация, как связь, в процессе которой уменьшается неопределенность. Полученная модель очень напоминала формулу энтропии, предложенную в физике Л. Больцманом. У последнего энтропия понималась как степень неупорядоченности статистических форм движения молекул.

В дальнейшем неупорядоченность движения молекул была перенесена на неупорядоченность чередования символов в тексте. Практическая аналогия модели энтропии Больцмана и количества информации К. Шеннона позволила Л. Бриллюэну представить информацию как отрицательную энтропию, или как негэнтропию. В результате если энтропия характеризуется мерой неупорядоченности, то сама информация может быть определена как мера упорядоченности материальных систем.

В рассмотренных моделях понятие информации мало чего добавляет к понятию энтропии за исключением того, что энтропия применялась прежде только для систем, которые стремились к термодинамическому равновесию, или к максимальному беспорядку в движении составляющих её молекул, т.е. к увеличению энтропии. Информация же наоборот, направлена на те системы, которые не увеличивают энтропию, а стремятся к её дальнейшему уменьшению. Информация по Н. Винеру не является материей (веществом), либо энергией и обозначает описательное содержание, полученное из внешнего мира в процессе приспособления к нему органов чувств человека. 

Однако это предельно категоричное суждение Н. Винера о природе информации мало что прибавляет к пониманию сущности самой информации. Отрицательные суждения не дают позитивного наполнения концепта понятия информации. По нашему пониманию сути информации последнее лежит исключительно в осознающем субъекте трансформации потоков сигналов через ощущения в потоки мыслительных сигналов, благодаря которым формируется способность устанавливать связи, коммуникации уже в человеческом сознании. На человека могут воздействовать различные потоки воздействий внешней среды, однако, будучи воспринимаемыми, но не осознаваемыми они не могут становиться информацией для познающего мир субъекта познания. Воспринимаемость есть признак информации необходимый, но не достаточный.

Уже в более позднее время в развитие теории энтропии внесли научный вклад А.Я Хинчин, А.Р.Мак, А.Н. Колмогоров, А. Реньи, А.М. Хазен, А.В. Коганов. Общим фундаментальным признаком понятие энтропии следует соотносить с мерой сложности состояний исследуемой модели, а информация измеряется сложностью перестройки модели, в результате приобретенного сообщения [1].

Как делает вывод И.Н. Бекман, энтропия исторически развивалась разнонаправленно.  Энтропия, впервые введенная в термодинамике, стала обозначать меру необратимого рассеяния энергии, или меру уравновешенности системы. В статистической физике энтропия понимается как мера вероятности осуществления какого-либо макроскопического состояния, т.е. как статистическая энтропия. Информационная энтропия понимается как мера неопределенности источника сообщений, энтропия динамических систем понимается как мера хаотичности в поведении траектории системы. Известны также такие понятия как энтропия отражения, под которой понимается информация о дискретной системе, и которая не воспроизводится при отражении системы через совокупность своих частей. Культурная энтропия как часть энергии, которая направлена на ссоры, интриги, на переживания обид, на шутки над коллегами. Энтропия в теории управления понимается как мера неопределенности состояния или поведения системы в приведенных условиях [1].

В данной работе предметом исследования является информационная энтропия и её связь с неопределенностью состояний системы, включая её количественную оценку. Однако сама информация не может входить в денотат понятия вероятности, являясь её одним из разделов. Информация всегда есть более объёмное понятие, хотя и с более обеднённым концептом. Вероятность описывает не качество, не содержание информации, а её количественную сторону, отражая меру возможности наступления случайного события. И именно понятие информационная энтропия отражает в теории информации эту количественную характеристику информации вообще. Поэтому и любое сообщение, т.е. информация, в теории информации описывает случайное состояние любой анализируемой системы в какие-то определенные моменты времени. Сам же анализируемый объект, о котором передается информация, может представлять любую физическую систему, которой присущ атрибутивный признак динамичности, неопределенности. Сама же эта степень неопределенности системы, т.е. информационная энтропия может принимать некоторые определения уже с использованием теории вероятности, например, от 1 для жестко детерминированных систем, в которых отсутствует сама возможность принятия каких-то иных случайных состояний, до нулевых значений, когда исследователь не обладает никакой информацией о наступлении возможных изменения в состоянии системы.

Ф. Найт потому и вводил понятия чистой неопределенности, или полной, и определяемой неопределенности, которая получает своё количественное определение посредством вероятности наступления какого-то события. Последнее возможно на основе уже имеющейся статистической информационной базы. Эффективность деятельности людей в условиях неопределенности, т.е. недостаток информации в поведении управляемой системы будет выше, может оказаться выше по сравнению с состоянием, когда были привлечены дополнительные ресурсы для получения информации и, следовательно, для гарантированного получения дохода. Однако в этом случае сами работники, менеджеры должны обладать креативным мышлением, свободой творческого подхода в анализе рассматриваемых альтернатив, возможных последствий в прохождения точек бифуркаций [2]. При этом вытекает логическое следствие относительно требований к управляющему звену. Менеджмент обязан оценить степень свободы системы, во-первых.  Во-вторых, должен обладать инструментами воздействия на систему в количестве на единицу больше, что вытекает из принципа Эшби. В-третьих, управляющий должен обладать достаточной волей для принятия решения в условиях неопределенности.

 К. Шеннон при рассмотрении системы исходит из её замкнутости, но имеющее много степеней свободы, или множество альтернативных состояний, переход к которым обнаруживается в точках бифуркации. Информация уменьшает эту информационное разнообразие, т.е. снижает энтропию. Система становится более просчитываемой и прогнозируемой для выработки и принятия управляющих решений, так как имеет конечное множество возможных состояний с соответствующей вероятностью реализации этого случайного состояния. Следовательно, неопределенность состояний системы может быть представлена как система вероятностей этих возможных состояний. Поэтому второе определение информационной энтропии трактоваться как мера априорной неопределенности.

Воздействия внешних факторов в открытых системах становятся уже главным источником неопределенности, формируя при этом дополнительные проблемы в управлении системой. Попытки снизить неопределенность могут привести либо к усилению фактора абстракцией в исследовании, что одновременно формирует более обеднённую картину отражения системы в моделях, либо сопровождаются поиском дополнительный информации, которая уже в принятой замкнутой системы позволила бы снизить энтропию. Однако последнее сопряжено с издержками. Поэтому вполне допустима возможность сознательного ограничения информированности исследователя, менеджера, которые вынуждены принимать решения в условиях неполной информациию. Рациональность управляющих моделей при этом ставится по вопрос. Последнее становится актуальной проблемой принятия управляющих решений в условиях неполной информации. Если же речь идет об исследовании систем с теории информации, то выводы исследователя с необходимостью принимают вероятностных характер. Другими словами, исследователь вынужден отказываться от категорических суждений в своих выводах, довольствуясь их модальными формами.

Научной проблемой в теории информации и теории информационной энтропии продолжает оставаться проблема динамики энтропии,  получаемой и перерабатываемой сознанием информации. Если у К. Шеннона каждый полученный бит информации повышает наши знания о предмете, что одновременно приводит к снижению хаоса системы, росту ее упорядоченности, т.е. к снижению энтропии. Следует принимать во внимание и тот фактор, что знание воспроизводит как наше знание об объекте, так и одновременно формирует большую неопределённость одновременно. Этот вывод только на первый взгляд является парадоксальным. Проблема в том, что информация, снижая нашу неопределенность, увеличивая большую адекватность идеальных моделей, одновременно открывает новые пласты внутренних связей самого объекта. Неопределенность воспроизводится уже на ином уровне, и хотя человек повышает свою информативность о функционировании системы, она, тем не менее, остаётся и воспроизводится на новом качественном уровне, как осознание того, что знание  объекта одновременно для исследователя открывает глубины, о которых прежде исследователь мог только догадываться.

Это суждение было высказано Сократом, которое в переводе с древне-греческого ( ἓν οἶδα ὅτι οὐδὲν οἶδα) воспроизводится --  Я знаю, что ничего не знаю. В некоторых работах эту идею приписывают Демокриту – «Чем больше я знаю, тем больше понимаю, что ничего не знаю». Если вести речь о самом концепте этого суждения, то последнее иллюстрируется шаром, которое имеет внутренний объем и внешнюю поверхность. Получая информацию, т.е. знание о поверхности мы как-бы увеличиваем наше знание. Но рост площади поверхности ведет к увеличению объема уже в другой пропорции. Другими словами, информация о поверхности увеличивает размер той части, которая скрывается от познающего. Следовательно, возрастает неопределённость моделей, а, следовательно, информационная энтропия.

При этом следует принимать во внимание то положение, что знание раскрывает истину объекта. Если же поток информации приводит к ошибочным выводам о функционировании системы, т.е. имеет место, так называемый эффект Даннинга-Крюгера. То это не приводит ни к увеличению упорядоченности, т.е. к снижению энтропии, а еще в большей мере увеличивает дезинформацию, следовательно, к росту энтропии в силу слабой мощи разума.

Интерес здесь представляют не когнитивные способности или неспособности разума понимать и трактовать информацию, а понимание того обстоятельства, что знание способно формировать тенденцию как снижения, так и возрастания энтропии. Этому способствует формирование творческой составляющей в человеческой деятельности, креативность самого мышления, способного обнаруживать иные связи, которые будут выявляться при более углубленном рассмотрении объекта интереса исследователя.

Познающий разум должен быть не только обладать творческим мышлением, но выходить за рамки устоявшихся форм оценок в анализе информации. Для этого познание обязано обладать свободой, т.е. человек должен обладать творчеством, или креативностью в исследовании и духовной свободой.

Информационная энтропия может возрастать в результате данной модели поведения исследователя. Общество, которое сформировало предпосылки для творчества, креативности, должно быть свободным от устоявшихся стереотипов поведения, быть внутренне раскрепощенным, что позволит видеть иные решения, формировать альтернативы, когда будут с необходимостью возникать новые точки бифуркации [3]. Таким образом сама экономика будет приобретать новое качество, приобретать признаки креативной экономики, когда производство знаний, информации становится сущностным продуктом, высоко оцениваемым обществом и создающим для своего развития все необходимые предпосылки [6].  Креативная экономика есть по своей сути инновационная экономика, «креативная индустрия» (creative industries), в которой существенным отличительным признаком становится сектор, отрасль, ориентированный на производство информации, её распространение, тиражирование знаний, умений и компетенций. Здесь актуальна идея А. Эйнштейна, что ни одна проблема не может быть решена при том уровне сознания, на котором она была создана.

Список литературы

1. Афонин Д.Н., Афонин П.Н. Система управления рисками таможенных органов Российской Федерации: монография, Москва-Берлин, 2022.

2. Найт Ф.Х.. Риск, неопределенность и прибыль / Пер. с англ. - Дело, 2003. 360с.

3. Останин В.А., Печерица Д.В. Инновационное предпринимательство на трансграничных территориях Китая и России: формирование креативного экономического пространства // Экономика и предпринимательство. 2018. № 10. С. 344-348. https://elibrary.ru/item.asp?id=35654440.

4. Чикишев Н.С., Афонин П.Н. Управление рисками нарушения таможенного законодательства в условиях экономического кризиса // Актуальные проблемы экономики, социологии и права. 2015. № 2. С. 213-217.

5. Шеннон, К. Математическая теория связи // Работы по теории информации и кибернетики / Пер С. Карпова. М.: ИИЛ, 1963. 830 с.

6. Florida, Richard, Irene Tinagli. Europe in the Creative Age. Pittsburgh : Carnegie Mellon Software Industry Center / London : Demos, February, 2004.

7. Florida, Richard. The Economic Geography of Talent. Annals of the American Association of Geographers, 2002, N 4 (92), P. 743-755.

8. Florida, Richard. The Geograph of Bohemia Pittsburgh Carnegie Mellon University, 2001 - Режим доступа // www.heinz.cmu.edu/~florida/


Войти или Создать
* Забыли пароль?