ИНФОРМАЦИЯ
(от
лат. informatio - разъяснение, изложение), первоначально - сведения, передаваемые
одними людьми другим людям устным, письменным или к.-л. другим способом
(напр., с помощью условных сигналов, с использованием технич. средств и
т. д.), а также сам процесс передачи или получения этих сведений. И. всегда
играла в жизни человечества очень важную роль. Однако в сер. 20 в. в результате
социального прогресса и бурного развития науки и техники роль И. неизмеримо
возросла. Кроме того, происходит лавинообразное нарастание массы разнообразной
И., получившее название "информационного взрыва". В связи с этим возникла
потребность в научном подходе к И., выявлении её наиболее характерных свойств,
что привело к двум принципиальным изменениям в трактовке понятия И. Во-первых,
оно было расширено и включило обмен сведениями не только между человеком
и человеком, но также между человеком и автоматом, автоматом и автоматом;
обмен сигналами в животном и растит, мире. Передачу признаков от клетки
к клетке и от организма к организму также стали рассматривать как передачу
И. (см. Генетическая информация, Кибернетика биологическая).
Во-вторых,
была предложена количеств, мера И. (работы К. Шеннона,
А. Н. Колмогорова
и
др.), что привело к созданию информации теории.
Более общий,
чем прежде, подход к понятию И., а также появление точной количеств, меры
И. пробудили огромный интерес к изучению И. С нач. 1950-х гг. предпринимаются
попытки использовать понятие И. (не имеющее пока единого определения) для
объяснения и описания самых разнообразных явлений и процессов.
Исследование
проблем, связанных с научным понятием И., идёт в трёх осн. направлениях.
Первое из них состоит в разработке матем. аппарата, отражающего осн. свойства
И. (см. Информация в кибернетике).
Второе направление
заключается в теоретич. разработке различных аспектов на базе уже имеющихся
матем. средств, в исследовании различных свойств И. Напр., уже с момента
создания теории И. возникла сложная проблема измерения ценности, полезности
И. с точки зрения её использования. В большинстве работ по теории И. это
свойство не учитывается. Однако важность его несомненна. В количеств, теории,
выдвинутой в 1960 А. А. Харкевичем, ценность И. определяется как
приращение вероятности достижения данной цели в результате использования
данной И. Близкие по смыслу работы связаны с попытками дать строгое математич.
определение количества се-мантич. (т. е. смысловой) И. (Р. Карнап и
др.).
Третье направление
связано с использованием информационных методов в лингвистике, биологии,
психологии, социологии, педагогике и др. В лингвистике, напр., проводилось
измерение информативной ёмкости языков. После статистич. обработки большого
числа текстов, выполненной с помощью ЭВМ, а также сопоставления длин переводов
одного и того же текста на разные языки и многочисл. экспериментов по угадыванию
букв текста выяснилось, что при равномерной нагрузке речевых единиц информацией
тексты могли бы укоротиться в 4-5 раз. Так был с этой точки зрения установлен
факт избыточности естеств. языков и довольно точно измерена её величина,
находящаяся в этих языках примерно на одном уровне. В нейрофизиологии информационные
методы помогли лучше понять механизм действия осн. закона психофизики -
закона Вебера - Фехнера, к-рый утверждает, что ощущение пропорционально
логарифму возбуждения. Именно такая зависимость должна иметь место в случае,
если нервные волокна, передающие сигналы от акцепторов к мозгу, обладают
свойствами, присущими идеализированному каналу связи, фигурирующему в теории
И. Значит, роль информационный подход сыграл в генетике и молекулярной
биологии, позволив, в частности, глубже осознать роль молекул РНК как переносчиков
И. Ведутся также исследования по применению информационных методов в искусствоведении.
Такое разнообразное
использование понятия И. побудило нек-рых учёных придать ему общенаучное
значение. Основоположниками такого общего подхода к понятию И. были англ,
нейрофизиолог У. Р. Эшби и франц. физик Л. Брил-люэн. Они
исследовали вопросы общности понятия энтропии в теории И. и термодинамике,
трактуя И. как отрицательную энтропию (негэнтропию). Бриллюэн и его последователи
стали изучать информационные процессы под углом зрения второго начала
термодинамики, рассматривая передачу И. нек-рой системе как усовершенствование
этой системы, ведущее к уменьшению её энтропии. В нек-рых филос. работах
был выдвинут тезис о том, что И. является одним из основных универсальных
свойств материи. Положительная сторона этого подхода состоит в том, что
он связывает понятие И. с понятием отражения. См. также ст. Информатика,
Информация общественно-политическая, Массовая коммуникация.
Лит.: Эшби
У. Р., Введение в кибернетику, пер. с англ., М., 1959; Xаркевич А. А.,
О ценности информации, в сб.: Проблемы кибернетики, в. 4, М., 1960; Шеннон
К. Э., Работы по теории информации и кибернетике, пер. с англ., М., 1963;
Колмогоров А. Н., Три подхода к
определению понятия "количество информации", "Проблемы передачи информации",
1965, т. 1, в. 1; Бриллюэн Л Научная неопределённость и информация, пер.
с англ., М., 1966; Урсул А. Д., Информация, М., 1971. В. Н. Тростников.
А Б В Г Д Е Ё Ж З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Ъ Ы Ь Э Ю Я