В. Корогодин - Информация как основа жизни

На нашем литературном портале можно бесплатно читать книгу В. Корогодин - Информация как основа жизни, В. Корогодин . Жанр: Прочая справочная литература. Онлайн библиотека дает возможность прочитать весь текст и даже без регистрации и СМС подтверждения на нашем литературном портале fplib.ru.
В. Корогодин - Информация как основа жизни
Название: Информация как основа жизни
Издательство: -
ISBN: нет данных
Год: -
Дата добавления: 6 март 2020
Количество просмотров: 213
Читать онлайн

Помощь проекту

Информация как основа жизни читать книгу онлайн

Информация как основа жизни - читать бесплатно онлайн , автор В. Корогодин
1 ... 4 5 6 7 8 ... 56 ВПЕРЕД

2. Бриллюэн Л. Научная неопределенность и информация. М.: "Мир", 1966.

3. Кадомцев Б. Б. Динамика и информация. Редакция журнала "Успехи физических наук", 1997.

4. Kolmogorov А. N. Infomation transmission. V.I, 1965. № 3.

5. Zurek W. H. Complexity, Entropy and Phisics of Information (Ed. W. H. Zurek). Addison-Wesley. 1990.

6. Дастр Н. Жизнь материи. Краткий систематический словарь биологических наук. Ч. 3. СПб.: 1904. С. 5-31.

7. Лункевич В. В. Основы жизни. Ч. 1., М.-Л.: 1928

8. Дриш Г. Витализм. Его история и система. М.: 1915.

9. Харкевич А. А. О ценности информации. Проблемы кибернетики. Вып. 4, М.: Физматгиз, 1960. С. 53-72.

10. Корогодин В. И. Определение понятия "информация" и возможности его использования в биологии. Биофизика, 1983, Т. 28., вып. 1, С. 171-177.

11. Prigogine I. Introduction to Nonequilibrium Thermodynamics. Wiley-Interscience. NY. 1962.

12. Баблоянц А. Молекулы, динамика и жизнь. М.: "Мир", 1970.

13. Моисеев Н. Расставание с простотой. М.: Аграф. 1998.

14. фон Нейман Дж. Общая и логическая теория автоматов. В кн.: Тьюринг А. Может ли машина мыслить? М.: Гос. изд. физ.-мат. лит., I960, С. 59-101.

15. Винер Н. Кибернетика, или управление и связь в животном и машине. М.: "Советское радио", 1968.

16. Серавин Л. Н. Теория информации с точки зрения биолога. Л.: Изд. Лен. унив., 1973.

17. Эйген М., Шустер П. Гиперцикл. М.: "Наука", 1980.

18. Шредингер Э. Что такое жизнь? М.: Изд. Ин. Лит.. 1947.

19. Тимофеев-Ресовский Н. В., Циммер К. Г., Дельбрюк М. О природе генных мутаций и структуре гена. В кн: Н. В. Тимофеев-Ресовский. Избранные труды. М.: "Медицина", 1996. С. 105-153.

20. Меллер Г. Д. Проблема изменчивости гена. В кн.: Г.Д.Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 178-205.

21. Меллер Г. Д. Ген как основа жизни. // Г. Д. Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 148-177.

22. Северцов А. Н. Эволюция и психика. М.: Изд. Собакиных. 1922.

23. Северцов А. Н. Морфологические закономерности эволюции. В кн.: А.Н. Северцов, Собр. сочинений, Т. 5, М.-Л.: Изд. АН СССР. С. 210-216.

24. Tinbergen N. The Study of Instinct. Oxf.: 1969.

25. Лоренц К. 3. Кольцо царя Соломона. М.: "Знание", 1978.

26. Панов Е. Н. Этология – ее истоки, становление и место в исследовании поведения. М.: "Знание", 1975.

27. Крушинский Л. В. Биологические основы рассудочной деятельности. М.: Изд-во МГУ, 1977.

28. Корогодин В. И. Информация и феномен жизни. Пущшо: 1991.

29. Korogodin V. I., Fajszi Cs. Int. J. System set, 1986, v.17, №12. P. 1661-1667.

30. Поршнев Б. Ю. О начале человеческой истории (Проблемы палеопсихологии). М.: "Наука", 1976.


Глава первая

ИСТОРИЧЕСКАЯ СПРАВКА


Термин "информация"

Термин "информация" пришел к нам из латинского языка (informatio), и обычно переводится как "представление", "понятие" (о чем-либо), "изложение", "сведения", "осведомление", "сообщение" и т. п. Термин этот интуитивно ясный, обладает широчайшим смысловым полем и поэтому столь же трудно поддается определению, как и его русские синонимы. В. В. Налимов [1] приводит несколько попыток определить понятие "информация", предпринятых разными авторами, ни одну из которых нельзя признать удавшейся. "Даже эта совсем небольшая подборка определений понятия "информация", – пишет он, показывает, сколь полиморфно по своему смысловому значению это слово. Здесь развитие полиморфизма связано прежде всего с тем, что ни одно из определений не отвечает нашим интуитивным представлениям о смысле этого слова. И всякая попытка определения приписывает этому слову совершенно новые черты, отнюдь не раскрывающие, а суживающие и тем самым затемняющие его смысл и уже безусловно увеличивающие семантический полиморфизм этого слова" (стр. 127). Это отражает саму специфику феномена, обозначаемого этим термином.

Определить понятие можно двумя способами – либо сведя его к более элементарным (фундаментальным), либо перечислив круг явлений, к нему относящихся. В основе обоих видов определения лежит возможность расчленить, подразделить смежные понятия или феномены, т. е. дискретность. Дискретность, как известно, фундаментальное свойство материального мира, т. е. мира вещей и энергии. Именно дискретность природных явлений составляет базу всех естественных наук. В случае информации дело обстоит иначе. Слагается ли информация из отдельных дискретных составляющих, или это непрерывный, точнее, – неразрывный поток, лишь искусственно расчлененный на отдельные сообщения или сведения? Ответить на этот вопрос мы не можем. Но, может быть, именно эта особенность информации отражает тот факт, как пишет Н. Винер [2], что "Информация есть информация, а не материя и не энергия" (стр. 201), т. е. не принадлежит миру вещей. Ниже мы еще не раз к этому будем возвращаться. Сейчас же важно понять, почему никто из упомянутых выше ученых, стоявших у истоков теории информации, не попытался дать строгого определения этого термина.

Так складывалась теория, объект которой не был определен. В науке впервые возникла ситуация, подобная той, которая характерна для древнееврейской религии: Бог имеет множество имен, но ни одно из них нельзя произносить вслух. В области религии это вполне допустимо. В науке же все идеи и направления постоянно дискутируются. Мы дадим главные идеи из разных областей, где может быть использован этот термин.


Формула Шеннона

Возникновение классической теории информации было индуцировано развитием технических систем связи, призванных служить обмену информацией между людьми. Подчеркнем – технических систем, работа которых определяется законами физики, т. е. законами материального мира. Задача оптимизации работы таких систем требовала, прежде всего, решить вопрос о количестве информации, передаваемой по каналам связи. Поэтому вполне естественно, что первые шаги в этом направлении сделали сотрудники Bell Telephon Companie – X. Найквист, Р. Хартли и К. Шеннон [3].

В 1924 г. X. Найквист предложил измерять количество информации, приходящееся на одну букву текста, передаваемого по каналу связи, величиной Н-1/п, где п – число букв в используемом языке. Спустя четыре года Р. Хартли, исходя из требования аддитивности, в качестве такой меры начал применять логарифм этой величины, т. е. log(1/n). Двадцать лет спустя, в 1948 г., К. Шеннон для этой же цели ввел величину (6)

где Hi – количество информации, связанное с i-ой буквой алфавита, pi – частота встречаемости этой буквы в данном языке, q - основание логарифмов, а k – коэффициент пропорциональности, величина которого зависит от q и от избранных единиц измерения количества информации; знак "минус" перед k поставлен для того, чтобы величина Hi всегда была положительной. Тогда суммарное количество информации для сообщения, состоящего из М букв, будет (7):

где mi – число i-х букв в сообщении

К. Шеннон показал, что с увеличением длины сообщения М почти всегда будет иметь "типичный состав": (тi/М ® рi). Следовательно, (8)

В случае бинарного кода, когда n = 2, а р1 = р2 = 0.5, q=2 и k=1, количество информации Нм становится равным М и выражается в так называемых бинарных единицах – битах.

Приведенные формулы послужили К. Шеннону основанием для исчисления пропускной способности каналов связи и энтропии источников сообщений, для улучшения методов кодирования и декодирования сообщений, для выбора помехоустойчивых кодов, а также для решения ряда других задач, связанных с оптимизацией работы технических систем связи. Совокупность этих представлений, названная К. Шенноном "математической теорией связи", и явилась основой классической теории информации.

Теперь обратим внимание на три характерные черты этой работы К. Шеннона. Во-первых, в ней отсутствует определение понятия "информация". Во-вторых, термин "количество информации" здесь используется как синоним статистических характеристик букв, составляющих сообщение. В-третьих, по отношению к источнику сообщений здесь применяется слово "энтропия". Черты эти, несущественные в контексте математической теории связи, оказали значительное влияние на судьбу теории информации.

Отсутствие определения понятия "информация" в работах К. Шеннона и его предшественников, по-видимому, довольно естественно – они в нем просто не нуждались. Ведь работы эти были посвящены не теории информации, а теории связи. То, что по каналам связи передают осмысленные сообщения, т. е. информацию, было очевидно, – ведь для этого их и создавали. Замечательной особенностью каналов связи является то, что по ним можно передавать любую информацию, пользуясь ограниченным числом сигналов или букв. При этом передают по каналам связи именно буквы, сигналы, а не информацию как таковую. Объекты передачи, следовательно, имеют материальную, физическую природу – обычно это модуляции напряженности электрического тока. Ответа требовал не вопрос "Что такое информация?", а вопрос "Какое количество информации можно передать в единицу времени, пользуясь данным набором сигналов?". Предложенное К. Шенноном определение "количества информации" (6) хорошо согласовывалось с дискретной[1] природой сигналов, обычно передаваемых по каналам связи. И в то же время, такая мера "количества информации" создавала ощущение, не встречающее сопротивления на психологическом уровне, что чем реже происходит данное событие – появление данного сигнала на выходе канала связи, тем больше это событие "несет с собой" информации.

1 ... 4 5 6 7 8 ... 56 ВПЕРЕД
Комментариев (0)
×