Ѕаза знаний студента. –еферат, курсова€, контрольна€, диплом на заказ

курсовые,контрольные,дипломы,рефераты

»нформаци€: пон€ти€, виды, получение, измерение и проблема обучени€ — »нформатика, программирование

ѕосмотреть видео по теме –еферата

¬.ћ.  азиев

ѕон€тие информации (informatio - разъ€снение, осведомление, изложение) €вл€етс€ одним из основных, ключевых пон€тий не только в информатике (в информологии - области знаний, изучающей про€вление информации, еЄ представление, измерение и т.д.), но и в математике, в физике и др. ѕон€тие Уинформаци€Ф - плохо формализуемое и структурируемое пон€тие. ¬ силу его всеобщности, объЄмности, расплывчатости оно часто понимаетс€ неточно и неполно не только обучаемыми.  ак правило, это пон€тие в курсе информатики не определ€етс€, принимаетс€ как исходное базовое пон€тие, неопредел€емый терм.

»нформаци€ трактуетс€ по разному, например, как:

люба€ сущность, котора€ вызывает изменени€ в некоторой информационно-логической (инфологической - состо€щей из данных, знаний, абстракций и т.д.) модели системы (математика, системный анализ);

сообщени€, полученные системой от внешнего мира в процессе адаптивного управлени€, приспособлени€ (теори€ управлени€, кибернетика);

отрицание энтропии, отражение меры хаоса в системе (термодинамика);

св€зи, устран€ющие неопределЄнность в системе (теори€ информации);

веро€тность выбора в системе (теори€ веро€тностей);

отражение разнообрази€ в системе (физиологи€, биокибернетика);

отражение материи, атрибут сознани€, УинтеллектаФ системы (философи€).

¬ соответствии с парадигмой фундаментальности информатики как образовательной и научной дисциплины, еЄ исключительной роли в усилении междисциплинарных св€зей, познании системно-информационной картины мира, необходимо введение в это фундаментальное, первичное пон€тие информатики на достаточно научном, строго-пон€тийном и в то же врем€ доступном, содержательном уровне, например, с помощью содержательных примеров и задач. Ёта проблема св€зана с трудност€ми методологического и методического плана. ƒанна€ стать€ (адаптированные к школе выдержки из рукописи авторского учебника У»нформатикаФ дл€ студентов, второе переработанное и дополненное издание [9]) ставит своей целью облегчение этой трудной, но об€зательно нуждающейс€ в рассмотрении задачи.

1. ѕон€тие информации, виды информации

»нформаци€ - это некотора€ последовательность (налицо упор€доченность) сведений, знаний, которые актуализируемы (получаемы, передаваемы, преобразуемы, сжимаемы или регистрируемы) с помощью некоторых знаков (символьного, образного, жестового, звукового, сенсомоторного типа). Ёто приращение, развитие, актуализаци€ знаний, возникающее в процессе целеполагающей интеллектуальной де€тельности человека. Ќикака€ информаци€, никакое знание не по€вл€етс€ сразу - этому предшествует этап накоплени€, осмыслени€, систематизации опытных данных, взгл€дов. «нание - продукт такого процесса. ћышление - необходимый атрибут такого процесса.

»нформаци€ может существовать в пассивной (не актуализированной) и активной (актуализированной) форме.

ѕример. »нформаци€ актуализируетс€ сообщени€ми, при этом формы облачени€ информации в сообщени€ различны, например, дл€ живых существ - сигналы, жесты, дл€ технических устройств - сигналы. »нформаци€ передаваема€ от одного человека другому, может передаватьс€ символами (письмо), жестами (сигнальщик на боевом корабле), звуками (диктор), геометрическими фигурами (чертЄжник), художественными образами (балерина). »нформаци€ передающа€с€ животными может быть передана звуками (лай, вой, писк), ситуационным поведением (образами). »нформаци€ в технических устройствах, автоматах может быть передана электрическими, магнитными, световыми импульсами, как это происходит в Ё¬ћ.

»нформаци€ по отношению к окружающей среде (или к использующей ее среде) бывает трех типов: входна€, выходна€ и внутренн€€.

¬ходна€ информаци€ (по отношению к окружающей среде) - информаци€, которую система воспринимает от окружающей среды.

¬ыходна€ информаци€ (по отношению к окружающей среде) - информаци€, которую система выдает в окружающую среду.

¬нутренн€€, внутрисистемна€ информаци€ (по отношению к системе) - информаци€, котора€ хранитс€, перерабатываетс€, используетс€ только внутри системы т.е. актуализируема€ лишь только подсистемами системы. Ёто несколько идеализированное (особенно с точки зрени€ физики открытых систем) пон€тие.

ѕример. „еловек воспринимает, обрабатывает входную информацию, например, данные о погоде на улице, формирует выходную реакцию - ту или иную форму одежды. ѕри этом используетс€ внутренн€€ информаци€, например, это генетически заложенна€ (или приобретЄнна€) физиологическа€ информаци€ о реакции, например, о "морозостойкости" человека.

ѕример. √енетически заложенна€ в молекулах ƒЌ  информаци€ и приобретЄнна€ информаци€ (в пам€ти) вли€ют на поведение, на адаптацию человека в окружающей среде. ¬ машинах первого поколени€ внутренн€€ структура определ€лась тыс€чами ламп, причем кажда€ из них отдельно была невысокой надежности, т.е. вс€ система была ненадежной в работе. Ёто вли€ло на входную информацию, например, такие Ё¬ћ не были способны на работу в многозадачном режиме, в режиме реального времени (обработки сообщений по мере получени€ входных данных).

»нформаци€ по отношению к конечному результату проблемы бывает:

исходна€ (на начало актуализации этой информации);

промежуточна€ (от начала до завершени€ актуализации информации);

результирующа€ (после завершени€ еЄ актуализации).

ѕример. ѕри решении системы линейных алгебраических уравнений информаци€ от методах решени€, среде реализации, входных данных (источники, точность и т.д.), размерности системы и т.д. €вл€етс€ исходной информацией; информаци€ о совместности системы уравнений, численных значени€х корн€ и т.д. - результирующа€; информаци€ о текущих состо€ни€х коэффициентов уравнений реализации схемы √аусса - промежуточна€.

»нформаци€ по изменчивости при еЄ актуализации бывает:

посто€нна€ (не измен€ема€ никогда при еЄ актуализации);

переменна€ (измен€ема€ при актуализации);

смешанна€ - условно - посто€нна€ (или условно-переменна€).

ѕример. ¬ известной физической задаче определени€ дальности полЄта снар€да артиллерийского оруди€, информаци€ об угле наклона оруди€ может быть переменной, информаци€ о начальной скорости вылета снар€да - посто€нной, а информаци€ о координатах цели - условно-посто€нной.

¬озможна также классификаци€ информации и по другим признакам:

по стадии использовани€ (первична€, вторична€);

по полноте (избыточна€, достаточна€, недостаточна€);

по отношению к цели системы (синтаксическа€, семантическа€, прагматическа€);

по отношению к элементам системы (статическа€, динамическа€);

по отношению к структуре системы (структурна€, относительна€);

по отношению к управлению системой (управл€юща€, советующа€, преобразующа€, смешанна€);

по отношению к территории, территориально (федеральна€, региональна€, местна€, относ€ща€ к юридическому лицу, относ€ща€с€ к физическому лицу, смешанна€);

по доступу (открыта€ или общедоступна€, закрыта€ или конфиденциальна€, смешанна€);

по предметной области, по характеру использовани€ (статистическа€, коммерческа€, нормативна€, справочна€, научна€, учебна€, методическа€ и т.д., смешанна€) и другие.

»нформаци€ в философском аспекте бывает, в основном: мировоззренческа€; эстетическа€; религиозна€; научна€; бытова€; техническа€; экономическа€; технологическа€.

¬се это (с человеком) составл€ет ноосферу общества - более высокое состо€ние биосферы, возникшее в результате эволюции, структурировани€, упор€дочивани€ и гармонизации св€зей в природе и обществе под воздействием целеполагающей де€тельности человечества. Ёто пон€тие введено впервые ¬. ». ¬ернадским в качестве отражени€ эволюции общества и природы т.е. системы, в рамках которой потенциально может быть реализовано гармоническое, устойчивое развитие (эволюци€) систем УќбществоФ и УѕриродаФ, а также постепенное сли€ние, интеграци€ и гармонизаци€ наук о природе, познании и об обществе. Ѕез этого невозможно построение информационного общества.

ќсновные свойства информации (и сообщений):

полнота (содержание всего необходимого дл€ понимани€ информации);

актуальность (необходимость) и значимость (сведений, знаний);

€сность (выразительность сообщений на €зыке интерпретатора);

адекватность, точность, корректность (актуализации знаний);

интерпретируемость и пон€тность (интерпретатору информации);

достоверность (отображаемых сообщени€ми информации);

информативность, значимость (сообщений, отображающих информацию);

массовость (применимость ко всем про€влени€м);

кодируемость и экономичность (кодировани€, актуализации сообщений);

сжимаемость и компактность (сообщений);

защищЄнность и помехоустойчивость (актуализации информации);

доступность (интерпретатору);

ценность (значимость при достаточном уровне потребител€).

ѕример. –екламный щит - простой красочный кусок дерева (железа), но информаци€ заложенна€ в сообщени€х на этом щите должна обладать всеми вышеперечисленными свойствами и только тогда этот щит будет ассоциироватьс€ у интерпретатора (человека) с рекламируемым товаром (услугами) и актуализировать информацию. ѕри этом вс€ форма представлени€ рекламы должна строитьс€ с учетом пон€тности интерпретатору, быть информативной. ѕока символы не организованы определенным образом, не используютс€ дл€ некоторой определЄнной цели, они не отражают информацию.

»нформаци€ может оказатьс€ и вредной, вли€ющей негативно на сознание, например, воспитывающей воспри€тие мира от безразличного или же некритического - до негативного, "обозлЄнного", неадекватного. »нформационный поток - достаточно сильный раздражитель.

ѕример. Ќегативной информацией - раздражителем может быть информаци€ о крахе коммерческого банка, о резком росте (спаде) валютного курса, об изменении налоговой политики и др.

»нформаци€ не существует без других типов ресурсов - энергии, вещества, организации, как и они не могут существовать без информации. Ћюбые взаимодействи€ систем (подсистем) - взаимодействи€ всегда материально-энерго-информационные. ¬ы€вление (структурирование, упор€дочивание, установление отношений), формализаци€ (описание формальными средствами, €зыками), изучение (разработка моделей, методов, алгоритмов), применение (разработка и актуализаци€ технологий) этих взаимодействий и составл€ет основную задачу информатики - как науки, как человеческой де€тельности.

2. ћетоды получени€, использовани€ информации

ћетоды получени€ и использовани€ информации можно разделить на три группы, условно разграничиваемые и часто перекрываемые друг другом.

Ёмпирические методы или методы получени€ эмпирической информации (эмпирических данных).

“еоретические методы или методы получени€ теоретической информации (построени€ теорий).

Ёмпирико - теоретические методы (смешанные, полуэмпирические) или методы получени€ эмпирико-теоретической информации.

ќхарактеризуем кратко эмпирические методы.

Ќаблюдение - сбор первичной информации о системе (в системе).

—равнение - установление общего и различного в системе (системах).

»змерение - нахождение эмпирических законов, фактов дл€ системы.

Ёксперимент - целенаправленное преобразование системы (систем).

 роме этих классических форм их реализации в последнее врем€ используютс€ и такие формы как опрос, интервью, тестирование и др.

ќхарактеризуем кратко эмпирико - теоретические методы.

јбстрагирование - установление общих свойств объекта (объектов), замещение системы ее моделью.

јнализ - разъединение системы на подсистемы с целью вы€влени€ их взаимосв€зей.

—интез - соединение подсистем в систему с целью вы€влени€ их взаимосв€зей.

»ндукци€ - получение знани€ о системе по знани€м о подсистемах.

ƒедукци€ - получение знани€ о подсистемах по знани€м о системе.

Ёвристики, использование эвристических процедур - получение знани€ о системе по знани€м о подсистемах и наблюдени€м, опыту.

ћоделирование, использование приборов - получение знани€ об объекте с помощью модели и/или приборов.

»сторический метод - нахождение знаний о системе путем использовани€ его предыстории.

Ћогический метод - метод нахождени€ знаний о системе путЄм воспроизведени€ его подсистем, св€зей или элементов в мышлении, в сознании.

ћакетирование - получение информации по макету системы, т.е. с помощью представлени€ подсистем в упрощенном виде, сохран€ющем информацию, необходимую дл€ понимани€ взаимодействи€ и св€зей этих подсистем.

јктуализаци€ - получение информации с помощью активизации, инициализации еЄ, т.е. переводом из статического (неактуального) состо€ни€ в динамическое (актуальное) состо€ние; при этом все необходимые св€зи и отношени€ (открытой) системы с внешней средой должны быть сохранены.

¬изуализаци€ - получение информации с помощью визуального представлени€ состо€ний актуализированной системы; визуализаци€ предполагает возможность выполнени€ операции типа УпередвинутьФ, УповернутьФ, УукрупнитьФ, УуменьшитьФ, УудалитьФ, УдобавитьФ и т.д. (как по отношению к отдельным элементам, так и к подсистемам системы).

¬ последнее врем€ часто используютс€ и такие формы как мониторинг (система наблюдений и анализа состо€ний системы), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитаци€ (имитационна€ процедура, эксперимент) и др.

ќхарактеризуем кратко теоретические методы.

¬осхождение от абстрактного к конкретному - получение знаний о системе на основе знаний о его про€влени€х в сознании, в мышлении.

»деализаци€ - получение знаний о системе или о ее подсистемах путЄм мысленного конструировани€, представлени€ в мышлении систем и/или подсистем, не существующих в действительности.

‘ормализаци€ - получение знаний о системе с помощью знаков или же формул, т.е. €зыков искусственного происхождени€, например, €зыка математики (или математическое, формальное описание, представление).

јксиоматизаци€ - получение знаний о системе или процессе с помощью некоторых, специально дл€ этого сформулированных аксиом и правил вывода из этой системы аксиом.

¬иртуализаци€ - получение знаний о системе созданием особой среды, обстановки, ситуации, которую реально, без этой среды невозможно реализовать и получить соответствующие знани€.

¬се эти методы получени€ информации обычно примен€ютс€ многоуровневым комплексным образом и можно предложить схему †

3. »змерение сообщений и информации

≈сли отвлечьс€ от конкретного смыслового содержани€ информации и рассматривать сообщени€ информации как последовательности знаков, сигналов, то их можно представл€ть битами, а измер€ть в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.

¬ыше было отмечено, что информаци€ может пониматьс€ и интерпретироватьс€ по разному. ¬следствие этого имеютс€ различные подходы к определению методов измерени€ информации, меры количества информации. –аздел информатики (теории информации) изучающий методы измерени€ информации называетс€ информметрией.

 оличество информации - числова€ величина, адекватно характеризующа€ актуализируемую информацию по разнообразию, сложности, структурированности, определЄнности, выбору (веро€тности) состо€ний отображаемой системы.

≈сли рассматриваетс€ система, котора€ может принимать одно из n возможных состо€ний, то актуальна задача оценки такого выбора, исхода. “акой оценкой может стать мера информации (или событи€). ћера - это некотора€ непрерывна€ действительна€ неотрицательна€ функци€, определЄнна€ на множестве событий и €вл€юща€с€ аддитивной т.е. мера конечного объединени€ событий (множеств) равна сумме мер каждого событи€.

1. ћера –. ’артли. ѕусть имеетс€ N состо€ний системы S или N опытов с различными, равновозможными последовательными состо€ни€ми системы. ≈сли каждое состо€ние системы закодировать, например, двоичными кодами определЄнной длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Ќаименьшее число, при котором это возможно или мера разнообрази€ множества состо€ний системы задаЄтс€ формулой –. ’артли: H=k logа N, где k - коэффициент пропорциональности (масштабировани€, в зависимости от выбранной единицы измерени€ меры), а - основание системы меры.

≈сли измерение ведЄтс€ в экспоненциальной системе, то k=1, H=lnN (нат); если измерение - в двоичной системе, то k=1/ln2, H=log2N (бит); если измерение - в дес€тичной системе, то k=1/ln10, H=lgN (дит).

ѕример. „тобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию, необходимо задать 1 вопрос ("Ћева€ или права€ клетка?"). ”знав положение точки, мы увеличиваем суммарную информацию о системе на 1 бит (I=log2 2). ƒл€ системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информаци€ равна 2 битам (I=log24). ≈сли система имеет n различных состо€ний, то максимальное количество информации равно I=log2 n.

—праведливо утверждение ’артли: если во множестве X={x1, x2, ..., xn} выделить произвольный элемент xX, то дл€ того, чтобы найти его, необходимо получить не менее loga n (единиц) информации.

ѕо ’артли, дл€ того, чтобы мера информации имела практическую ценность - она должна быть такова, чтобы отражала количество информации пропорционально числу выборов.

ѕример. »меютс€ 192 монеты из которых одна фальшива€. ќпределим сколько взвешиваний нужно произвести, чтобы определить ее. ≈сли положить на весы равное количество монет, то получим 2 возможности (мы сейчас отвлекаемс€ от того, что в случае фальшивой монеты таких состо€ний будет два - состо€ни€ независимы): а) лева€ чашка ниже; б) права€ чашка ниже. “аким образом, каждое взвешивание дает количество информации I=log22=1 и, следовательно, дл€ определени€ фальшивой монеты нужно сделать не менее k взвешиваний, где k удовлетвор€ет условию log22log2192. ќтсюда, k³ 7 или, k=7. —ледовательно, нам необходимо сделать не менее 7 взвешиваний (достаточно семи).

ѕример. ƒЌ  человека можно представить себе как некоторое слово в четырехбуквенном алфавите, где каждой буквой помечаетс€ звено цепи ƒЌ  или нуклеотид. ќпределим сколько информации (в битах) содержит ƒЌ , если в нем содержитс€ примерно 1,5´ 1023 нуклеотидов. Ќа один нуклеотид приходитс€ log2(4)=2 (бит) информации. —ледовательно, структуры ƒЌ  в организме человека позвол€ет хранить 3´ 1023 бит информации. Ёто вс€ информаци€, куда входит и избыточна€. –еально используемой, - структурированной в пам€ти человека информации, - гораздо меньше. ¬ этой св€зи, заметим, что человек за среднюю продолжительность жизни использует около 5 Ч 6 % нейронов (нервных клеток мозга - У€чеек ќ«” человекаФ). √енетический код - чрезвычайно сложна€ и упор€доченна€ система записи информации. »нформаци€ заложенна€ в генетическом коде (по учению ƒарвина) накапливалась многие тыс€челети€. ’ромосомные структуры - своеобразный шифровальный код и при клеточном делении создаютс€ копии шифра, кажда€ хромосома - удваиваетс€, в каждой клетке имеетс€ шифровальный код, при этом каждый человек получает, как правило, свой набор хромосом (код) от матери и от отца. Ўифровальный код разворачивает процесс эволюции человека. ¬с€ жизнь, как отмечал Ё. Ўредингер, Уупор€доченное и закономерное поведение материи, основанное ... на существовании упор€доченности, котора€ поддерживаетс€ всЄ врем€Ф.

‘ормула ’артли отвлечена от семантических и качественных, индивидуальных свойств рассматриваемой системы (качества информации, содержащейс€ в системе, в про€влени€х системы с помощью рассматриваемых N состо€ний системы). Ёто основна€ положительна€ сторона этой формулы. Ќо имеетс€ и основна€ отрицательна€ сторона: формула не учитывает различимость и различность рассматриваемых N состо€ний системы.

”меньшение (увеличение) Ќ может свидетельствовать об уменьшении (увеличении) разнообрази€ состо€ний N системы.

ќбратное, как это следует из формулы ’артли (основание логарифма берЄтс€ больше 1!), - также верно.

ћера  . Ўеннона. ‘ормула Ўеннона дает оценку информации независимо, отвлеченно от ее смысла:

n I = Ч å pi log2 pi . i=1

где n - число состо€ний системы; рi - веро€тность (или относительна€ частота) перехода системы в i-ое состо€ние, причем сумма всех pi равна 1.

≈сли все состо€ни€ равноверо€тны (т.е. рi=1/n), то I=log2n.

 . Ўенноном доказана теорема о единственности меры количества информации. ƒл€ случа€ равномерного закона распределени€ плотности веро€тности мера Ўеннона совпадает с мерой ’артли. —праведливость и достаточна€ универсальность формул ’артли и Ўеннона подтверждаетс€ и данными нейропсихологии.

ѕример. ¬рем€ t реакции испытуемого на выбор предмета из имеющихс€ N предметов линейно зависит от log2N: t=200+180log2N (мс). ѕо аналогичному закону измен€етс€ и врем€ передачи информации в живом организме. ¬ частности, один из опытов по определению психофизиологических реакций человека состо€л в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, которую он должен указать. ќказалось, что среднее врем€, необходимое дл€ правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I определ€емой по формуле Ўеннона, где pi - веро€тность зажечь лампочку номер i. .

Ћегко видеть, что в общем случае:

n I = Ч å pi log2 pi £ log2n. i=1≈сли выбор i - го варианта предопределен заранее (выбора, собственно говор€, нет, pi=1), то I=0.

—ообщение о наступлении событи€ с меньшей веро€тностью несЄт в себе больше информации, чем сообщение о наступлении событи€ с большей веро€тностью. —ообщение о наступлении достоверно наступающего событи€ несЄт в себе нулевую информацию (и это вполне €сно, - событие всЄ равно произойдЄт когда-либо).

ѕример. ≈сли положение точки в системе известно, в частности, она - в k-ой клетке, т.е. âñå рi=0, кроме рk=1, то тогда I=log21=0 и мы здесь новой информации не получаем.

ѕример. ¬ы€сним, сколько бит информации несет каждое двузначное число со всеми значащими цифрами (отвлека€сь при этом от его конкретного числового значени€). “ак как таких чисел может быть всего 90 (10 - 99), то информации будет количество I=log290 или приблизительно I=6.5. “ак как в таких числах значаща€ перва€ цифра имеет 9 значений (1- 9), а втора€ - 10 значений (0-9), то I=log290=log29+log210. ѕриблизительное значение log210 равно 3.32. »так, сообщение в одну дес€тичную единицу несет в себе в 3.32 больше информации, чем в одну двоичную единицу (чем log22=1), а втора€ цифра в, например, числе аа несЄт в себе больше информации, чем перва€ (если цифры разр€да а неизвестны; если же эти цифры а известны, то выбора нет - информаци€ равна нулю).

≈сли в формуле Ўеннона обозначить fi = Чn log2 pi , то получим, что I можно понимать как среднеарифметическое величин fi .

ќтсюда, fi можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной pi веро€тности по€влени€ этого символа в сообщении, передающем информацию.

ѕусть сообщение состоит из n различных символов, mi - количество символов номер i=1, 2, .... n в этом сообщении, а N - длина сообщени€ в символах. “огда веро€тность по€влени€ i-го символа в сообщении равна pi=mi/N. „исло всех различных сообщений длины n будет равно

n

p=N! / Õ mi! .

i=1

»нформаци€ в одном таком сообщении равна

n

I=log2 p=ln p / ln 2 = ln ( N! / Õ mi!)/ln 2 .

i=1

»спользу€ формулу —тирлинга (достаточно точна, например, при N>100) - N!ї (N/e)N , а точнее, еЄ следствие - ln N! ї N(ln N Ч 1) получаем (в битах):

n n

I ї (N ln N Ч å mi ln mi ) / ln 2=Ч (N / ln 2) å pi ln pi .

i=1 i=1

ѕример. ѕусть рассматриваетс€ алфавит из двух символов русского €зыка - УкФ и УаФ. ќтносительные частоты встречаемости этих букв в частотном словаре русского €зыка равны соответственно p1=0.028, p2=0.062. ¬озьмем произвольное слово p длины N из k букв УкФ и m (k+m=N) букв УаФ над этим алфавитом. „исло всех таких возможных слов, как это следует из комбинаторики, равно n=N!/(k! m!). ќценим количество информации в таком слове: I=log2 n=ln n / ln2=log2e [ln N! Ч ln k! Ч ln m!]. ¬оспользовавшись следствием приведЄнной выше формулой —тирлинга получаем оценку количества информации (в битах) на 1 символ любого слова:

I1=I/Nї (log2e/N)[(k+m)( ln N Ч1) Ч k(ln kЧ1) Ч m(ln m Ч1)]=

=(log2e/N)[k ln(N/k) Ч m ln(N/m)]=

=Ч log2e[(k/N) ln(k/N) + (m/N) ln(m/N)]£

£ Чlog2e [p1 ln p1+p2 ln p2]=Чlog2e[0.028 ln0.028+0.062 ln0.062]ї 0.235.

ѕример. ¬ сообщении 4 буквы УaФ, 2 буквы УбФ, 1 буква УиФ, 6 букв УрФ. ќпределим количество информации в одном таком (из всех возможных) сообщений. „исло N различных возможных сообщений длиной в 13 букв будет равно величине: N=13!/(4!´ 2!´ 1!´ 6!)=180180.  оличество информации I в одном сообщении будет равно величине: I=log2(N)=log2180180ї 17.5 (бит).

≈сли k- коэффициент Ѕольцмана, известный в физике как k=1.38´ 10-16 эрг/град, то выражение

n S = Чk å pi ln pi i=1в термодинамике известно как этропи€ или мера хаоса, беспор€дка в системе. —равнива€ выражени€ I и S видим, что I можно понимать как информационную энтропию (энтропию из-за нехватки информации о/в системе).

Ќулевой энтропии соответствует максимальна€ информаци€. ќсновное соотношение между энтропией и информацией:

I+S(log2e)/k=const

или в дифференциальной форме

dI/dt= Ч((log2e)/k)dS/dt.

ќсновными положительными сторонами формулы Ўеннона €вл€етс€ еЄ отвлечЄнность от семантических и качественных, индивидуальных свойств системы, а также то, что в отличие от формулы ’артли она учитывает различность, разноверо€тность состо€ний - формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу удобной дл€ практических вычислений. ќсновные отрицательные стороны формулы Ўеннона: она не различает состо€ни€ (с одинаковой веро€тностью достижени€, например), не может оценивать состо€ни€ сложных и открытых систем и применима лишь дл€ замкнутых систем, отвлека€сь от смысла информации.

”величение (уменьшение) меры Ўеннона свидетельствует об уменьшении (увеличении) энтропии (организованности) системы. ѕри этом энтропи€ может €вл€тьс€ мерой дезорганизации систем от полного хаоса (S=Smax) и полной информационной неопределЄнности (I=Imin) до полного пор€дка (S=Smin) и полной информационной определЄнности (I=Imax) в системе.

ѕример. „ем ближе движущийс€ объект к нам, тем полнее информаци€ обрабатываема€ нашими органами чувств, тем чЄтче и более структурирован (упор€дочен) объект. „ем больше информации мы имеем о компьютерной технике, тем меньше психологический барьер перед ним (согласно основному соотношению между энтропией и информацией).

3. “ермодинамическа€ мера. »нформационно-термодинамический подход св€зывает величину энтропии системы с недостатком информации о еЄ внутренней структуре (не восполн€емым принципиально, а не нерегистрируемым). ѕри этом число состо€ний определ€ет, по существу, степень неполноты наших сведений о системе.

ѕусть дана термодинамическа€ система (процесс) S, а Ќ0, Ќ1 - термодинамические энтропии системы S в начальном (равновесном) и конечном состо€ни€х термодинамического процесса, соответственно. “огда термодинамическа€ мера информации (негэнтропи€) определ€етс€ формулой:

Ќ(Ќ01)=Ќ0 Ч Ќ1.

Ёта формула универсальна дл€ любых термодинамических систем. ”меньшение Ќ(Ќ01) свидетельствует о приближении термодинамической системы S к состо€нии статического равновеси€ (при данных доступных ей ресурсах), а увеличение - об удалении.

ѕоставим некоторый вопрос о состо€нии некоторой термодинамической системы. ѕусть до начала процесса можно дать p1 равноверо€тных ответов на этот вопрос (ни один из которых не €вл€етс€ предпочтительным другому), а после окончани€ процесса - p2 ответов. »зменение информации при этом:

D I = k ln(p1 / p2) = k (ln p1 Ч ln p2 ).

≈сли p1 > p2 (D I >0) - прирост информации, т.е. сведени€ о системе стали более определЄнными, а при p1<p2 (D I<0)- менее определЄнными. ”ниверсально то, что мы не использовали €вно структуру системы (механизм протекани€ процесса).

ѕример. ѕредположим, что имеетс€ термодинамическа€ система - газ в объЄме 10 (м3), который расшир€етс€ до объЄма 20 (м3). Ќас интересует вопрос о координате некоторой молекулы газа. ¬ начале мы знали ответ на вопрос и поэтому p1=1 (lnp1=0). „исло ответов было пропорционально [ln10]. ѕосле подн€ти€ заслонки мы знаем координату, микрососто€ние, т.е. изменение информации о состо€нии системы равно D I=Чkln(20/10)=Чkln2 (нат). Ёто известное в термодинамике выражение дл€ прироста энтропии в расчЄте на одну молекулу и оно подтверждает второе начало термодинамики. Ёнтропи€ - мера недостатка информации о микрососто€нии статической системы.

¬еличина D I может быть интерпретирована как количество информации, необходимой дл€ перехода от одного уровн€ организации системы к другой (при D I>0 - более высокой, а при D I>0 - более низкой организации).

“ермодинамическа€ мера (энтропи€) применима к системам, наход€щимс€ в тепловом равновесии. ƒл€ систем, далЄких от теплового равновеси€, например, живых биосистем, мера - энтропи€ - менее подход€ща€.

4. Ёнергоинформационна€ (квантово-механическа€) мера. Ёнерги€ (ресурс) и информаци€ (структура) - две фундаментальные характеристики систем реального мира, св€зывающие их вещественные, пространственные, временные характеристики. ≈сли ј - множество "энергетического происхождени€", а ¬ - множество "информационного происхождени€", то можно определить энергоинформационную меру (системы AЂ B) как отношение, св€зь между этими множествами вида f: AЃ B. ќна должна отражать механизм взаимосв€зей физико-информационных и вещественно-энергетических структур и процессов в системе. —ейчас актуально говорить о биоэнергоинформационных мерах, отражающих механизм взаимосв€зей биофизикоинформационных и вещественно-энергетических процессов в системе, в ноосфере.

ѕример. ѕроцесс делени€ клеток сопровождаетс€ излучением квантов энергии с частотами приблизительно до N=1.5´ 1015 гц. Ётот спектр можно воспринимать как спектр функционировани€ словарного запаса клетки - как биоинформационной системы. — помощью этого спектра можно закодировать до 1015 различных биохимических реакций, что примерно в 107 раз больше количества реакций реально протекающих в клетке (их примерно 108), т.е. словарный запас клетки избыточен дл€ эффективного распознавани€, классификации, регулировании этих реакций в клетке.  оличество информации на 1 квант энергии: I=log21015ї 50 бит. ѕри делении клеток, количество энергии, расходуемой на передачу 50 бит информации равна энергии кванта (h - посто€нна€ ѕланка, n - частота излучени€): E=hn =6.62´ 10Ч27(эрг/cек)´ 0.5´ 1015(секЧ1)=3.3´ 10Ч12 (эрг). ѕри этом, на 1 ¬т мощности "передатчика" или на m =107 эрг/сек. может быть передано количество квантов: n=m /E=107 (эрг/сек)/(3.3´ 10Ч12 (эрг))ї 3.3´ 1018 (квант). ќбща€ скорость передачи информации на 1 ¬т затрачиваемой клеткой мощности определ€етс€ по числу различных состо€ний клетки N и числу квантов (излучений) m: V=n log2N=3.3´ 1018´ 50ї 1.6´ 1020 (бит/сек).

4. ѕон€тие о св€зи информации и самоорганизации

Ћюба€ открыта€ информационна€ система эволюционирует так, что начина€ с состо€ни€ наибольшей энтропии (неопределЄнности) стремитс€ спиралеобразно к новым св€з€м и отношени€м, к организованности и пор€дку в системе в процессе взаимоотношений со средой и перестройки структуры с целью уменьшени€ энтропии.

ѕример. Ќа телевизионной игре У„то? √де?  огда?Ф обсуждение вопроса часто начинаетс€ хаотично, спонтанно, независимо и в конце обсуждени€ может организоватьс€ в единодушное прин€тие правильного решени€.

—амоорганизаци€ может наблюдатьс€ и в неживых системах.

ѕример. Ёволюци€ Ё¬ћ - пример самоорганизации: от 1-го поколени€ Ё¬ћ (40-50-ые годы 19 века) с ненадЄжными электронными лампами и быстродействием пор€дка 104 операций в сек. до 1-го поколени€ оптических вычислительных нейроподобных структур (конец 90-ых годов) с голографической пам€тью, с логикой на потоках фотонов, быстродействием пор€дка 1012 операций в сек. и высокой надЄжностью.

—формулируем основные аксиомы теории информационных динамических процессов (информационной синергетики).

јксиома 1. –азвитие системы определ€етс€ некоторой целью и информационными ресурсами системы.

јксиома 2. ѕри стремлении к цели система воспринимает входную информацию, котора€ используетс€ и дл€ изменени€ внутренней структуры самой системы, внутрисистемной информации.

јксиома 3. »зменение внутрисистемной информации происходит таким образом, чтобы уменьшалась энтропи€ (мера беспор€дка) в системе.

јксиома 4. Ћюбое изменение внутрисистемной информации оказывает воздействие на выходную информацию системы (на окружающую среду).

јксиома 5. ѕроцесс актуализации информации структурирует окружающий нас мир. ¬се, что не познано в данный момент времени, образует УхаосФ, который заставл€ет актуализировать новую информацию, новые формы представлени€ и описани€ знаний, приводит к по€влению новых ветвей знани€; этот хаос развивает при этом и исследовател€.

»нформаци€ - это знание, которое используетс€ дл€ развити€, совершенствовани€ системы и еЄ взаимодействий с окружающей средой.

»нформаци€ сама развиваетс€ вслед за развитием системы. Ќовые формы, принципы, подсистемы, взаимосв€зи и отношени€ вызывают изменени€ в информации, ее содержании, формах получени€, переработки, передачи и использовани€. Ѕлагодар€ потокам информации система осуществл€ет целесообразное взаимодействие с окружающей средой, т.е. управл€ет или управл€ема. —воевременна€ и оперативна€ информаци€ может позволить стабилизировать систему, адаптироватьс€, восстанавливатьс€ при нарушени€х структуры и/или подсистем. ќт степени информированности системы, от взаимодействи€ системы и среды зависит развитие и устойчивость системы.

Ќаблюдаема€ математизаци€ и математическа€ информатизаци€ разделов современной науки показывает, что их эффективность зависит как от сложности и возможности описани€ еЄ законов и принципов адекватными математическими и логико-информационными модел€ми, так и от используемого математического аппарата, выбранных мер информации, интеллектуальной де€тельности, знаний, конструктивных методов и алгоритмов их измерени€, оценивани€ информационных ресурсов.

 роме указанных выше подходов к определению меры информации, есть и множество других (меры ¬инера,  олмогорова, Ўрейдера и др.), но основными методами (в образовательной информатике) €вл€ютс€ указанные. –екомендуютс€ дл€ чтени€ [1-11] (приведены в хронологическом пор€дке).

5. «адачи дл€ самосто€тельного решени€

¬ заключение предложим некоторые задачи дл€ закреплени€ материала и усилени€ интереса при обучении рассмотренной выше проблеме.

«адача 1. ƒЌ  человека можно представить себе как некоторое слово в четырехбуквенном алфавите ’={A, B, C, D}, где буквой помечаетс€ звено цепи ƒЌ  (нуклеотид). —реднее число их равное примерно 1.5´ 1023 нуклеотид. —чита€, что €дро каждой из примерно 1013 клеток человеческого тела €вл€етс€ хранителем генетической информации, оценить объем информации в них (в теле человека).

«адача 2. –есурсы человеческого мозга рассчитаны на переработку информации в 16 бит в сек.  акое количество информации перерабатывает человек за свою жизнь, если предположить что переработка информации идЄт непрерывно в течении средней продолжительности жизни, которую прин€ть равной 70 лет (заметим, что и во врем€ сна человек перерабатывает информацию, более того, сон - продукт такой переработки информации).

«адача 3. Ќекотора€ система может находитьс€ в четырЄх состо€ни€х: в первом - с веро€тностью 0.1, во втором и третьем - с веро€тностью 0.5, в четвЄртом - с веро€тностью 0.4. „ему равно количество информации (или неопределЄнность выбора) в системе? ≈сли система может находитьс€ только в состо€нии номер 2, то чему оно равно?

«адача 4. —истема может принимать 128 различных равноверо€тных состо€ний. если состо€ние системы неизвестно, то каково количество информации в системе (неопределЄнность выбора)? ≈сли известно, что система находитс€ в состо€нии номер 8, то чему равно количество информации?

«адача 5. ќпределить количество информации (в битах) в каждой букве русского алфавита, отождествив веро€тность по€влени€ этой буквы в словах с частотой по частотному словарю русского €зыка приведЄнному ниже. Ќайти какое количество информации определ€етс€ двухбуквенными сочетани€ми (всем алфавитом)? ќценить количество информации в каждом слове из букв УаФ, УбФ, УсФ над алфавитом русского €зыка. „астотный словарь русского €зыка имеет вид:

Ѕуква „астота Ѕуква „астота Ѕуква „астота


о 0.090 к 0.028 ь, ъ, б 0.014

е, е 0.072 м 0.026 ч 0.013

а, и 0.062 д 0.025 й 0.012

т, н 0.053 п 0.023 х 0.009

с 0.045 у 0.021 ж, ю, ш 0.006

р 0.040 € 0.018 ц, щ, э 0.003

в 0.035 ы, з 0.016 ф 0.002

«адача 6. ”величитьс€ или уменьшитьс€ количество информации о(в) системе У—осуд с водойФ до и после замораживани€ воды.  ак изменитс€ энтропи€ этой системы. ќтвет обоснуйте.

«адача 7. ѕередатчик генерирует независимо друг от друга последовательности букв из двух букв УаФ, одной буквы УбФ, трЄх букв УвФ. —колько таких всевозможных различных слов может генерировать передатчик?  акое количество информации несЄт в себе каждое такое слово?

«адача 8. ѕроделайте (достаточно грубый) эксперимент по определению вашего числа —трауда (числа мысленных различений в сек): напарник показывает или называет двадцать букв в определЄнной (случайной дл€ ¬ас) последовательности, а ¬ы воспроизводите их максимально в этой же последовательности; число правильно воспроизведЄнных букв и есть ¬аше число —трауда. ѕроверьте подчин€ютс€ ли эти числа (дл€ нескольких испытуемых) закону типа ’артли.

«адача 9. ќцените грубо быстродействие (гипотетического) компьютера построенного на биочипах (молекул€рном способе запоминани€ информации, например, с помощью выращенных специально молекул, способных окрашиватьс€ в два устойчивых цвета - 0 и 1), если количество таких чипов считаетс€ заданным.

«адача 10. Ќа стандартной клавиатуре компьютера имеетс€ 46 клавиш (без управл€ющих, цифровых и функциональных).  ажда€ клавиша имеет два регистра и два значени€ (латинского алфавита и кириллицы). ќцените примерно объЄм информации, который позвол€ет вводить этот набор.

—писок литературы

Ѕриллюэн Ћ. Ќаука и теори€ информации. ћ.: ‘изматгиз, 1960. - 392 с.

Ўеннон  . –аботы по теории информации и кибернетике. ћ.: »Ћ, 1963 - 830 с.

ћазур ћ.  ачественна€ теори€ информации. ћ.: ћир, 1974. - 240 с.

—тратонович –.Ћ. “еори€ информации. ћ.: —ов. радио, 1975. - 424 с.

 олмогоров ј.Ќ. “еори€ информации и теори€ алгоритмов.ћ:Ќаука,1987.-303 с.

ƒмитриев ¬.Ќ. ѕрикладна€ теори€ информации. ћ: ¬ысша€ школа,1989. - 320 с.

’акен √. »нформаци€ и самоорганизаци€. ћ.: ћир, 1991. - 240 с.

»нформатика. Ёнциклопедический словарь дл€ начинающих. ѕод ред. ѕоспелова ƒ.ј., ћ.: ѕедагогика-ѕресс, 1994, - 352 с.

 азиев ¬.ћ. »нформатика (в 3-х част€х), Ќальчик, 1997. - 324 с.

Ћовцев ƒ.ј. »нформационна€ теори€ эргасистем. ћ.: ¬ј–¬—Ќ, 1998. - 124 с.

–айхерт “.Ќ., ’еннер ≈. . ћесто теории информации в подготовке учител€ информатики. »Ќ‘ќ, N2, 1999, с. 32 - 38.

¬.ћ.  азиев ѕон€тие информации (informatio - разъ€снение, осведомление, изложение) €вл€етс€ одним из основных, ключевых пон€тий не только в информатике (в информологии - области знаний, изучающей про€вление информации, еЄ представление, измерен

 

 

 

¬нимание! ѕредставленный –еферат находитс€ в открытом доступе в сети »нтернет, и уже неоднократно сдавалс€, возможно, даже в твоем учебном заведении.
—оветуем не рисковать. ”знай, сколько стоит абсолютно уникальный –еферат по твоей теме:

Ќовости образовани€ и науки

«аказать уникальную работу

—вои сданные студенческие работы

присылайте нам на e-mail

Client@Stud-Baza.ru