Прикладная информатика в экономике Бийск Издательство Алтайского государственного технического университета им. И. И. Ползунова 2008 icon

Прикладная информатика в экономике Бийск Издательство Алтайского государственного технического университета им. И. И. Ползунова 2008


9 чел. помогло.
Смотрите также:
Итау бийск Издательство Алтайского государственного технического университета им. И. И...
Материалы 5-й Всероссийской научной конференции 2−3 сентября 2010 года Бийск Издательство...
Методические рекомендации по изучению дисциплины для студентов специальностей 080801 «Прикладная...
Бти алтгту для внутривузовского использования в качестве учебного пособия Бийск Издательство...
Программа учебного курса для студентов всех форм обучения Бийск...
Бийск Издательство Алтайского государственного технического университета им. И. И...
Бийск Издательство Алтайского государственного технического университета им. И. И...
Н. Б. Глотова и др.; Алт гос техн ун-т, бти. Бийск: Изд-во Алт гос техн ун-та, 2008...
Высокотемпературные установки и технологии Бийск Издательство Алтайского государственного...
Технология энергонасыщенных материалов и изделий всех форм обучения Бийск Издательство...
Всероссийской научно-практической конференции 22-23 сентября 2011 года Бийск Издательство...
Курс лекций Бийск Издательство Алтайского государственного технического университета им. И. И...



Загрузка...
страницы: 1   2   3   4   5   6   7   8   9   ...   25
вернуться в начало
скачать
^

2.4 Свойства информации



Как и всякий объект, информация обладает свойствами. Наиболее важными из них являются:

  1. Объективность и субъективность.

  2. Полнота

  3. Достоверность.

  4. Доступность.

  5. Актуальность.

  6. Понятность.

  7. Краткость.

1. Обьективность и субъективность информации. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. Так, например, принято считать, что в результате наблюдения фотоснимка природного объекта или явления образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком, в правовых дисциплинах, где по-разному обрабатываются показания лиц, непосредственно наблюдавших события или получивших информацию косвенным путем (посредством умозаключений или со слов третьих лиц). В не меньшей степени объективность информации учитывают в исторических дисциплинах. Одни и те же события, зафиксированные в исторических документах разных стран и народов, выглядят совершенно по-разному.

2. Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживают принятие решений или могут повлечь ошибки. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

3. ^ Достоверность информации. Данные возникают в момент регистрации сигналов, но не все сигналы являются «полезными»  всегда присутствует какой-то уровень посторонних сигналов, в результате чего полезные данные сопровождаются определенным уровнем «информационного шума». Если полезный сигнал зарегистрирован более четко, чем посторонние сигналы, достоверность информации может быть более высокой. При увеличении уровня шумов достоверность информации снижается. В этом случае для передачи того же количества информации требуется использовать либо больше данных, либо более сложные методы.

4. Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

5. Только актуальная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка. Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

6. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

7. Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.



^

2.5 Измерение количества информации



Информацию по-разному измеряют в быту, в технике и в теории информации.

Измерение информации в быту произвести очень сложно. Рассмотрим пример. Пусть Вы получили какое-то сообщение. В этом сообщении содержится какое-то количество информации. Как оценить, сколько информации Вы получили? Другими словами, как измерить информацию? Разные люди, получившие одно и то же сообщение, по-разному оценивают количество информации, содержащееся в нем. Это происходит оттого, что знания людей об этих событиях до получения сообщения были различными. Те, кто знал мало, сочтут, что они получили много информации. Те, кто знал больше, сочтут, что они не получили информации вовсе. Таким образом, количество информации в сообщении зависит от того, насколько ново это сообщение для получателя. При таком подходе непонятно, по каким критериям можно ввести единицу измерения информации. Следовательно, с точки зрения информации как новизны мы не можем оценить количество информации, содержащейся в научном открытии, новом музыкальном стиле и т.п.

В технике используют способ определения количества информации, который основан на подсчете числа символов в сообщении, т.е. связан с длиной сообщения и не учитывает содержания. Длина сообщения зависит от числа различных символов, употребляемых для записи сообщения. Например, слово «мир» в русском алфавите записывается тремя знаками, в английском – пятью (peace), а в КОИ-8 – 24 битами (111011011110100111110010). Каждый символ, как известно, кодируется 8-битным кодом. Но измерять с помощью бит неудобно, получаются громадные числа. Поэтому была введена более «крупная» единица измерения информации – байт. 1 байт = 8 бит. Можно заметить, что при измерении в байтах подсчитать количество информации легче – оно совпадает с количеством символов в нем. Действительно, слово «мир» занимает 3 байта. Фраза «миру мир!» содержит 72 бита или 9 байт информации.

В вычислительной технике битом называют наименьшую «порцию» памяти, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представления данных и команд. Бит и байт  слишком мелкие единицы измерения. На практике чаще применяется более крупные производные единицы информации:

1 килобайт (кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

По мере развития вычислительной техники было введено понятие информационной емкости сообщения, или информационного объема сообщения. Информационный объем сообщения – количество информации в сообщении, измеренное в битах, байтах или производных единицах (кбайтах, Мбайтах и т.д.).

Рассмотрим измерение информации в теории информации. В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания и характеризующую неопределенность, которая исчезает после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии. Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество вероятности в сообщении о нем равно 0. Чем невероятнее событие, тем большую информацию о нем несет сообщение. Лишь при равновероятных ответах ответ «да» или «нет» несет 1 бит информации.

Успешные попытки измерения количества информации связаны с работами следующих ученых: Р. Фишера, Р. Хартли, Х. Найквиста, К. Шеннона и основаны на методах математической теории вероятностей. Общая идея состоит в том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле ее новизны или, иначе, уменьшения (снятия) неопределенности наших знаний об объекте.

Американский инженер Р. Хартли (1928 г.) предложил рассматривать процесс получения информации как выбор одного сообщения из конечного наперед заданного множества N равновероятных сообщений. При этом количество информации I, содержащееся в выбранном сообщении, определил как двоичный логарифм N.

^ Формула Хартли:



Допустим, происходит одно событие из двух равновозможных (как при играх «чет – нечет», «орел – решка», черное белое, истина-ложь). Тогда, N = 2, по формуле Хартли количество информации, содержащееся в сообщении о произошедшем событии, составляет:



Если имеется шесть равновероятных событий (бросок игральной кости), то количество информации о наступлении одного из них:



Таким образом, в формуле Хартли отражается следующий важный закон: Чем больше изначальная неопределенность наступления события, тем больше количества информации о его фактическом наступлении.

Определим теперь, являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для определения количества информации с возможной неодинаковой вероятностью сообщений в наборе американский ученый
К. Шеннон (1948 г.) предложил следующую формулу.

^ Формула Шеннона:



где вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Пример.

Пусть в непрозрачном мешке находится десять шаров, из которых один черный и девять белых, тогда вероятность вытащить наугад белый шар равна , вероятность достать черный шар . Вынимая из мешка наугад один из шаров, получаем количество информации по формуле Шеннона:

.

Легко заметить, что если вероятности всех событий равны, то для всех



и формула Шеннона сводится к формуле Хартли.

Помимо двух рассмотренных формул определения количества информации существуют и другие, но пока они имеют меньшее распространение.





оставить комментарий
страница6/25
Дата28.09.2011
Размер2,8 Mb.
ТипДокументы, Образовательные материалы
Добавить документ в свой блог или на сайт

страницы: 1   2   3   4   5   6   7   8   9   ...   25
плохо
  1
средне
  1
хорошо
  3
отлично
  11
Ваша оценка:
Разместите кнопку на своём сайте или блоге:
rudocs.exdat.com

Загрузка...
База данных защищена авторским правом ©exdat 2000-2017
При копировании материала укажите ссылку
обратиться к администрации
Анализ
Справочники
Сценарии
Рефераты
Курсовые работы
Авторефераты
Программы
Методички
Документы
Понятия

опубликовать
Загрузка...
Документы

Рейтинг@Mail.ru
наверх