Основные направления применения информатики icon

Основные направления применения информатики


1 чел. помогло.
Смотрите также:
Возникновение информатики и смежные научные области 8 Прикладные направления информатики...
Программа курса ИнформатикА в классах с углубленным изучением 5 11 класс...
Календарно-тематическое планирование по информатике 8 класс...
Методика применения умк «Информатика» в преподавании базового курса информатики Огарков А. Ю....
Примерная программа наименование дисциплины «информатика с основами математической...
Лекция Основные понятия и определения информатики...
«Основные направления применения информационных технологий в таможенном деле Республики...
Задачи и проблемы информатики 9 Инемного философии… 9 Использованная литература 10...
К. К. Колин Рассматривается история развития информатики как фундаментальной науки и комплексной...
Программа дисциплины Основные направления современной психотерапии для направления 030300...
Программа дисциплины Основные направления современной психотерапии для направления 030300...
1. Основные положения. Область применения...



Загрузка...
скачать
Информатизация общества. Информация.


Информация стала важным инструментом политики и культуры, промышленности, науки и образования. Информация — это сведения об окружающем мире.


Информационный процесс — процесс, в результате которого осуществляется прием, передача (обмен), преобразование и использование информации. Средствами обработки информации чаще всего являются персональные компьютеры, которые объединяются в локальные и глобальные сети.


Информационная система — взаимосвязанная совокупность средств, методов и персонала, участвующих в обработке данных.


Компьютеры применяются практически во всех видах человеческой деятельности (промышленность, наука, медицина, образование, транспорт, банковское дело, связь, военная техника, бытовая техника и т.д.). Развивается и широко используется мировая компьютерная сеть Интернет.

Что такое информатика?


Информатика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.


^ Основные направления применения информатики:


pазpаботка вычислительных систем и программного обеспечения;

теория информации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;

методы искусственного интеллекта, позволяющие создавать программы для решения задач, требующих определённых интеллектуальных усилий при выполнении их человеком (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);

системный анализ, заключающийся в анализе назначения проектируемой системы и в установлении требований, которым она должна отвечать;

методы машинной графики, анимации, средства мультимедиа;

средства телекоммуникации, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;

разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.

^ Информатика состоит из двух частей:


технические средства;

программные средства.

Технические средства - это аппаратура компьютеров.


В информатику входят еще алгоритмические средства.

Алгоритмы - это правила, предписывающие выполнение последовательности действий, приводящих к решению задачи.

^ Что такое информация?


Информация — от латинского слова "information", что означает сведения, разъяснения, изложение.


Информацией называют любые данные или сведения, которые кого-либо интересуют.


Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.


Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.


В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.


Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Свойства информации. Единицы измерения количества информации.


^ Свойства информации:


достоверность — информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел;

полнота — информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки;

точность — точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.;

ценность — ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека;

своевременность — только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка;

понятность — информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация;

доступность — информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях;

краткость — информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях;

и др.

^ Единицы информации

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица называется бит.


В вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.


Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).


Широко используются также ещё более крупные производные единицы информации:


• 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

• 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

• 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

^ Качество информации.


Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:


репрезентативность;

содержательность;

достаточность  (полнота);

доступность;

актуальность;

своевременность;

точность;

достоверность;

устойчивость.


^ Измерение информации. Содержательный подход.


Поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.


Информация — это знания человека. Отсюда следует вывод, что сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека.


Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица называется «бит».


Неопределённость знаний о некотором событии — это количество возможных результатов события (бросания монеты, кубика; вытаскивания жребия).


Сообщение о том, что произошло одно событие из двух равновероятных, несёт 1 бит информации.

Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления.


Количество информации i, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2i = N.


N — количество возможных событий (неопределённость знаний), i — количество информации в сообщении о том, что произошло одно из N событий.

Измерение информации. Содержательный подход.


Вопрос «как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.


Выше мы подошли к информации только с одной стороны: выяснили, чем она является для человека. Другую точку зрения на информацию, объективную, то есть не связанную с её отношением к человеку, мы обсудим несколько позже.


Итак, пока остаемся на прежней позиции: информация — это знания человека. Отсюда следует вывод, что сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на завтра — информативное сообщение, а сообщение о вчерашней погоде неинформативно: нам это уже известно.


Нетрудно понять, что информативность одного и того же сообщения может быть разной для разных людей. Например: 2 х 2 = 4 информативно для первоклассника, изучающего таблицу умножения, и неинформативно для старшеклассника. Отсюда, казалось бы, следует вывод, что сообщение информативно для человека, если оно содержит новые сведения, и неинформативно, если сведения старые, известные.


Но вот вы раскрыли учебник по высшей математике и прочитали там такое определение:


Значение определённого интеграла равно разности значений первообразной подынтегральной функции на верхнем и на нижнем пределах.


Пополнил этот текст ваши знания? Скорее всего, нет! Он вам непонятен, а поэтому – неинформативен. Быть понятным, значит быть логически связанным с предыдущими знаниями человека. Для того, чтобы понять данное определение, нужно изучить элементарную математику и знать начала высшей.


Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет понятным, а значит, будет нести информацию для человека.


Сообщение несёт информацию для человека, если содержащиеся в нём сведения являются для него новыми и понятными.


Неопределённость знаний и единица информации


Пока мы с вами научились различать лишь две ситуации: «нет информации» — «есть информация», то есть количество информации равно нулю или не равно нулю. Но, очевидно, для измерения, тогда мы сможем определять, в каком сообщении информации больше, в каком — меньше.


Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица называется «бит». Её определение звучит так:


Сообщение, уменьшающее неопределённость знаний в два раза, несёт 1 бит информации.


В этом определении есть понятия, которые требуют пояснения.


Что такое «неопределённость знаний»? Лучше всего это объяснить на примерах. Допустим, вы бросаете монету, загадывая, что выпадет: орёл или решка? Есть всего два варианта возможного результата бросания монеты. Причём, ни один из этих вариантов не имеет преимущества перед другим. В таком случае говорят, что они равновероятны.


В этом случае перед подбрасыванием монеты неопределённость знаний о результате равна двум.

Игральный кубик с шестью гранями может с равной вероятностью упасть на любую из них. Значит, неопределённость знаний о результате бросания кубика равна шести.


Ещё пример: спортсмены-лыжники перед забегом путём жеребьёвки определяют свой порядковый номер на старте. Допустим неопределённость знаний спортсменом своего номера до жеребьёвки равна ста.


Следовательно, можно сказать так: неопределённость знаний о некотором событии — это количество возможных результатов события (бросания монеты, кубика; вытаскивания жребия).


Вернёмся к примеру с монетой. После того, как вы бросили монету и посмотрели на неё, вы получили зрительное сообщение, что выпал, например, орёл. Произошла одно из двух возможных событий. Неопределённость знаний уменьшилась в два раза: было два варианта, остался один. Значит, узнав результат бросания монеты, вы получили 1 бит информации


Сообщение о том, что произошло одно событие из двух равновероятных, несёт 1 бит информации.


А теперь такая задача: студент на экзамене может получить одну из четырёх оценок: «5» — «отлично», «4» — «хорошо», «3» — «удовлетворительно», «2» — неудовлетворительно». Представьте себе, что ваш товарищ пошёл сдавать экзамен. Причём, учится он очень неровно и может с одинаковой вероятностью получить любую оценку от «2» до «5». Вы волнуетесь за него, ждёте результата экзамена. Наконец, он пришёл и на ваш вопрос: «Ну, что получил? — ответил: «Четвёрку!».


Вопрос. Сколько бит информации содержится в его ответе?


Если сразу сложно ответить на этот вопрос, то давайте подойдём к ответу постепенно. Будем отгадывать оценку, задавая вопросы, на которые можно ответить только «да» или «нет».


Вопросы будем ставить так, чтобы каждый ответ уменьшал количество вариантов в два раза и, следовательно, приносил 1 бит информации.


Первый вопрос:


Оценка выше тройки?

Да!

После этого ответа число вариантов уменьшилось в два раза. Остались только «4» и «5». Получен 1 бит информации.


Второй вопрос:


Ты получил пятёрку?

Нет!

Выбран один вариант из двух оставшихся: оценка – «четвёрка». Получен еще 1 бит информации. В сумме имеем 2 бита. Сообщение о том, что произошло одно из четырёх равновероятных событий несёт 2 бита информации.


Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления.


Решим ещё одну частную задачу, применив этот метод, а потом выведем общее правило.


На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?


Задаём вопросы:


Книга лежит выше четвёртой полки?

Нет.

Книга лежит ниже третьей полки?

Да.

Книга – на второй полке?

Нет.

Ну теперь всё ясно! Книга лежит на первой полке!

Каждый ответ уменьшал неопределённость в два раза. Всего было задано три вопроса. Значит набрано 3 бита информации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации.


А сейчас попробуем получить формулу, по которой вычисляется количество информации, содержащейся в сообщении о том, что произошло одно из множества равновероятных событий.


Обозначим буквой N количество возможных событий, или, как мы это ещё называли, - неопределённость знаний. Буквой i будем обозначать количество информации в сообщении о том, что произошло одно из N событий.


В примере с монетой N = 2, i = 1.

В примере с оценками N = 4, i = 2.

В примере со стеллажом N = 8, i = 3.


Нетрудно заметить, что связь между этими величинами выражается формулой:


2i = N


Действительно: 21 = 2; 22 = 4; 23 = 8.


Если величина N известна, а i – неизвестно, то формула становится показательным уравнением для определения i.

Например, пусть на стеллаже не 8, а 16 полок. Чтобы ответить на вопрос, сколько информации содержится в сообщении о том, где лежит книга, нужно решить уравнение:

2i = 16.


Поскольку 16 = 24, то i = 4.


Количество информации i, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2i = N.


Если значение N равно целой степени числа 2 (4, 8,16, 32, 64 и т.д.), то такое уравнение решается просто: i будет целым числом.


А чему равно количество информации в сообщении о результате бросания игральной кости, у которой имеется шесть граней и, следовательно, N = 6?


Решение уравнения


2i = 6


будет дробным числом, лежащим между числами 2 и 3, поскольку 22 = 4, а 23 = 8. С точностью до пяти знаков после запятой решение такое: 2,58496.

^ Алфавитный подход к измерению информации.


Способ, не связывающий количество информации с содержанием сообщения, называется алфавитным подходом.


Проще всего разобраться в этом на примере текста, написанного на каком-нибудь языке. Для нас удобнее, чтобы это был русский язык.


Всё множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел (промежуток между словами).


Полное число символов алфавита принято называть мощностью алфавита. Будем обозначать эту величину буквой N. Например, мощность алфавита из русских букв и дополнительных символов равна 54.


Представьте себе, что текст к вам поступает последовательно, по одному знаку, словно бумажная ленточка, выползающая из телеграфного аппарата. Предположим, что каждый появляющийся на ленте символ с одинаковой вероятностью может быть любым символом алфавита. В действительности это не совсем так, но для упрощения примем такое предположение.


В каждой очередной позиции текста может появиться любой из N символов. Каждый символ несёт i бит информации; число i можно определить из уравнения:


2i = N.


Для N – 54, используя таблицу, получаем:


i = 5,755 бит.


Вот сколько информации несёт один символ в русском тексте! А теперь для того, чтобы найти количество информации во всём тексте, нужно посчитать число символов в нём и умножить на i.


Возьмём с книжной полки какую-нибудь книгу и посчитаем количество информации на одной её странице. Пусть страница содержит 50 строк. В каждой строке – 60 символов. Значит, на странице умещается 50х60 = 17265 бит.


Следовательно, при алфавитном подходе к измерению информации количество информации от содержания не зависит. Количество информации зависит от объёма текста (то есть от числа знаков в тексте) и от мощности алфавита.


Отсюда следует, например, что нельзя сравнивать информационные объёмы текстов, написанных на разных языках, только по объёму. У них отличаются информационные веса одного символа так как мощности алфавитов разных языков – различные.


Но если книги написаны на одном языке, то понятно, что в толстой книге информации больше, чем в тонкой. При этом содержательная сторона книги в расчёт не берётся.


Сформулируем правило, как измерить информацию, используя для этого алфавитный подход.


Количество информации, содержащееся в символьном сообщении, равно К х i, где К – число символов в тексте сообщения а i – информационный вес символа, который находится из уравнения 2i = N, где N – мощность используемого алфавита.


Применение алфавитного подхода удобно, прежде всего, при использовании технических средств работы с информацией. В этом случае теряют смысл понятия «новые – старые», «понятные – непонятные» сведения. Алфавитный подход является объективным способом измерения информации в отличие от субъективного, содержательного, подхода.


^ Вероятностный подход к измерению информации.


Основополагающая роль в вероятностном подходе принадлежит энтропии множества вероятностей, формула которой была получена в 1948 году американским исследователем К. Шенноном. Предлагая для измерения количества информации свою знаменитую энтропийную меру, К. Шеннон руководствовался следующими соображениями.


Вероятность p – количественная априорная (т.е. известная до проведения опыта) характеристика одного из исходов (событий) некоторого опыта. Измеряется в пределах от 0 до 1. Если заранее известны все исходы опыта, сумма их вероятностей равна 1, а сами исходы составляют полную группу событий. Если все исходы могут свершиться с одинаковой долей вероятности, они называются равновероятными.


Например, пусть опыт состоит в сдаче студентом экзамена по информатике. Очевидно, у этого опыта всего 4 исхода (по количеству возможных оценок, которые студент может получить на экзамене). Тогда эти исходы составляют полную группу событий, т.е. сумма их вероятностей равна 1. Если студент учился хорошо в течение семестра, значения вероятностей всех исходов могут быть такими: p(5) = 0.5; p(4) = 0.3; p(3) = 0.1; p(2) = 0.1, где запись p(j) означает вероятность исхода, когда получена оценка j (j = {2, 3, 4, 5}).


Если студент учился плохо, можно заранее оценить возможные исходы сдачи экзамена, т.е. задать вероятности исходов, например, следующим образом:


p(5) = 0.1; p(4) = 0.2; p(3) = 0.4; p(2) = 0.3.


В обоих случаях выполняется условие:


где n – число исходов опыта,


i – номер одного из исходов.


Пусть можно получить n сообщений по результатам некоторого опыта (т.е. у опыта есть n исходов), причем известны вероятности получения каждого сообщения (исхода) - p i . Тогда в соответствии с идеей Шеннона, количество информации I в сообщении i определяется по формуле:


где p i – вероятность i -го сообщения (исхода).


Пример 1. Определить количество информации, содержащейся в сообщении о результате сдачи экзамена для студента-хорошиста.


Пусть I(j) – количество информации в сообщении о получении оценки j. В соответствии с формулой Шеннона имеем:


I(5) = -log2 0,5 = 1,


I(4) = -log2 0,3 = 1,74,


I(3) = -log2 0,1 = 3,32,


I(2) = -log2 0,1 = 3,32.


Пример 2. Определить количество информации, содержащейся в сообщении о результате сдачи экзамена для нерадивого студента:


I(5) = -log2 0,1 = 3,32,


I(4) = -log2 0,2 = 2,32,


I(3) = -log2 0,4 = 1,32,


I(2) = -log2 0,3 = 1,74.


Таким образом, количество получаемой с сообщением информации тем больше, чем неожиданнее данное сообщение. Этот тезис использован при эффективном кодировании кодами переменной длины (т.е. имеющими разную геометрическую меру): исходные символы, имеющие большую частоту (или вероятность), имеют код меньшей длины, т.е. несут меньше информации в геометрической мере, и наоборот.




Скачать 139,05 Kb.
оставить комментарий
Дата23.01.2012
Размер139,05 Kb.
ТипДокументы, Образовательные материалы
Добавить документ в свой блог или на сайт

отлично
  1
Ваша оценка:
Разместите кнопку на своём сайте или блоге:
rudocs.exdat.com

Загрузка...
База данных защищена авторским правом ©exdat 2000-2017
При копировании материала укажите ссылку
обратиться к администрации
Анализ
Справочники
Сценарии
Рефераты
Курсовые работы
Авторефераты
Программы
Методички
Документы
Понятия

опубликовать
Загрузка...
Документы

наверх