Содержание
-
1
Понятие «информация» и свойства информации
-
2
«Информация» - от лат. Informatio означает сведение, разъяснение, ознакомление.
В биологии понятие «информация» связывается с целесообразным поведением живых организмов.
В физике информация рассматривается как антиэнтропия или энтропия с обратным знаком.
В кибернетике понятие «информация» связано с процессами управления в сложных системах, живых организмах или технических устройствах.
С точки зрения процесса познания информация может рассматриваться как знания.
-
3
Социально значимые свойства информации:
понятность;
полезность;
достоверность;
актуальность
точность;
полнота.
-
4
Единицы измерения информации
За единицу количества информации принимается количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица называется «бит»,а следующей по величине единицей является байт:
1 байт = 23 бит = 8 бит
-
5
Кратные байту единицы измерения:
1 Кбайт = 210 байт = 1024 байт;
1 Мбайт = 210 Кбайт = 1024 Кбайт;
1 Гбайт = 210 Мбайт = 1024 Мбайт
Существует формула, связывающая между собой количество возможных событий N и количество информации I:
N=2I
-
6
Пример: В игре «крестики – нолики» на поле 8х8 перед первым ходом существует 64 возможных события (64 различных варианта расположения «крестика»), тогда уравнение принимает вид: 64 = 2I.
Так как 64 = 26, то получим 26=2I. Таким образом, I = 6 битов, т.е.количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 битов.
Задание 2.1
Какое количество информации получит второй игрок после первого хода первого игрока в игре в «Крестики – нолики» на поле размером 4х4?
-
7
Алфавитный подход к определению количества информации.
Формула Шеннона.
-
8
Количество информации, которое содержит сообщение закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.
В русском алфавите, если не использовать букву Ё, количество событий (букв) будет равно 32. Тогда: 32= 2I, откуда I = 5, т.е. каждый символ несет 5 битов информации.
-
9
Формулу для вычисления количества информации в случае различных вероятностей событий предложил К.Шеннон в 1948 году:
где I-количество информации;
N- количество возможных событий;
Pi – вероятность i-го события
-
10
Этот подход к определению количества информации называется вероятностным.
Когда события равновероятны (Pi=1/N), величину количества информации I можно рассчитать по формуле:
Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.
-
11
Информационная модель игры «Угадай число»:
Вопрос второго участника
Ответ первого участника
Неопределенность знаний (количество возможных событий)
Полученное количество информации
16
1 бит
Число больше 8?
Нет
8
1 бит
Число больше 4?
Нет
4
1 бит
Число больше 2?
Да
2
1 бит
Число 3?
Да
1
1 бит
Нет комментариев для данной презентации
Помогите другим пользователям — будьте первым, кто поделится своим мнением об этой презентации.