Презентация на тему "Информация и цивилизация" 11 класс

Презентация: Информация и цивилизация
1 из 124
Ваша оценка презентации
Оцените презентацию по шкале от 1 до 5 баллов
  • 1
  • 2
  • 3
  • 4
  • 5
5.0
2 оценки

Комментарии

Нет комментариев для данной презентации

Помогите другим пользователям — будьте первым, кто поделится своим мнением об этой презентации.


Добавить свой комментарий

Аннотация к презентации

Скачать презентацию (1.51 Мб). Тема: "Информация и цивилизация". Предмет: информатика. 124 слайда. Для учеников 11 класса. Добавлена в 2016 году. Средняя оценка: 5.0 балла из 5.

Содержание

  • Презентация: Информация и цивилизация
    Слайд 1

    Информация и цивилизация

    Информация – единственный неубывающий ресурс общества

  • Слайд 2

    Информационное общество

    (c) Попова О.В., AME, Красноярск, 2005

    2

    Первобытное (охота и собирательство)

    Аграрное (земледелие и скотоводство)

    Индустриальное (промышленное произв.)

    Информационное (информационное произ.)

  • Слайд 3

    Темпы роста объема информации

    (c) Попова О.В., AME, Красноярск, 2005

    3

  • Слайд 4

    Цивилизация – это информация

    (c) Попова О.В., AME, Красноярск, 2005

    4

  • Слайд 5

    Атрибуты общества безбумажной информатики

    (c) Попова О.В., AME, Красноярск, 2005

    5

    Электронный документооборот

    Информационная (сетевая) грамотность населения

    Превращение информации в товар

    Доступность населению баз данных и знаний (в том числе сети Интернет)

    Информатизация основных систем общества

  • Слайд 6

    Информация и информатика

  • Слайд 7

    Понятие “Информация”

    есть первичное и неопределяемое понятие. Оно предполагает наличие следующих составляющих:

    ПРИНЯТОЕ

    СООБЩЕНИЕ

    ПРИНЯТЫЙ

    СИГНАЛ

    СИГНАЛ

    СООБЩЕНИЕ

    ИСТОЧНИК

    ПЕРЕДАТЧИК

    КАНАЛ

    СВЯЗИ

    ПРИЕМНИК

    АДРЕСАТ

    ИСТОЧНИК

    ШУМА

  • Слайд 8

    Информация

    (c) Попова О.В., AME, Красноярск, 2005

    8

    это общенаучное понятие, включающее:

    обмен сведениями между людьми,

    между человеком и автоматом,

    обмен сигналами в растительном и животном мире(передача признаков от клетки к клетке, от организма к организму).

  • Слайд 9

    Информация в технике

    (c) Попова О.В., AME, Красноярск, 2005

    9

    включает в себя все сведения, являющиеся объектом хранения, передачи и преобразования (данные).

  • Слайд 10

    Термин “Информация”

    (c) Попова О.В., AME, Красноярск, 2005

    10

    происходит от латинского слова informatio – пояснение, разъяснение.

  • Слайд 11

    Информатика

    (c) Попова О.В., AME, Красноярск, 2005

    11

    наука об информации и технических средствах ее сбора, хранения, обработки, передачи.

  • Слайд 12

    Структура современной информатики

    (c) Попова О.В., AME, Красноярск, 2005

    12

    Информатика

    Теоретическая

    Вычислительная техника

    Программирование

    Информационные системы

    Искусственный интеллект

  • Слайд 13

    С термином “информация”связаны термины:

    (c) Попова О.В., AME, Красноярск, 2005

    13

    Сообщение – информация представленная в определенной форме (речь, текст, изображение, цифровые данные, график, таблица) и предназначенная для передачи.

  • Слайд 14

    (c) Попова О.В., AME, Красноярск, 2005

    14

    Данные – сведения, представленные в определенной знаковой системе и на определенном носителе для обеспечения возможностей их хранения, передачи, приема и обработки. Данные безотносительны к содержанию информации.

  • Слайд 15

    Данные / информация

    (c) Попова О.В., AME, Красноярск, 2005

    15

    Информация - это данные, сопровождающиеся смысловой нагрузкой.

    Пример данных: 812, 930, 944.

    Пример информации: 812 руб., 930 руб., 944 руб.

    Более информативное сообщение: 812 руб., 930 руб., 944 руб. - цены на бальзам после бритья.

    Ещё более информативное: 812 руб., 930 руб., 944 руб. - цены на бальзам после бритья "Dune", 100 мл. в Москве.

  • Слайд 16

    С термином “информация”связаны термины:

    (c) Попова О.В., AME, Красноярск, 2005

    16

    Знания – проверенный практикой и удостоверенный логикой результат познания действительности, отраженный в сознании человека в виде представлений, понятий, суждений и теорий. Знания позволяют принимать решения. Для знаний характерны структурированность, связанность.

  • Слайд 17

    Способы передачи информации

    Сигнал – любой процесс, несущий информацию

  • Слайд 18

    (c) Попова О.В., AME, Красноярск, 2005

    18

    Носителями информации являются сигналы. Это физические процессы различной природы, например:

    процесс протекания электрического тока в цепи,

    процесс механического перемещения тела,

    химические и биохимические процессы,

    процесс распространения электромагнитных волн…

  • Слайд 19

    Регистрация сигналов

    (c) Попова О.В., AME, Красноярск, 2005

    19

    При взаимодействии сигналов с физическими телами, в последних возникают определенные изменения свойств – это явление называется регистрацией сигналов.

  • Слайд 20

    Регистрация сигналов наносителях информации

  • Слайд 21

    (c) Попова О.В., AME, Красноярск, 2005

    21

    Сама информация совершенно инвариантна по отношению к изменению способа ее передачи (акустический, оптический, электрический) и системы запоминания (мозг, книга, электронный носитель).

  • Слайд 22

    Способы передачи информации

    (c) Попова О.В., AME, Красноярск, 2005

    22

    От одного человека к другому информация может передаваться:

    символами (®$→∞♪♣♂)

    жестами (  )

    художественными образами (стихи, живопись, балет…)

    звуками

  • Слайд 23

    (c) Попова О.В., AME, Красноярск, 2005

    23

    В технических устройствах (телевизор, телефон, ЭВМ…) информация может быть передана электрическими, магнитными, световыми импульсами.

    Между животными информация может быть передана звуками (вой, лай, писк), запахами, ситуационным поведением.

  • Слайд 24

    Классификация информации

  • Слайд 25

    По способу передачи и восприятия

    (c) Попова О.В., AME, Красноярск, 2005

    25

    визуальная

    аудиальная

    тактильная (ощущения)

    органолентическая (запах и вкус)

    машинно-выдаваемая ивоспринимаемаясредствами вычислительной техники

  • Слайд 26

    По отношению к окружающей среде

    (c) Попова О.В., AME, Красноярск, 2005

    26

    входная

    выходная

    внутренняя

  • Слайд 27

    По отношению к конечному результату

    (c) Попова О.В., AME, Красноярск, 2005

    27

    исходная

    промежуточная

    результирующая

  • Слайд 28

    В философском аспекте

    (c) Попова О.В., AME, Красноярск, 2005

    28

    Мировоззренческая

    Эстетическая

    Религиозная

    Научная

    Бытовая

    Техническая

    Экономическая

    Технологическая

  • Слайд 29

    Качество информации

    (c) Попова О.В., AME, Красноярск, 2005

    29

    полнота (содержит всё необходимое для понимания информации)

    ясность (выразительность сообщений на языке интерпретатора)

    адекватность, точность, корректность интерпретации, приема-передачи

    интерпретируемость и понятность интерпретатору информации

    достоверность

    информативность и значимость

    доступность

    ценность

  • Слайд 30

    Информация-третья фундаментальная величина

    Вначале было слово. И слово было 2 байта

  • Слайд 31

    (c) Попова О.В., AME, Красноярск, 2005

    31

    В природе существует два фундаментальных вида взаимодействия: обмен веществом и энергией.

    Энергетическое и вещественное взаимодействие объектов является симметричным, т.е. сколько вещества и энергии один объект передал другому, столько тот и получил, и наоборот.

  • Слайд 32

    Информационное взаимодействие

    (c) Попова О.В., AME, Красноярск, 2005

    32

    Несимметричное взаимодействие - при передаче субстанции между объектами один из них ее приобретает, а другой не теряет.

    Любое взаимодействие между объектами, в процессе которого один приобретает некоторую субстанцию, а другой ее не теряет называется информационным взаимодействием. При этом передаваемая субстанция называется Информацией.

  • Слайд 33

    (c) Попова О.В., AME, Красноярск, 2005

    33

    Любые взаимодействия систем всегда материально-энергетически-информационные.

    Информация не может существовать без энергиии вещества, как и они не могут существовать без информации.

    Информация не может существовать вне взаимодействия объектов.

    Информация не теряется ни одним из объектов в процессе этого взаимодействия.

  • Слайд 34

    (c) Попова О.В., AME, Красноярск, 2005

    34

    Сейчас многие учёные считают, что уместно говорить о трех ипостасях существования материи:

    вещество, отражающее постоянство материи;

    энергия, отражающая движение, изменение материи;

    информация, отражающая структуру, строение материи.

  • Слайд 35

    Ноосфера (noos - разум ...)

    (c) Попова О.В., AME, Красноярск, 2005

    35

    Термин "ноосфера", был введен в 1927г. французским ученым Э. Леруа, и развит ак. В.И. Вернадским.

    Ноосфера - сфера разума - эволюционное состояние биосферы, при котором разумная, творческая деятельность человека, опирающаяся на научную мысль, становится решающим фактором ее развития.

    Формы хранения - библиотеки, музеи, словари, учебники, Интернет.

  • Слайд 36

    Количество информации

    Информация – снятая неопределенностьКлод Шеннон

  • Слайд 37

    (c) Попова О.В., AME, Красноярск, 2005

    37

    Синтаксическая — обезличенная информация, не выражающая смыслового отношения к объекту.

    Семантическая — информация воспринимаемая пользователем и включаемая им в дальнейшем в свой тезаурус.

    Прагматическая — информация полезная (ценная) для достижения пользователем поставленной цели.

  • Слайд 38
  • Слайд 39

    Синтаксическая мера информации

    оперирует с обезличенной информацией (данными), не выражающей смыслового отношения к объекту

  • Слайд 40

    Объем данных Vд

    (c) Попова О.В., AME, Красноярск, 2005

    40

    Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении (длина информационного кода).

    конкурс выиграл BVд =17 символов

    B стал победителемVд =18 символов

    A проигралVд = 10 символов

  • Слайд 41

    Количество информации I

    (c) Попова О.В., AME, Красноярск, 2005

    41

    Количество информации о системе, полученное в сообщении, измеряется уменьшением неопределенности о состоянии системы.

    Меру неопределенности в теории информации называют “энтропия".

    Неопределенность не отделима от понятия вероятности.

  • Слайд 42

    Одинаково ли количество информации в ответах на вопросы:

    В каком из 4-х возможных состояний (твердое, жидкое, газообразное, плазма) находится некоторое вещество?

    На каком из 4-х курсов учится студент техникума?

    Как упадет монета при подбрасывании: “орлом" или “решкой"?

    Если считать эти состояния равновероятными, то P(i)=1/4. Тогда ответ и на вопросы 1 и 2 снимает равную неопределенность => содержит равноекол-во информации

    P(i)=1/2.

    Вероятность каждого состояния больше, а снимаемая ответом неопределенность меньше => содержит меньшее кол-во информации

  • Слайд 43

    (c) Попова О.В., AME, Красноярск, 2005

    43

    Чем меньше вероятность события, тем больше информации несет сообщение о его появлении.

    Если вероятность события равна 1 (достоверное событие), количество информации в сообщении о его появлении равно 0.

  • Слайд 44

    «Конкурс выиграет один из участников:A или B»

    - это априорная информация о системе, утверждающая, что система может находиться в одном из 2х состояний.

    После получения любого сообщения из:

    конкурс выиграл BVд =17 символов

    B стал победителемVд =18 символов

    A проигралVд = 10 символов

    неопределенность снизилась до 1 варианта из 2-х изначально возможных.

    Чему равно количество информации, которое несет это сообщение?

    Для синтаксической оценки количества информации не важно в каком именно состоянии находится система, важно только возможное количество состояний системы и их априорные вероятности.

  • Слайд 45

    Формула Шеннона

    (c) Попова О.В., AME, Красноярск, 2005

    45

    где

    I – количество информации (бит);

    N – число возможных состояний системы;

    p(i) – априорная вероятность каждого состояния системы.

  • Слайд 46

    Расчет количества информации по Шеннону

    (c) Попова О.В., AME, Красноярск, 2005

    46

  • Слайд 47

    Расчет количества информации по Хартли

    (c) Попова О.В., AME, Красноярск, 2005

    47

    Частный случай формулы Шеннона для равновероятных событий

    где

    I – количество информации, бит

    N – число возможных состояний системы

  • Слайд 48

    Бит

    (c) Попова О.В., AME, Красноярск, 2005

    48

    Количество информации, которое можно получить при ответе на вопрос типа “да/нет" (включено/выключено, true/false, 0/1), если эти состояния равновероятны,называется “бит" (англ. bit – binary digit– двоичное число).

  • Слайд 49

    (c) Попова О.В., AME, Красноярск, 2005

    49

    1.

    0

    2.

    1

    Лампочка горит? (да/нет) –1 бит информации(при равных вероятностях).

    I=1

    I – количество информации, бит

    N - число возможных состояний системы

    N=2

  • Слайд 50

    Рассмотрим систему из 2-х электрических лампочек

    (c) Попова О.В., AME, Красноярск, 2005

    50

    00

    1.

    01

    2.

    10

    3.

    11

    4.

    А B

    В системе из 2-х лампочек 2 бита информации.

    I=2

    N=4

    Лампочка А горит? (да/нет)

    Лампочка B горит? (да/нет)

  • Слайд 51
  • Слайд 52

    Система из 3-х лампочек

    0,1,1

    0,0,1

    0,1,0

    1,0,1

    1,0,0

    0,1,1

    0,0,0

    1,1,1

    A

    B

    C

    N=?

    N=8

    I=3

  • Слайд 53

    Степени 2

    (c) Попова О.В., AME, Красноярск, 2005

    53

    Формула Хартли

  • Слайд 54

    ?

    (c) Попова О.В., AME, Красноярск, 2005

    54

    Определите количество информации в сообщении: “Сейчас горит красный сигнал светофора", если считать, что светофор всегда работает и вероятности появления красного, зеленого и желтого сигналов равны.

    Ответ получится больше или меньше, чем 1 бит?

  • Слайд 55

    Байт

    (c) Попова О.В., AME, Красноярск, 2005

    55

    Группа из 8 бит называется байтом

    (byte – binaryterm – двоичный элемент)

    Байт – основная единица измерения информации, занесенная в систему СИ

  • Слайд 56

    На основании 1 байта, исходя из формулы Хартли,

    можно получить 256 различных комбинаций.

    0

    min

    255

    max

  • Слайд 57

    1 символ = 1 байт

    (c) Попова О.В., AME, Красноярск, 2005

    57

    Количество байтов для представления текста (в принятых на сегодняшний день кодировках) равно числу знаков естественного языка этого текста.

  • Слайд 58

    Kb, Mb, Gb, Tb

    1 Kb (кило) = 210 b = 1.024 b

    1 Mb (мега) = 210 Kb = 220b = 1.048.576 b

    1 Gb(гига)= 210 Mb = 230b = 1.073.741.824 b

    1 Tb (тера) =210 Gb =240 b = 1.099.511.627.776 b

  • Слайд 59

    Задача

    Размер текстового файла (Vд) 640 Kb. Файл содержит книгу, которая набрана в среднем по 32 строки на странице и по 64 символа в строке. Сколько страниц в книге: 160, 320, 540, 640, 1280 ?

    1. Символов на 1 стр. = 32*64 = 25*26=211

    3. Всего = 640Kb = 10*64*210b = 10*26*210b = 10*216b

    4. Кол-во стр. = 10*216b/ 211b = 10*25 = 320

    32

    64

    страница

    32

    64

    страница

    32

    64

    страница

    32

    64

    страница

    32

    64

    страница

    1 символ = 1b

    2. Памяти на 1 стр. = 211b

  • Слайд 60

    Информация и энтропия

    (c) Попова О.В., AME, Красноярск, 2005

    60

    Формула Шеннона выглядит также, как используемая в физике формула энтропии, выведенная Больцманом, но со знаком “-".

    Энтропия обозначает степень неупорядоченности движения молекул. По мере увеличения упорядоченности энтропия стремится к нулю.

  • Слайд 61

    Информация есть отрицательная энтропия

    (c) Попова О.В., AME, Красноярск, 2005

    61

    Т.к. энтропия является мерой неупорядоченности, то информация может быть определена как мера упорядоченности материальных систем.

  • Слайд 62

    ?

    (c) Попова О.В., AME, Красноярск, 2005

    62

    Увеличится или уменьшится количество информации в системе «Сосуд с водой» после замораживания воды?

    Как изменится энтропия этой системы?

  • Слайд 63

    Информация есть снятая неразличимость

    (c) Попова О.В., AME, Красноярск, 2005

    63

    Р. Эшби осуществил переход от толкования информации как «снятой неопределенности» к «снятой неразличимости». Он считал, что информация есть там, где имеется разнообразие, неоднородность.

  • Слайд 64

    Информация, энтропия и возможность выбора

    (c) Попова О.В., AME, Красноярск, 2005

    64

    Любая информация, уменьшающая неопределенность (энтропию), уменьшает и возможность выбора (количество вариантов).

    неопределенность

    (энтропия)

    информация

    возможность

    выбора

  • Слайд 65

    Коэффициент информативности (информационная плотность, лаконичность)

    (c) Попова О.В., AME, Красноярск, 2005

    65

    Коэффициент информативности сообщения определяется отношением количества информации к объему данных (длине кода):

    0

  • Слайд 66

    С увеличением Y уменьшаются объемы работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

    Частотная таблица русского языка

  • Слайд 67
  • Слайд 68

    Интересные факты

    Язык обладает  20% избыточностью. Это означает, что любое сообщение можно без потери информации сократить на 1/5, но при этом резко уменьшается помехоустойчивость информации.

    Информативность стихов в 1,5 раза больше, чем прозы, т.е. сообщение в 150 строк может быть передано 100 стихотворными строчками.

    Информативность стихов Пушкина очень близка к пределу информационной способности русского языка вообще.

  • Слайд 69

    Общая сумма информации, собранной во всех библиотеках мира, оценивается как

    Самая высокая известная нам плотность информации в молекулах ДНК

    Если бы вся эта информация была записана в молекуле ДНК, для нее хватило бы одного процента объема булавочной головки. Как носитель информации, молекула ДНК эффективней современных кварцевых мегачипов в 45 миллионов миллионов раз.

  • Слайд 70

    Семантическая мера информации

    смысл и содержательность сообщений

  • Слайд 71

    (c) Попова О.В., AME, Красноярск, 2005

    71

    Семантическая (смысловая) теория информации связана с семиотикой – теорией знаковых систем.

    Знаковые системы – это естественные и искусственные языки. Они служат средством обмена информацией между высокоорганизованными системами, способными к обучению и самоорганизации (живые организмы, машины с определенными свойствами).

  • Слайд 72

    (c) Попова О.В., AME, Красноярск, 2005

    72

    Для измерения количества смыслового содержания информации, наибольшее признание получила тезаурусная мера, которая связана со способностью пользователя принимать поступившее сообщение.

    Тезаурус - это совокупность сведений, которыми располагает пользователь или система.

  • Слайд 73

    «Тезаурус» – сокровищница (греч.)

    Человеческое знание, можно рассматривать в виде совокупности смысловыражающих элементов и смысловых отношений между ними = тезаурус.

    Количество семантической информации, извлекаемое человеком из сообщения, можно определить степенью изменения его знаний. Чем больше изменений, тем больше информации получено.

    Человек получает информацию только в том случае, когда в его знаниях, т.е. в его тезаурусе после получения сообщения произошли какие-либо изменения.

  • Слайд 74

    Количество семантической информации = 0, если:

    (c) Попова О.В., AME, Красноярск, 2005

    74

    «ИЗВЕСТНО ВСЕ» - Вам сообщают что-либо уже известное, например, что дважды два – четыре, что после ночи наступает день…

    «НЕИЗВЕСТНО НИЧЕГО» - Вам сообщают что-либо на неизвестном вам языке, Вы видите совершенно незнакомую математическую формулу…

    Т.е. информация была передана, приемник информацию получил, но его знания (тезаурус) остались без изменений.

  • Слайд 75

    (c) Попова О.В., AME, Красноярск, 2005

    75

    Максимальное количество семантической информации потребитель приобретает при согласовании её смыслового содержания со своим тезаурусом, когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения.

    Т.о., эффективность передачи информации зависит от соотношения тезаурусов источника и приемника.

  • Слайд 76

    Почему академики не учат первоклассников

    (c) Попова О.В., AME, Красноярск, 2005

    76

    - Мы были в лесу.

    - Что такое «лес»?

    Дерево

    Земля

    растет на

    Лес

    много

    - «Лес» – это, когда много деревьев.

    - «Лес – это совокупность значительного количества деревьев, произрастающих в непосредственной близости друг от друга»

  • Слайд 77

    Прагматическая мера информации

    полезность информации для достижения цели

  • Слайд 78

    (c) Попова О.В., AME, Красноярск, 2005

    78

    Цель – опережающее отражение, модель будущего результата деятельности.

    Цель является высшим уровнем передачи информации. Информация передается для того, чтобы вызвать соответствующий отклик у ее получателя.

  • Слайд 79

    Прагматический аспект информации

    (c) Попова О.В., AME, Красноярск, 2005

    79

    В языке предложения связываются друг с другом так, чтобы сформулировать просьбу, недовольство, вопрос, указание, чтобы вызвать определенное действие у получателя сообщения.

    С помощью рекламного объявления производитель старается убедить покупателя приобрести его продукцию.

  • Слайд 80

    Ценностьинформации по Стратоновичу

    (c) Попова О.В., AME, Красноярск, 2005

    80

    Ценность информации определяется уменьшением материальных или временных затрат, благодаря использованию информации.

    Если, благодаря использованию информации, произошло увеличение затрат, то ценность такой информации отрицательная.

  • Слайд 81

    (c) Попова О.В., AME, Красноярск, 2005

    81

    А.А. Харкевич предложил связать меру ценности информации с изменением вероятности достижения цели при получении этой информации таким образом:

    I = log(p1/p0) = log(p1)–log(p0),

    где p0 - вероятность достижения цели до, а p1 – после получения информации.

  • Слайд 82

    Кодирование информации

    Информация может накапливаться и передаваться физическими средствами лишь с помощью кода

  • Слайд 83

    Примеры систем кодирования

    —•—• — — — •—•

    А Б В Г Д Е…

    YesДаJa

    ? ! , ; “ " … ( )

    +7(3912)44-92-18

    ♪♫♮♯

    ﺷﺹﺾﺰﺚﺠ

    5-3531/1-1

    

    

  • Слайд 84

    Любой способ кодирования характеризуется

    (c) Попова О.В., AME, Красноярск, 2005

    84

    наличием основы (алфавит, спектр цветности, система координат, основание системы счисления…) и правил конструирования информационных образов на этой основе.

  • Слайд 85

    Кодирование текстовой информации

    Компьютер - всего лишь синтаксическое приспособление, не различающее семантических категорий

  • Слайд 86

    Для кодирования текстовой информации

    используется таблица символов ASCII (American Standard Code of Information Interchange).

  • Слайд 87

    Национальные кодировки

    (c) Попова О.В., AME, Красноярск, 2005

    87

    Под национальные кодировки отданы коды с 128-го по 255-й.

    Windows-1251 Компьютерные вирусы

    КОИ-8 лПНРШАФЕТОШЕ ЧЙТХУЩ

  • Слайд 88

    КОИ-8 Win-1251

  • Слайд 89

    UNICODE

    (c) Попова О.В., AME, Красноярск, 2005

    89

    UNICODE – универсальная система кодирования. Для кодирования каждого символа используется 2 байта, т.е. 16 бит.

    А – 1040

    я – 1103

  • Слайд 90

    Кодирование графической информации

  • Слайд 91

    Графика: понятие цвета

  • Слайд 92

    Графика: восприятие цвета

    Лягушка видит только движущиеся предметы. Чтобы увидеть все остальное, она должнасама начать двигаться.

    Сумеречные и ночные животные (волки и другие хищные звери), почти не различают цветов.

    Стрекоза хорошо различает цвета, но только нижней половиной глаз. Верхняя половина смотрит в небо, на фоне которого добыча и так хорошо заметна.

    Пчелы и другие насекомые не видят красного цвета, но различают ультрафиолетовые цвета, невидимые для человека, и у многих цветов есть узоры в ультрафиолетовом диапазоне спектра.

  • Слайд 93

    В человеческом глазе присутствуют два вида рецепторов: палочки и колбочки.

    Палочки реагируют на оттенки серого, а колбочки воспринимают спектр цветов.

    Существует три типа колбочек: первые реагируют на красно-оранжевый цвет, вторые - на зеленый, а третьи - на сине-фиолетовый.

  • Слайд 94

    (c) Попова О.В., AME, Красноярск, 2005

    94

  • Слайд 95

    Цветовые модели RGB/ CMYK

    излучающие

    отражающие

    аддитивные

    субтрактивные

    пиксель

    растр

  • Слайд 96

    Кодирование растровых изображений

    Для черно-белого изображения информационный объем одной точки равен одному биту (либо черная (0), либо белая (1)).

    Для четырехцветного – 2 бита.

    Для 8 цветов необходимо – 3 бита.

    Для 16 цветов – 4 бита.

    Для 256 цветов – 8 бит (1 байт).

  • Слайд 97

    Двоичное кодирование графики

  • Слайд 98

    RGB (основные цвета)

    Red (255,0,0)

    Green (0,255,0)

    Blue (0,0,255)

    White (255,255,255)

    (180,138,190)

  • Слайд 99

    CMYK (дополнительные цвета)

    Cyan (0,255,255)

    Magenta (255,0,255)

    Yellow (255,255,0)

    blacK (0,0,0)

  • Слайд 100

    Цветовой куб

    Blue (0,0,255)

    синий

    Cyan (0,255,255)

    голубой

    Magenta (255,0,255)

    пурпурный

    Green (0,255,0)

    зеленый

    Red (255,0,0)

    красный

    Black (0,0,0)

    черный

    Yellow (255,255,0)

    желтый

    White (255,255,255)

    белый

  • Слайд 101

    В вычислительной технике

    используется два состояния включено/выключено (0/1), поэтому кодирование команд, чисел, символов в компьютере осуществляется двоичным кодом (в двоичной системе счисления)

    0

    0

    0

    1

    0

    1

    1

    1

    <и> (Windows-1251) = 232 (десятичная система счисления)

    232 = &11101000 (двоичная система счисления)

  • Слайд 102

    Системы счисления

  • Слайд 103

    Позиционная система счисления

    (c) Попова О.В., AME, Красноярск, 2005

    103

    способ записи чисел цифровыми знаками, где значение каждой входящей в число цифры зависит от ее положения (позиции=разряда).

    Позиционная

    005=5*1 (пять)

    050=5*10 (пятьдесят)

    500=5*100 (пятьсот)

    Непозиционная

    IX = 10-1= 9

    XI =10+1= 11

    XX = 10+10 = 20

  • Слайд 104

    Для позиционной системы счисления

    где

    x – основание системы счисления

    ai – цифры числа

    i – номер позиции (разряда), начиная с 0

    справедливо следующее выражение:

    + a0*x0

    + a1*x1

    + a3*x3

    + a2*x2

    + a4*x4

    …a4a3a2a1a0 =

  • Слайд 105

    Десятичная система счисления

    2*1

    6*10

    0*100

    1*1000

    +

    +

    +

    1062 =

    2

    60

    0

    1000

    +

    +

    +

    1062 =

    0

    1

    2

    3

    i

    2

    6

    0

    1

    ai

    например,1062 – число в десятичной системе счисления

    1

    10

    100

    1000

    xi

    + a0*x0

    + a1*x1

    a3*x3

    + a2*x2

    a3a2a1a0 =

    100

    101

    102

    103

    x=10

    единицы

    десятки

    сотни

    тысячи

    имя

  • Слайд 106

    Двоичная система счисления

    0*1

    1*2

    0*4

    1*8

    +

    +

    +

    &1010 =

    0

    2

    0

    8

    +

    +

    +

    &1010 =

    0

    1

    2

    3

    i

    0

    1

    0

    1

    ai

    например,&1010 – число в двоичной системе счисления

    1

    2

    4

    8

    xi

    + a0*x0

    + a1*x1

    a3*x3

    + a2*x2

    a3a2a1a0 =

    20

    21

    22

    23

    x=2

    = 10

  • Слайд 107

    Перевод 2 -> 10

    x

    0

    1

    2

    3

    1

    0

    1

    1

    &

    1

    2

    0

    +

    0

    2

    1

    1

    +

    2

    2

    +

    1

    2

    3

    1

    +

    4

    +

    8

    =13

    x

    x

    x

  • Слайд 108

    Двоичная система счисления

    (c) Попова О.В., AME, Красноярск, 2005

    108

    способ записи чисел с помощью цифр1 и 0, которые являются коэффициентами при степени числа 2. Например, &101.

    & - амперсантуказывает на то, что число записано в двоичной системе.

  • Слайд 109

    (c) Попова О.В., AME, Красноярск, 2005

    109

    «Вычисление с помощью двоек…, сведение чисел к простейшим началам (0 и 1)» было предложено еще в XVII веке знаменитым немецким ученым Г.В. Лейбницем.

  • Слайд 110

    Двоичная система счисления

    (c) Попова О.В., AME, Красноярск, 2005

    110

    &101 =

    5

    &110 =

    &111 =

    6

    7

    = 8

    &1000

    = 9

    &1001

    “Круглые" числа

    &1 = 1

    &10 = 2

    &100 = 4

    &1000 = 8

    &10000 = 16

    &100000 = 32

  • Слайд 111

    Перевод 10 –> 2

    1

    12

    24

    2

    25

    0

    6

    12

    2

    0

    3

    6

    2

    1

    1

    2

    2

    25 = &11001

    Проверка

    1* 24 + 1*23+ 0*22 + 0*21 + 1*20 =

    1*16 + 1*8 + 0*4 + 0*2 + 1*1 =

    16 + 8 + 0 + 0 + 1 = 25

  • Слайд 112

    Перевод самостоятельно (10 –> 2)

    0

    9

    18

    2

    18

    1

    4

    8

    2

    0

    2

    4

    2

    0

    1

    2

    2

    18 = &10010

    Проверка

    1* 24 + 0*23+ 0*22 + 1*21 + 0*20 =

    1*16 + 0*8 + 0*4 + 1*2 + 0*1 =

    16 + 0 + 0 + 2 + 0 = 18

  • Слайд 113

    Сравнительная таблица

    Примерзаписи

    Цифрысистемы

    Основание

    системы

    &101011111

    0 1

    2

    351

    0 1 2 3 4 5 6 7 8 9

    10

    #15f

    0 1 2 3 4 5 6 7 8 9 a b c d e f

    10 11 12 13 14 15

    16

    255 = &11111111 = #ff

  • Слайд 114

    Перевод 16 -> 10

    x

    0

    1

    b

    4

    #

    0

    b

    16

    1

    4

    +

    16

    1

    +

    16

    4

    =75

    x

    x

    11

    x

  • Слайд 115

    Перевод 10 –> 16

    (c) Попова О.В., AME, Красноярск, 2005

    115

    4

    11

    176

    16

    180

    180 = #b4

    Проверка

    11* 161+ 4*160 =

    11*16 + 4*1=

    176 + 4= 180

    = b

  • Слайд 116

    # RGB

    #ff0000

    #00ff00

    #0000ff

    #ffffff

    #b48abe

  • Слайд 117

    Запись чисел в различных системах счисления

    19

    10011

    23

    13

    18

    10010

    22

    12

    17

    10001

    21

    11

    16

    10000

    20

    10

    15

    1111

    17

    F

    14

    1110

    16

    E

    13

    1101

    15

    D

    12

    1100

    14

    C

    11

    1011

    13

    B

    10

    1010

    12

    A

    10-я

    2-я

    8-я

    16-я

    9

    11

    1001

    9

    8

    10

    1000

    8

    7

    7

    111

    7

    6

    6

    110

    6

    5

    5

    101

    5

    4

    4

    100

    4

    3

    3

    11

    3

    2

    2

    10

    2

    1

    1

    1

    1

    0

    0

    0

    0

    16-я

    8-я

    2-я

    10-я

  • Слайд 118

    Необыкновенная девчонкаА. Н. Стариков

    (c) Попова О.В., AME, Красноярск, 2005

    118

    Ей было тысяча сто лет,Она в 101-ый класс ходила,В портфеле по сто книг носила –Все это правда, а не бред.

    Когда, пыля десятком ног,Она шагала по дороге,За ней всегда бежал щенокС одним хвостом, зато стоногий.

    Она ловила каждый звукСвоими десятью ушами, И десять загорелых рукПортфель и поводок держали.

    И десять темно-синих глазРассматривали мир привычно… Но станет все совсем обычным,Когда поймете наш рассказ.

  • Слайд 119

    ?

    (c) Попова О.В., AME, Красноярск, 2005

    119

    За праздничным столом собрались 4 поколения одной семьи: дед, отец, сын и внук. Их возраст в различных системах счисления записывается так 88 лет, 66 лет, 44 года и 11 лет. Сколько им лет в десятичной системе счисления, если через год их возраст в тех системах счисления можно будет записать как 100?

  • Слайд 120

    Вавилонская система счисления

    Вавилонская система (шестидесятеричная) одна из первых известных систем счисления мира, основанная на позиционном принципе появилась в Древнем Вавилоне за 2000 лет до н.э. Мы делим один час на 60 минут, а минуту делим на 60 секунд. Также окружность мы делим на 360 частей. Оказывается мы следуем примеру Вавилона!

  • Слайд 121

    Домашнее задание

  • Слайд 122

    Задача 1

    (c) Попова О.В., AME, Красноярск, 2005

    122

    В бумагах одного чудака найдена была его автобиография. Она начиналась следующими строками: «Я окончил курс университета 44 лет от роду. Спустя год, 100-летним молодым человеком, я женился на 34-летней девушке. Незначительная разница в возрасте всего 11 лет способствовала тому, что мы жили общими интересами и мечтами. Спустя немного лет у меня была уже и маленькая семья из 10 детей.»Попробуйте разгадать ее.

  • Слайд 123

    Задача 2

    Для хранения области экрана монитора размером 256х128 точек выделено 32 Kb оперативной памяти. Количество цветов, максимально допустимое для раскраски каждой точки: 4; 16; 256; 512 ?

    128

    256

    1. Всего точек = 128*256 = 27*28=215

    2. Всего памяти = 32Kb = 32*210b = 25*210b = 215b

    3. Памяти на одну точку = 215b/ 215 = 1b = 8 бит

    4. Комбинаций на основании 8 бит = 28 = 256

    ОЙ!

  • Слайд 124

    Задача 3

    Досье на сотрудников занимают 8Mb. Каждое из них содержит 16 страниц (32 строки по 64 символа в строке). Сколько сотрудников в организации: 256; 512; 1024; 2048?

    1. Символов 1 д. = 16*32*64 = 24*25*26=215

    3. Всего = 8Mb = 23*220b = 223b

    4. Кол-во сотр. = 223b/ 215b = 28 = 256

    1 символ = 1b

    2. Памяти на 1 д. = 215b

    32

    64

    страница

    32

    64

    страница

    32

    64

    страница

    32

    64

    страница

    48

    64

    страница

    16

    ОЙ!

Посмотреть все слайды

Сообщить об ошибке