Презентация на тему "Дистанционный курс подготовки 9 класса по информатике"

Презентация: Дистанционный курс подготовки 9 класса по информатике
Включить эффекты
1 из 51
Ваша оценка презентации
Оцените презентацию по шкале от 1 до 5 баллов
  • 1
  • 2
  • 3
  • 4
  • 5
0.0
0 оценок

Комментарии

Нет комментариев для данной презентации

Помогите другим пользователям — будьте первым, кто поделится своим мнением об этой презентации.


Добавить свой комментарий

Аннотация к презентации

Посмотреть презентацию на тему "Дистанционный курс подготовки 9 класса по информатике" для 9 класса в режиме онлайн с анимацией. Содержит 51 слайд. Самый большой каталог качественных презентаций по информатике в рунете. Если не понравится материал, просто поставьте плохую оценку.

  • Формат
    pptx (powerpoint)
  • Количество слайдов
    51
  • Аудитория
    9 класс
  • Слова
    информатика
  • Конспект
    Отсутствует

Содержание

  • Презентация: Дистанционный курс подготовки 9 класса по информатике
    Слайд 1

    Информация. Двоичное кодирование информации.

    1 1.до20 2.20-36 3.36=> Презентация создана по учебнику «Информатика и ИКТ» автор Н.Д.Угриновича (10-11 класс)-2002г

  • Слайд 2

    Информация. Двоичное кодирование информации

    2 2.1. Понятие «информация» и свойства информации. Слово «информация» происходит отлатинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация»является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия. В геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия.

  • Слайд 3

    Информация в физике.

    3 В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (антиэнтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, и величина информации увеличивается. Процесс увеличения информации характерен для открытых, обменивающихся веществом и энергией с окружающей средой, саморазвивающихся систем живой природы (белковых молекул, организмов, популяций животных и так далее). Таким образом, в физике информация есть антиэнтропия или энтропия с обратным знаком

  • Слайд 4

    Информация в биологии.

    4 В биологии, которая изучает живую природу, понятие «информация» связывается с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования организмом информации об окружающей среде. Понятие «информация» используется также в связи с исследованиями механизмов наследственности. Генетическая информация передается по наследству и хранится во всех клетках живых организмов. Гены представляют собой сложные молекулярные структуры, содержащие информацию о строении живых организмов. Последнее обстоятельство позволило проводить научные эксперименты по клонированию, то есть созданию точных копий организмов из одной клетки.

  • Слайд 5

    Информация в кибернетике

    5 В кибернетике (науке об управлении) понятие «информация» связано с процессами управления в сложных системах (живых организмах или технических устройствах). Жизнедеятельность любого организма или нормальное функционирование технического устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значения их параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информации.

  • Слайд 6

    Свойства информации

    6 Информация должна быть: - понятной; - полезной; - актуальной; - достоверной; - полной; - точной.

  • Слайд 7

    Количество информации как мера Уменьшения неопределенности знаний

    7 Информация и знания. Человек получает информацию из окружающего мира с помощью органов чувств, анализирует ее и выявляет существенные закономерности с помощью мышления, хранит полученную информацию в памяти. Процесс систематического научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и так далее). Таким образом, с точки зрения процесса познания информация может рассматриваться как знания.

  • Слайд 8

    8 Процесс познания можно наглядно изобразить в виде расширяющегося круга знания. Вне этого круга лежит область незнания, а окружность является границей между знанием и незнанием. Парадокс состоит в том, что чем бОльшим объемом знании обладает человек (чем шире круг знаний), тем больше он ощущает недостаток знаний (тем больше граница нашего незнания, мерой которого в этой модели является длина окружности) — рис.1. Рис.1 НЕЗНАНИЕ Так, объем знаний выпускника школы гораздо больше, чем объем знаний первоклассника, однако и граница его незнания существенно больше. (Законы физики) ЗНАНИЕ

  • Слайд 9

    9 Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию. Например, после сдачи экзамена по информатике вы мучаетесь неопределенностью, вы не знаете какую оценку получили. Наконец, экзаменационная комиссия объявляет результаты экзамена, и вы получаете сообщение, которое приносит полную определенность, теперь вы знаете свою оценку. Происходит переход от незнания к полному знанию, значит, сообщение экзаменационной комиссии содержит информацию. Вопрос только в том, какое кол-во информации содержится в сообщении.

  • Слайд 10

    Уменьшение неопределенности знаний

    10 Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: «орел» или «решка». Можно говорить, что события равновероятны.

  • Слайд 11

    11 Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска — только одно, то есть в два раза меньше.

  • Слайд 12

    Единицы измерения кол-ва информации

    12 Для количественного выражения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы - килограмм и так далее. Аналогично, для определения количества информации необходимо ввести единицу измерения. За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа «бит».

  • Слайд 13

    13 Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту. Минимальной единицей измерения количества информации является бит, а следующей по величине единицей является байт, причем 1 байт = 23 бит = 8 бит 1 Кбайт = 210 байт = 1024 байт; 1 Мбайт = 210 Кбайт = 1024 Кбайт; 1 Гбайт = 210 Мбайт = 1024 Мбайт; 1 Тбайт = 210 Гбайт = 1024 Гбайт; 1 Пбайт = 210 Тбайт = 1024 Тбайт;

  • Слайд 14

    Количество возможных событий и количество информации

    14 Существует формула, которая связывает между собой количество возможных событий Nи количество информации /: N=2 I(1) По этой формуле можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составляло: N = 24= 16

  • Слайд 15

    15 Наоборот, для определения количества информации, если известно количество событий, необходимо решить уравнение относительно /. Например, в игре «Крестики-нолики» на поле 8x8 перед первым ходом существует 64возможных события (64 различных варианта расположения «крестика»), тогда уравнение принимает вид: 64 = 2I. Так как 64 = 26, I = 6 битов, то есть количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 битов.

  • Слайд 16

    Алфавитный подход к определению количества информации

    16 при хранении и передаче информации с помощью технических устройств целесообразно отвлечься от содержания информации и рассматривать ее как последовательность знаков (букв, цифр, кодов цветов точек изображения и так далее). Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле N=2I можно рассчитать, какое количество информации несет каждый символ. Так, в русском алфавите, если не использовать букву ё, количество событий (букв) будет равно 32. Тогда: 32 = 2I, откуда / = 5 битов.

  • Слайд 17

    17 Количество информации в сообщении можно подсчитать, умножив количество информации, которое несет один символ, на количество . символов. Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.

  • Слайд 18

    Формула Шеннона

    18 Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения «орла» и «решки» будут различаться. Формулу для вычисления количества информации в случае различных вероятностей событий предложил К. Шеннон в 1948 году. В этом случае количество информации определяется по формуле: (2) где I — количество информации; N — количество возможных событий; Pi; — вероятность i-го события,

  • Слайд 19

    19 Например, пусть при бросании несимметричной четырехгранной пирамиды вероятности отдельных событий будут равны: p1=1/2, p2=1/4, p3=1/8,p4=1/8. тогда кол-во информации, которое мы получим после реализации одного из них, можно рассчитать по формуле: I= -(1/2 Log21/2+1/4 Log2 1/4 + 1/8 Log2 1/8+ 1/8Log2 1/8)=1/2+2/4+3/8+3/8=1,75 бита. Этот подход к определению кол-ва информации называется вероятностным. Для случая, когда все события равновероятны применима формула: I=Log2N (3)

  • Слайд 20

    20 Кол-во информации, которое мы получим при бросании симметричной и однородной четырехгранной пирамиды будет равно: I=Log24=2 бита. При бросании несимметричной пирамиды мы получаем меньшее кол-во информации (1,75 бита), чем при бросании симметричной пирамиды (2 бита). Кол-во информации, которое мы получаем достигает максимального значения, если события равновероятны.

  • Слайд 21

    21 На получении максимального количества информации строится выбор оптимальной стратегии в игре «Угадай число», в которой первый участник загадывает целое число (например, 3) из заданного интервала (например, от 1 до 16), а второй — должен в угадать» задуманное число. Если рассмотреть эту игру с информационной точки зрения, то начальная неопределенность знаний для второго участника составляет 16 возможных событий (вариантов загаданных чисел). При оптимальной стратегии интервал чисел всегда должен делиться пополам, тогда количество возможных событий (чисел) в каждом из полученных интервалов будет одинаково и отгадывание интервалов равновероятно. В этом случае на каждом шаге ответ первого игрока («Да» или «Нет») будет нести максимальное количество информации (1 бит).

  • Слайд 22

    22 Как видно из таблицы 1 угадывание числа 3 произошло за четыре шага, на каждом из которых неопределенность знаний второго участника уменьшалась в два раза за счет получения сообщения от первого участника, содержащего 1 бит информации. Таким образом, количество информации, необходимое для отгадывания одного из 16 чисел, составило 4 бита.Таб.1

  • Слайд 23

    Кодирование информации. Язык как знаковая система

    23 Естественные языки.Русский-33 знака, английский - 26 знаков, китайский - десятки тысяч знаков. Формальные языки. Системы счисления, язык алгебры, языки программирования. Представление информации может осуществляться с помощью языков, которые являются знаковыми системами. Каждая знаковая система строится на основе определенного алфавита и правил выполнения операций над знаками. Каждая цифра машинного двоичного кода несет в себе 1 бит информации.

  • Слайд 24

    Представление информации в живых организмах

    24 Нейрон находится в 2-х состояниях (0,1) Молекула ДНК хранит всю информацию о человеке. Кодирование— это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.

  • Слайд 25

    25

  • Слайд 26

    Представление числовой информации с помощью систем счисления.

    26 Система счисления – знаковая система, в которой числа записываются по определенным правилам с помощью символов некоторого алфавита, называемого цифрами. Системы счисления бывают 2-х видов -позиционные и непозиционные. В позиционных системах счисления количественное значение цифры зависит от ее позиции в числе (десятичная), а непозиционных – не зависит (римская).

  • Слайд 27

    27 Каждая позиционная система имеет определенный алфавит цифр и основание. В позиционных системах счисления основание системы равно кол-ву цифр (знаков в алфавите) и определяет во сколько раз различаются значения одинаковых цифр, стоящих в соседних позициях числа (таб2). Таб.2

  • Слайд 28

    28 Десятичная система счисления Позиция цифры в числе называется разрядом.123. 3-первый разряд, 2-второй, 1-третий. Число 123 записано в свернутой форме. Мы умножаем в уме цифры числа на различные степени числа 10. В развернутой форме умножение записывается в явной форме. 12310= 1*102 + 2*101 + 3*100

  • Слайд 29

    29 Для записи десятичных дробей используются отрицательные значения степеней основания. 12,3510 = 1*101 +2*100 +3*10-1 +5*10-2 В десятичной системе счисления запись числа А10, которое содержит N целых разрядов числа и M дробных разрядов числа выглядит так: А10= an-1*10n-1+…+ a0*100+…+ a-m*10-m, где a i – цифры числа.

  • Слайд 30

    Двоичная система счисления

    30 В двоичной системе счисления основание =2 Алфавит состоит из 2-х цифр – 0 и 1. А2= an-1*2n-1+…+ a0*20+…+ a-m*2-m А2= 101,01= 1*22+0*21+1*20 +0*2-1+1*2-2 Аналогично для 8-ой и 16-ой систем.

  • Слайд 31

    Непозиционные системы счисления

    31 Самая распространенная непозиционная система счисления является римская (таб.3). Таб.3

  • Слайд 32

    32 Если меньшая цифра стоит слева от большей, то она вычитается, если справа, прибавляется. DCLXVI=D(500)+C(100)+L(50)+X(10)+VI(5+1)

  • Слайд 33

    Перевод чисел в позиционных системах счисления

    33 Перевод из двоичной в десятичную Для перевода из 2-ой, 8-ой, 16-ой системы счисления в 10-ую необходимо записать число в развернутой форме и вычислить его значение 101,012= 1*22+0*21+1*20 +0*2-1+1*2-2= =1*4+0*2+1*1+0*1/2+1*1/4=5,2510 Перевод из восьмеричной в десятичную 6,58= 6*80+5*8-1=6*1+5*0,125=6,62510 Перевод из шестнадцатеричной в десятичную 5С16= 5*161+12*160 =5*16+12*1= 9210

  • Слайд 34

    Перевод чисел из десятичной системы в двоичную, восьмеричную и шестнадцатеричную.

    34 5102 510=1012 4 2 2 1 2 1 0 Для перевода необходимо число разделить на основание той системы в которую осуществляется перевод, записать полученные остатки в обратной последовательности.

  • Слайд 35

    Перевод дробей в двоичную систему.

    35 Для перевода необходимо умножать дробь до тех пор пока не получится нулевая дробная часть или не будет достигнута требуемая точность. Записать полученные целые части в прямой последовательности. 0,7510=0,112 2 1,50 2 1,00

  • Слайд 36

    36 Перевод чисел, содержащих и целую и дробную части осуществляется в 2 этапа. Отдельно переводится целая часть и отдельно –дробная. В итоговой записи целая и дробная часть объединяются (отделяются запятой). 510=1012 0,7510=0,112 5,7510= 101,112

  • Слайд 37

    Перевод чисел из 2-ой системы счисления в 8-ую, 16-ую и обратно.

    37 Для перевода целого 2-го числа в 8-ое его нужно разбить на группы по 3 цифры, справа налево, а затем преобразовать каждую группу в 8-ую цифру. Если в левой группе менее 3 цифр, то необходимо дополнить ее слева нулями. 110012= 011_001 011= 0*22+1*21+1*20=0+2+1=3 001= 0*22+0*21+1*20=0+0+1=1 110012=318

  • Слайд 38

    38 Для упрощения перевода используются таблицы преобразования двоичных триад (групп по 3 цифры) в восьмеричные цифры (таб.4). Таб.4 Для перевода дробного 2-го числа в 8-ое необходимо разбить его на триады слева направо. Если в правой группе окажется менее 3 цифр, дополнить ее справа нулями. 0,10112=101_100=54

  • Слайд 39

    Перевод из 2-ой в 16-ую систему счисления

    39 Для перевода целого числа необходимо разбить его на группы по 4-е цифры (тетрады), начиная справа. Если в левой группе окажется менее 4 цифр, то дополнить ее слева нулями. Для перевода дробного двоичного числа, необходимо разбить его на тетрады слева направо. Если в правой группе окажется менее 4 цифр, дополнить ее справа нулями. 1110112=0011_1011=3В16 0011=0*23+0*22+1*21 1*20=0+0+2+1=3 1011= 1*23+0*22+1*21 +1*20=8+0+2+1=11(В) 1110112=3В16

  • Слайд 40

    40 Для упрощения перевода используются таблицы преобразования двоичных тетрад (групп по 4 цифры) в шестнадцатеричные цифры таб.5

  • Слайд 41

    Перевод из 8-ой и 16-ой в 2-ую систему.

    41 Для перевода из 8-ой в 2-ую систему необходимо преобразовать каждую цифру в группу из трех двоичных цифр (триаду), а при преобразовании 16-го числа – в группу из четырех цифр (тетраду). 0,478=0,101112 АВ16=101010112

  • Слайд 42

    Арифметические операции в позиционных системах счисления

    42 Сложение:Вычитание: 0+0=0, 0-0=0 0+1=1, 0-1=11 1+0=1, 1-0=1 1+1=10. 1-1=0 111 101 +11 -11 1010 10

  • Слайд 43

    43 Умножение:Деление: 1*0=0 Деление и умножение 0*1=0, аналогично 10-й 0*0=0, системе 1*1=1. 110 11 111 11 10 *11 0 111 +111 10101

  • Слайд 44

    Представление чисел в ПК

    44 Для хранение целых неотрицательных чисел отводится одна ячейка памяти (8битов). Число 101001002 Максимальное значение целого неотрицательного числа достигается в случае, когда во всех ячейках 1 Для n-разрядного представления оно будет = 2n-1 (4) Определим диапазон чисел, которые могут хранится в оперативной памяти (целые неотриц). А=1*27+1*26+1*25 +1*24+1*23+1*22 +1*21 + 1*20 =1*28-1= 255. (0-255)

  • Слайд 45

    45 Для хранения целых чисел со знаком отводится 2 ячейки (16 битов). Левый разряд отводится под знак. (+0,-1). Число -2006=-11111010110 Представление положительных чисел в формате «знак-величина» называется прямым кодом числа. Максимальное положительное число (с учетом выделения одного разряда на знак) для целых чисел со знаком в n-разрядном представлении равно:А=2n-1-1 (5) Для представления отрицательных чисел используется дополнительный код.

  • Слайд 46

    46 Дополнительный код позволяет избежать вычитания, заменив его сложением. Что увеличивает быстродействие процессора. Дополнительный код отрицательного числа А, хранящегося в n ячейках, = 2n-|A| (6) Прямой код модуля: -2006= |-200610|=00000111110101102 Обратный код (инвертирование): 1111100000101001 и прибавление единицы +0000000000000001 1111100000101010 – дополнительный код.

  • Слайд 47

    47 Максимальное значение модуля числа A в n-разрядном представлении = |A|=2n-1(7) Минимальное отрицательное число равно A= - 2n-1(8) Диапазон чисел, которые могут храниться в оперативной памяти в формате длинных целых чисел со знаком(32 бита). 4 ячейки памяти. (5). А=2n-1-1= А=231-1=2’147’ 483’ 64710 Минимальное отрицательное целое число = (8) A= - 2n-1= -231= 2’147’ 483’ 64810 Плюсы чисел с фиксированной запятой: простота представления чисел и операций над ними.

  • Слайд 48

    Представление чисел в формате с плавающей запятой.

    48 Число А может быть представлено в виде: А=mqn,(9) где m – мантисса числа; q – основание системы счисления; n – порядок числа. Для единообразия представления чисел с плав. Запятой используется нормализованная форма, при которой мантисса отвечает условию: 1/n

  • Слайд 49

    49 Запишем число 13,13 в экспоненциальной форме с нормализованной мантиссой: 0,1313*102, мантисса=0,1313, порядок=2. Число в формате с плав.запятой занимает в памяти ПК 4 (обычной точности) или 8 байтов (двойной точности). Определим максимальное число и его точность для формата чисел с обычной точностью, если для хранения порядка и его знака отводится 8 разрядов, а для хранения мантиссы и ее знака 24 разряда

  • Слайд 50

    50 Максимальное значение порядка = 11111112=12710 => Максимальное значение числа = 2127=1,7014118346*1038 Максимальное значение положительной мантиссы= 223-1= +107 Максимальное число обычной точности = 1,701411*1038 (кол-во значащих цифр ограничено 7 разрядами). Кодирование (Смольникова).

  • Слайд 51

    ЗАДАНИЕ

    51 Чт. с.72-82.Зад.: 2.3аб, 2.4. Чт. с.82-94. стр92-вопрос 1,2,3. Зад.:2.6-2.10. Чт. с.103-121.Зад.: 2.19, 2.20. Презентация создана по учебнику «Информатика и ИКТ» автор Н.Д.Угриновича (10-11 класс)-2002г

Посмотреть все слайды

Сообщить об ошибке