- Учителю
- Разработка урока 'Информация и энтропия'
Разработка урока 'Информация и энтропия'
Методическая разработка урока «Информация и энтропия»
Нефедьева Лариса Михайловна,
учитель информатики МБОУ г. Иркутска
Лицей № 1
Класс: 10 класс физико-математического профиля
Цель урока: создание условий для формирования интеллектуальной компетентности учащихся в информационном взаимодействии с учителем
Тип урока: открытие новых знаний
Технология: системно-деятельностный подход
Оборудование: компьютерный класс, проектор, маркерная доска, раздаточный материал (задачи).
ХОД УРОКА
-
Мотивация к совершению учебной деятельности
На предыдущих уроках вы познакомились с понятием «информация» в различных областях человеческой деятельности: информатике, кибернетике, технике, в быту. Вы уже знаете, что информацию можно измерять, а также знаете единицы измерения информации.
Назовите единицы измерения информации (учащиеся перечисляют все единицы: бит, байт, килобайт, мегабайт, гигабайт, терабайт).
Сегодня нам надо получить формулу для определения количества информации и вычислить энтропию кристалла.
-
Актуализация знаний (ответы учащихся на вопросы учителя)
Повторим ранее рассмотренные понятия.
Что мы понимаем под информацией в бытовом смысле, в информатике, кибернетике, технике, биологии?
Учащиеся отвечают на вопросы, в случае затруднения учитель задает наводящие вопросы и примеры, помогая сформулировать понятия.
-
Коллективная работа по выводу формулы для определения количества информации
В основе нашего мира лежат три составляющие - вещество, энергия и информация.
Можно ли измерить количество вещества и как именно? (Вещество можно взвесить на весах и определить его вес, например, в тоннах, килограммах и граммах. Можно с помощью линейки или рулетки измерить его размеры и вычислить его объем и т.д.).
Можно ли определить количество энергии? (Можно, например, найти количество тепловой энергии в Дж, электроэнергии в кВт/ч, и т.д.)
Информацию также можно измерять и находить ее количество.
Существуют два подхода к измерению информации.
Один из них называется содержательный или вероятностный. Из названия подхода можно сделать вывод, что количество информации зависит от ее содержания.
Сообщение несет больше информации, если в нем содержатся новые и понятные сведения. Такое сообщение называется информативным.
Какой вывод из этого можно сделать? (Количество информации зависит от информативности).
Количество информации в некотором сообщении равно нулю, если оно с точки зрения конкретного человека неинформативно. Количество информации в информативном сообщении больше нуля.
Но информативность сообщения сама по себе не дает точного определения количества информации. По информативности можно судить только о том, много информации или мало.
Рассмотрим понятие информативности с другой стороны. Если некоторое сообщение является информативным, оно пополняет нас знаниями или уменьшает неопределенность наших знаний.
Продолжите, пожалуйста такое высказывание: Сообщение содержит информацию, если оно … (приводит к уменьшению неопределенности наших знаний).
Рассмотрим несколько примеров.
Мы бросаем монету и пытаемся угадать, какой стороной она упадет на поверхность.
Сколько результатов может быть? (Возможен один результат из двух: монета окажется в положении «орел» или «решка»).
Каждое из этих двух событий окажется равновероятным, т.е. ни одно из них не имеет преимущества перед другим.
Можем ли мы перед броском сказать, как упадет монета? (Нет, мы точно не знаем, как она упадет).
Можем ли мы это событие предсказать? (Это событие предсказать невозможно).
Значит, перед броском существует неопределенность нашего знания - возможно одно событие из двух. После броска наступает полная определенность знания, т.к. мы получаем зрительное сообщение о положении монеты. Это зрительное сообщение уменьшает неопределенность нашего знания в два раза, т.к. из двух равновероятных событий произошло одно.
Сколько может быть результатов (событий), если кидать шестигранный кубик? (Один результат из шести возможных, равновероятных).
Во сколько раз уменьшается неопределенность знаний после броска? (Неопределенность наших знаний уменьшается в шесть раз).
Допустим, что на экзамен приготовлено 32 билета. Чему равно количество событий, которые могут произойти при вытягивании билета? (Количество событий равно 32).
Эти события равновероятны или нет? (События равновероятны.)
Чему равна неопределенность знаний ученика перед тем, как он вытянет билет? (Неопределенность знаний равна 32)
Во сколько раз уменьшится неопределенность знания после того как ученик билет вытянул? (Неопределенность знаний уменьшится в 32 раза).
Зависит ли этот показатель от номера вытянутого билета? (Не зависит, т.к. события равновероятны.)
Какой вывод можно сделать из всех рассмотренных примеров? (Чем больше количество возможных равновероятных событий, тем в большее количество раз уменьшается неопределенность наших знаний).
Каким может быть наименьшее количество информации? Рассмотрим еще раз пример с монетой. Предположим, что у монеты обе стороны «орел». Существует ли неопределенность знаний пред броском в этом случае? (Нет, так как мы заранее знаем, что выпадет в любом случае «орел».)
Получим ли мы новую информацию после броска? (Нет, так как ответ мы уже знали заранее.)
Будет ли информативным сообщение о результате броска? (Нет, так оно не принесло новых знаний.)
Чему равно количество информации в этом случае? (Нулю, т.к. оно неинформативно.)
Какой вывод можно сделать? (Мы не получаем информацию в ситуации, когда происходит одно событие из одного возможного. Количество информации в этом случае равно нулю).
Сколько минимально должно быть равновероятных событий, чтобы количество информации имело положительное значение? (Необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных).
Количество информации в сообщении о том, что произошло одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту.
Какая система кодирования существует в вычислительной технике? (Двоичная система счисления, т.е. двоичное кодирование).
Почему наименьшая единица измерения информация называется бит? (На английском языке двоичные цифры называются binary digit или сокращенно bit - бит).
С точки зрения кодирования с помощью 1 бита можно закодировать два сообщения, события или два варианта некоторой информации. С точки зрения вероятности 1 бит - это такое количество информации, которое позволяет выбрать одно событие из двух равновероятных. Из этого вытекает еще одно определение:
1 бит - это количество информации, уменьшающее неопределенность знаний в два раза.
Сколько бит информации мы получаем в примере с монетой, т.е. в сообщении о том, что произошло одно из двух равновероятных событий? (Один бит).
Начертим на доске таблицу и занесем эти данные:
Количество равновероятных событий, N
Количество информации, i
2
1
4
2
8
3
Рассмотрим еще один пример, но сначала вспомним задачу, которую вы решали в младшей школе.
Есть 8 монет, из которых одна фальшивая. Эта монета легче остальных. Для нахождения фальшивой монеты у вас есть только весы, состоящие из чашек и коромысла. Какую стратегию вы использовали для поиска монеты?
(Учащиеся называют стратегию «Метод деления пополам»).
Используя эту стратегию, угадайте на какую полку стеллажа, состоящего из 4-х полок, библиотекарь положил книгу.
Сколько вариантов может быть? (Четыре варианта).
Вы должны задавать вопросы, на которые можно ответить «да» или «нет». Вопросы должны каждый раз уменьшать неопределенность знаний ровно в два раза.
Первый вопрос учащихся: книга лежит выше второй полки? (Ответ учителя «да»).
Второй вопрос: книга лежит на третьей полке? (Ответ учителя «нет»).
Учащиеся делают вывод о том, что книга лежит на четвертой полке.
Сколько бит информации мы получили? (Два бита).
Дополняем таблицу:
Количество равновероятных событий, N
Количество информации, i
2
1
4
2
А если стеллаж будет состоять из 8 полок, сколько нужно будет задать вопросов и сколько получим бит информации после угадывания, на какой полке лежит книга? (Восемь вариантов, три вопроса, три бита информации).
Дополняем таблицу:
Количество равновероятных событий, N
Количество информации, i
2
1
4
2
8
3
Теперь попробуйте угадать, на какой путь из 16 прибыл поезд. Учащиеся задают вопросы и делают вывод о том, что при угадывании будет получено 4 бита информации.
Дополняем таблицу:
Количество равновероятных событий, N
Количество информации, i
2
1
4
2
8
3
16
4
Попробуйте связать числа в таблице, если каждый вопрос уменьшал неопределенность знаний в 2 раза.
После обсуждений учащиеся получают формулу, которая связывает количество возможных событий и количество информации:
N = 2i ,
где N - количество возможных вариантов, i - количество информации.
В 1928 г. американский инженер Роберт Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:
i = log2 N , N=2i
где N - количество равновероятных событий; i - количество бит в сообщении о том, что любое из N событий произошло.
В 1948 г. американский инженер и математик Клодт Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.
Если I - количество информации,
N - количество возможных событий,
рi - вероятности отдельных событий,
то количество информации для событий с различными вероятностями можно определить по формуле:
,
Логарифм числа по основанию (от греч. λоγος- «слово», «отношение» и aριθμoς- «число») определяется как показатель степени, в которую надо возвести основание , чтобы получить число .
Обозначение: произносится: "логарифм по основанию ".
Из определения следует, что нахождение равносильно решению уравнения .
Например, потому что
Примеры: log381 = 4 , так как 34 = 81;
log1/3 27 = - 3 , так как ( 1/3 ) -3 = 33 = 27 .
Если количество возможных вариантов является целой степенью числа 2, можно использовать выведенную вами формулу N = 2i.
Решим несколько примеров.
-
Сообщение о том, что Петя живет во втором подъезде, несет 3 бита информации. Сколько подъездов в доме? (Ответ: 8 подъездов)
-
Сообщение о том, что ваш друг живет на 10 этаже, несет 4 бита информации. Сколько этажей в доме? (Ответ: 16 этажей)
-
При угадывании целого числа в диапазоне от 1 до N было получено 9 бит информации. Чему равно число N? (Ответ: диапазон чисел имеет значение от 1 до 512).
-
В коробке лежит цветные карандаши, все карандаши разного цвета. Сообщение о том, что до стали синий карандаш, несет 4 бита информации. Сколько карандашей в коробке? (Ответ: в коробке 64 карандаша).
Количество возможных вариантов информации не всегда является целой степенью числа 2. В случае, если количество информации является вещественным числом, можно воспользоваться калькулятором или таблицей логарифмов (табл. 1).
Таблица 1
Таблица логарифмов
N
I
N
I
N
I
N
I
1
0,00000
17
4,08746
33
5,04439
49
5,61471
2
1,00000
18
4,16993
34
5,08746
50
5,64386
3
1,58496
19
4,24793
35
5,12928
51
5,67243
4
2,00000
20
4,32193
36
5,16993
52
5,70044
5
2,32193
21
4,39232
37
5,20945
53
5,72792
6
2,58496
22
4,45943
38
5,24793
54
5,75489
7
2,80735
23
4,52356
39
5,28540
55
5,78136
8
3,00000
24
4,58496
40
5,32193
56
5,80735
9
3,16993
25
4,64386
41
5,35755
57
5,83289
10
3,32193
26
4,70044
42
5,39232
58
5#5798
11
3,45943
27
4,75489
43
5,42626
59
5,88264
12
3,58496
28
4,80735
44
5,45943
60
5,90689
13
3,70044
29
4,85798
45
5,49185
61
5,93074
14
3,80735
30
4,90689
46
5,52356
62
5,95420
15
3,90689
31
4,95420
47
5,55459
63
5,97728
16
4,00000
32
5,0000
48
5,58496
64
6,00000
Например: Какое количество информации можно получить при угадывании числа из интервала от 1 до 11?
В этом примере N=11. По таблице находим значение i (количество информации), соответствующее числу 11: i = 3,45943 бит.
4. Закрепление полученных знаний (вычисление энтропии кристалла)
Формируем команды по два человека. Каждая команда получает свое задание - найти в интернете информацию по заданной теме. По найденной информации каждая команда делает сообщение (2-5 минут).
Команда 1. Рудольф Клаузиус (краткая биография, направления работы)
Команда 2. Людвиг Больцман (краткая биография, направления работы)
Команда 3. Информация в неживой природе
Команда 4. Понятия «энтропия», «термодинамическая вероятность»
Команда 5. Кристалл, кристаллическая решетка
Команда 6. Дефекты внутренней структуры решетки, называемые «вакансия»
После всех выступлений учащимся предлагается следующая задача:
Вычислите энтропию двухмерного кристалла, показанного на рисунке. Вакансия может быть в любом из всех узлов решетки.
Учащиеся предлагают решение:
Энтропия есть функция состояния, описывающая степень неупорядоченности системы. Количественная связь между энтропией и термодинамической вероятностью выражается формулой Больцмана S=k lnW,
где k - постоянная Больцмана,
S - энтропия,
W - термодинамическая вероятность.
В этом кристалле 9*11-1= 98 атомов. Вакансия может быть в любом из 99 узлов решетки, следовательно, термодинамическая вероятность W=99, тогда
S= 1,38*10-23 *·ln99= 1,38*10-23*4,60 = 6,35·10-23 Дж/К.
-
Рефлексия
Давайте подведем итоги урока. Подумайте, что вы узнали нового, что осталось непонятным или неинтересным. Оцените свое настроение. Для этого загрузите Photoshop, создайте новый файл, сделайте градиентную заливку в соответствии со своим настроением и придумайте соответствующий слоган для пояснения вашего настроения.