- Учителю
- Урок информатики для 10 класса'Кодирование и обработка текстовой информации'
Урок информатики для 10 класса'Кодирование и обработка текстовой информации'
Урок по теме "Кодирование текстовой информации"
Класс: 10
Учебник : Н.Д.Угринович, 10 класс. Информатика и ИКТ. БИНОМ. 2010
Цель урока:
- помочь учащимся усвоить понятие информации и способы кодирования информации в компьютере; - познакомить учащихся со способами кодирования и декодирования текстовой информации с помощью кодовых таблиц;
- воспитание информационной культуры учащихся, внимательности, аккуратности, дисциплинированности, усидчивости.
- развитие мышления, познавательных интересов, навыков работы с мышью и клавиатурой, самоконтроля, умения конспектировать.
Оборудование:
- рабочее место ученика, ПК;
- интерактивная доска, мультимедийный проектор;
- интерактивная презентация;
- таблица самооценки знаний, умений
Задачи урока:
- формировать знания учащихся по теме "Кодирование и обработка текстовой информации";
- содействовать формированию у школьников образного мышления;
- развить навыки анализа и самоанализа;
- формировать умения планировать свою деятельность.
План урока:
Организационный момент (1 мин);
Проверка знаний, домашнего задания (7-8 мин);
Изучение нового материала (теоретическая часть) - (13 мин)
Закрепление изученного (практическая работа) - (15 мин);
Домашнее задание. (2 мин);
Подведение итогов (2 мин);
Ход урока
1. Организационный момент:
Приветствие, проверка присутствующих. Слайд 2. (Презентация)
2. Проверка знаний, домашнего задания
Слайд 3
- На прошлом уроке мы с вами повторили понятие информации, о роли информации в живой и неживой природе. Я предлагаю всем проверить свои знания с помощь теста. (Учащиеся проверяют знания, усвоение ключевых понятий предыдущей темы с помощью программы MyTest. Результаты тестирования сообщают учителю и записывают в таблицу самоконтроля) (Тест)
Тест
3. Изучение нового материала
Тема урока «Кодирование и обработка текстовой информации»
- Сегодня на уроке вы узнаете, как представляется текстовая информация в компьютере. Научитесь кодировать и декодировать текстовую информацию с помощью кодовых таблиц и ПК. Но для начала мы должны вспомнить, что же такое «кодирование»?
-Какой принцип кодирования информации используют в компьютере?
С развитием человечества появилась потребность обмениваться информацией. Но человеческий мозг не способен сохранять всю имеющуюся информацию. Так появилось гениальное изобретение - письменность. Возник набор условных обозначений для представления звуков, названный алфавитом. Алфавит мы сейчас рассматриваем как конечную совокупность символов, использующих для создания сообщений. Алфавит есть код человеческого языка. С созданием автоматических устройств возникла потребность создания таких языков, которые не имели бы множества толкований, т.е необходимо было формализовать человеческий язык. Огромное количество способов кодирования информации неизбежно привело пытливый человеческий ум к попыткам создать универсальный язык или азбуку для кодирования
Уже с 60-х годов прошлого столетия, компьютеры всё больше стали использовать для обработки текстовой информации. Для кодирования текстовой информации в компьютере применяется двоичное кодирование, т.е. представление текста в виде последовательности 0 и 1 (Эти два символа называются двоичными цифрами, по-английски - binary digit или сокращённо bit).
Почему же двоичное кодирование используется в вычислительной технике?
Оказывается такой способ легко реализовать технически: 1 - есть сигнал, 0 - нет сигнала. Каждому символу алфавита сопоставили определённое количество и последовательность нулей и единиц.
Сколько же бит необходимо для кодирования символов?
Ограничений на количество символов не существует. Однако есть количество, которое можно назвать достаточным.
Посчитаем примерное достаточное количество символов для внутреннего алфавита компьютера и по формуле вычислим необходимое количество бит.
33 русских прописных буквы + 33 русских строчных букв + 26 английских строчных букв + 26 прописных английских букв + 10 цифр + знаки препинания + скобки и знаки математических операций + специальные символы (@, #, $, %, &, *) + знаки псевдографики ≈ 256 символов. Вспомним формулу определения количества информации в двоичной знаковой системе (Тема предыдущего урока).
N = 2I
256 = 28
Для количества такого количества символов достаточно 8 бит лил 1 байт. Итак, с помощью 1 байта можно закодировать 256 различных символов.
Кодирование заключается в том, что каждому символу ставится в соответствие уникальный десятичный код от 0 до 255 или соответствующий ему двоичный код от 00000000 до 11111111. Т.О. человек различает символы по их начертанию, компьютер по их коду. При вводе в компьютер текстовой информации происходит двоичное кодирование, изображение символа преобразуется в двоичный код. Код символа хранится в одной ячейке оперативной памяти.
Любой код - это своего рода соглашение между людьми, которые договариваются , что таким-то образом они будут обозначать то-то и то-то. Данное соглашение фиксируется в кодовой таблице. В качестве международного стандарта принята кодовая таблица ASCII (American Standard Code for Information Interchange).
Первые 33 кода (с 0 по 33) этой таблице соответствует не символам, а операциям (ввод пробела, перевод строки и т.д.)
Коды с 33 по 127 являются интернациональными и соответствуют символам латинского алфавита, цифрам, знакам арифметических операций и знакам препинания.
Коды с 128 по 255 являются национальными, т.е. в разных национальных кодировках одному и тому же коду соответствуют различные символы. Существует 5 кодировочных таблиц для русских букв (Windows, MS-DOS, Mac, ISO, КОИ - 8). Поэтому тексты созданные в одной кодировке не будут правильно отображаться в другой