- Учителю
- Справка по теме 'Кодирование и декодирование информации'
Справка по теме 'Кодирование и декодирование информации'
Кодирование и декодирование информации
-
кодирование - это перевод информации с одного языка на другой (запись в другой системе символов, в другом алфавите);
-
обычно кодированием называют перевод информации с «человеческого» языка на формальный, например, в двоичный код, а декодированием - обратный переход;
-
кодирование может быть равномерное и неравномерное;
при равномерном кодировании все символы кодируются кодами равной длины; при неравномерном кодировании разные символы могут кодироваться кодами разной длины, это затрудняет декодирование -
закодированное сообщение можно однозначно декодировать с начала, если выполняется условие Фано: никакое кодовое слово не является началом другого кодового слова;
-
закодированное сообщение можно однозначно декодировать с конца, если выполняется обратное условие Фано: никакое кодовое слово не является окончанием другого кодового слова;
-
условие Фано - это достаточное, но не необходимое условие однозначного декодирования.
Кодирование звука
-
частота дискретизации определяет количество отсчетов, запоминаемых за 1 сек.; 1 Гц (один герц) - это один отсчет в секунду, а 8 кГц - это 8000 отсчетов в секунду;
-
глубина кодирования - это количество бит, которые выделяются на один отсчет; глубину кодирования можно найти, зная кол-во уровней дискретизации: например: используется 32 = 25 уровня дискретизации значения сигнала, поэтому на один отсчет приходится 5 бит;
-
для хранения информации о звуке, передаваемой по k-каналам, длительностью секунд, закодированном с частотой дискретизации Гц и глубиной кодирования бит требуется бит памяти: .
-
объём файла передаваемого по каналу связи , где: V - пропускная способность (скорость) канала (в битах в секунду или подобных единицах), t - время передачи.
Вычисление информационного объёма сообщения
-
с помощью K бит можно закодировать различных вариантов (чисел);
-
таблица степеней двойки показывает, сколько вариантов Q можно закодировать с помощью K бит:
K, бит
1
2
3
4
5
6
7
8
9
10
Q, вариантов
2
4
8
16
32
64
128
256
512
1024
-
чтобы найти информационный объем сообщения (текста) I, нужно умножить кол-во символов K на вес одного символа i (бит): ; , где M мощность алфавита (количество символов в этом алфавите);
-
если алфавит имеет мощность M, то количество всех возможных «слов» (символьных цепочек) длиной N (без учета смысла) равно ; для двоичного кодирования (мощность алфавита M = 2 символа) получаем известную формулу Хартли: .