Кодирование — это представление информации в виде символов или сигналов, понятных машине или человеку.
Или проще:
Кодирование — это когда мы преобразуем данные из одной формы в другую, чтобы хранить, передавать или обрабатывать.
🔠 Примеры кодирования:
Исходная информация | Кодировка |
---|---|
Число 10 | В двоичной системе: 1010 |
Буква А | В ASCII: 65 → 01000001 |
Цвет красный | В RGB: #FF0000 |
Буква Ж в Юникоде | U+0416 → 100000010110 |
🧮 Алфавит и мощность алфавита
🔤 Алфавит
— это набор символов, используемых для кодирования.
Например:
- Двоичный алфавит: {0, 1} → мощность 2
- Десятичный: {0, 1, …, 9} → мощность 10
- Алфавит английского языка: {A, B, …, Z} → мощность 26
📏 Как измеряется информация?
📌 Формула Хартли (для равновероятных событий):
I=log2NI = \log_2 NI=log2N
I
— информация (в битах)N
— количество возможных событий
Пример:
Сколько бит нужно, чтобы закодировать 8 разных сигналов? I=log28=3 битаI = \log_2 8 = 3 \text{ бита}I=log28=3 бита
📐 Единицы измерения информации
Название | Обозначение | Сколько битов? |
---|---|---|
Бит | bit | 1 |
Байт | B | 8 битов |
Килобайт | KB | 1024 байта |
Мегабайт | MB | 1024 КБ |
Гигабайт | GB | 1024 МБ |
Терабайт | TB | 1024 ГБ |
⚠️ В информатике всегда 1024, а не 1000! Потому что 1024 = 2¹⁰.
🎯 Формула для определения объёма информации:
I=K⋅iI = K \cdot iI=K⋅i
I
— общий объём информации (бит)K
— количество символовi
— количество бит на 1 символ
Пример:
Если символ кодируется 8 битами, сколько весит сообщение из 100 символов? I=100⋅8=800 бит=100 байтI = 100 \cdot 8 = 800 \text{ бит} = 100 \text{ байт}I=100⋅8=800 бит=100 байт