Формулы Шеннона и Хартли. Расчёт количества информации. Кодирование символьных, графических и звуковых данных. Структуры данных Формула Шеннона

Для решения обратных задач, когда известна неопределенность (H) или полученное в результате ее снятия количество информации (I) и нужно определить какое количество равновероятных альтернатив соответствует возникновению этой неопределенности, используют обратную формулу Хартли, которая выводится в соответствии с определением логарифма и выглядит еще проще...

2015-01-29

140.5 KB

55 чел.


Поделитесь работой в социальных сетях

Если эта работа Вам не подошла внизу страницы есть список похожих работ. Так же Вы можете воспользоваться кнопкой поиск


Лекция 3. Формулы Шеннона и Хартли. Расчёт количества

информации. Кодирование символьных, графических и звуковых данных. Структуры данных

Формула Шеннона

В общем случае, энтропия H и количество получаемой в результате снятия неопределенности информации I зависят не только от исходного количества рассматриваемых вариантов N, но и от вероятностей реализации каждого из вариантов P: {p0, p1, …pN-1},  т. е.:

H = F(N, P)

Расчет энтропии в этом случае производится по формуле Шеннона, предложенной им в 1948 году:

Рассмотрим, что такое логарифм log2(p), называемый двоичным логарифмом:

Нахождение логарифма b по основанию a - это нахождение степени, в которую нужно возвести a, чтобы получить b.

log2(1) = 0   =>  20 = 1

log2(2) = 1   =>  21 = 2

log2(8) = 3   =>  23 = 8

log2(10) = 3,32   =>  23,32 = 10

Логарифм по основанию 10  называется десятичным:

log10(100) = 2 =>  102 = 100

log10(2) = 0,301 =>  100,301 = 2

Отношение двоичного логарифма к десятичному:

log22 / log102 = 1 / 0,301= 3,32

Основные свойства логарифмов:

log(ab) = b*log(a)

log(a*b) = log(a) + log(b)

log(a/b) = log(a) - log(b)

log(1/а) = 0 - log(а) = -log(а)

Отсюда знак минус в формуле Шеннона не означает, что энтропия – отрицательная величина. Объясняется это тем, что вероятность pi =< 1 по определению, а логарифм числа меньшего единицы - величина отрицательная.

По свойству логарифма , и формулу Шеннона также можно записать  и во втором варианте - без минуса перед знаком суммы.

При этом  интерпретируется как частное количество информации, получаемое в случае реализации i-ого случайного варианта.

Итак, следует сделать вывод, что энтропию по формуле Шеннона можно считать средней характеристикой – математическим ожиданием распределения случайной величины {I0, I1,…  IN-1}.

Пример расчета энтропии по формуле Шеннона: если известно, что мужчин и женщин в учреждении одинаково (два равновероятных варианта), тогда неопределенность, кого вы встретите первым, зайдя в учреждение, составит 1 бит. Проверка этого предположения проведена в таблице 1.

Таблица 1

pi

1/pi

Ii=log2(1/pi), бит

pi*log2(1/pi), бит

Ж

1/2

2

log2(2)=1

1/2 * 1=1/2

М

1/2

2

log2(2)=1

1/2 * 1=1/2

1

H = 1 бит

Если же в учреждении состав работников распределяется, как: ¾ - женщины, ¼ - мужчины, тогда неопределенность относительно того, кого вы встретите первым, зайдя в учреждение, будет рассчитана рядом действий, показанных в табл. 2.

Таблица 2

pi

1/pi

Ii=log2(1/pi), бит

pi*log2(1/pi), бит

Ж

3/4

4/3

log2(4/3) = 0,42

3/4 * 0,42 = 0,31

М

1/4

4/1

log2(4) = 2

1/4 * 2 = 0,5

1

H = 0,81 бит

Как видно, энтропия во втором случае, а, следовательно, и количество информации, получаемой при полном снятии неопределённости, несколько меньше, чем в первом случае, так как вероятность встретить женщину преобладает, и ясно, что скорее вы встретите женщину, чем мужчину.

Формула Хартли

Формула Хартли – это частный случай формулы Шеннона для равновероятных вариантов.

Подставив в формулу Шеннона вместо pi его (в равновероятном случае не зависящее от i) значение pi = 1/N, получим:

, таким образом, формула Хартли выглядит очень просто:

Из нее следует, что с увеличением количества вариантов (N), растёт и  неопределенность (H). Эти величины связаны в формуле не линейно, а через двоичный логарифм. Логарифмирование по основанию 2 и приводит количество возможных вариантов к единицам измерения информации – битам.

Как видно, энтропия будет являться целым числом лишь в том случае, когда N является степенью числа 2, т. е. если N принадлежит ряду: 1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024, 2048…

Зависимость энтропии от количества равновероятных вариантов выбора (равнозначных альтернатив)

Для решения обратных задач, когда известна неопределенность (H) или полученное в результате ее снятия количество информации (I) и нужно определить какое количество равновероятных альтернатив соответствует возникновению этой неопределенности, используют обратную формулу Хартли, которая выводится в соответствии с определением логарифма и выглядит еще проще:

Например, если информация о том, что некий Иванов живет на втором этаже, соответствует 3 битам, то по формуле можно определить количество этажей в доме, как:       N = 23 = 8 этажей.

Если же вопрос поставить так: “В доме 8 этажей, то какое количество информации мы получим, узнав, что интересующий нас Иванов живет на втором этаже?”, то расчёт можно произвести по формуле:

I = log2(8) = 3 бита

Количество информации, получаемой  в сообщении

До сих пор формулы приводились для расчета энтропии (неопределенности) H с указанием на то, что H в них можно заменять на I, потому что количество информации, получаемое при полном снятии неопределенности некоторой ситуации, количественно равно начальной энтропии этой ситуации.

Но в общем случае неопределенность может быть снята только частично, поэтому количество информации (I), получаемой из некоторого сообщения, вычисляется как уменьшение энтропии, произошедшее в результате получения данного сообщения.

Для равновероятного случая, используя для расчета информации формулу Хартли, получим:

Как видно, второе равенство выводится на основании свойств логарифма. Таким образом, в равновероятном случае I зависит от того, во сколько раз изменилось количество вариантов выбора (рассматриваемое разнообразие).

Исходя из предыдущей формулы, можно сделать вывод, что при полном снятии неопределенности, когда Nпосле = 1:

количество полученной в сообщении информации равно неопределенности, которая существовала до получения сообщения.

Если же Nпосле = Nдо, то I = log2(1) = 0, то это значит, что, неопределенность не изменилась, и, следовательно, информации получено не было.

Если Nпосле < Nдо, то  Nдо / Nпосле > 1, или I > 0 (какая-то информация получена).

Если Nпосле > Nдо, то  Nдо / Nпосле < 1, или I < 0 (информации нет).

Таким образом, количество полученной информации будет положительной величиной, если в результате получения сообщения количество рассматриваемых альтернатив уменьшилось, и отрицательной,  - если оно увеличилось.

Если, например, количество рассматриваемых вариантов в результате получения сообщения уменьшилось вдвое, т. е. Nдо / Nпосле = 2, то  I = log2(2) = 1 бит.  Другими словами, получение 1 бита информации исключает из рассмотрения половину равнозначных вариантов.

В качестве примера можно рассмотреть опыт с колодой из 36 карт.

Допустим, кто-то выбирает одну карту из колоды. Нас интересует, какую именно из 36 карт он достал. Начальная неопределенность, рассчитываемая по формуле I = log2(Nдо / Nпосле), составляет:

I = log2(36/1) = log10(36) * 3,332 5,17 бит.

Вытянувший карту сообщает нам часть информации. Используя формулу, определим, какое количество информации мы получаем из этих сообщений:

Вариант A. “Это карта красной масти”.

I = log2(36/18) = log2(2) = 1 бит (красных карт в колоде половина, поэтому неопределенность уменьшилась в 2 раза).

Вариант B. “Это карта  пиковой масти”.

I = log2(36/9) = log2(4) = 2 бита (пиковые карты составляют четверть колоды, неопределенность уменьшилась в 4 раза).

Вариант С. “Это одна из старших карт: валет, дама, король или туз”.

I = log2(36/16) = log2(36) – log2(16) = 5,17 – 4 = 1,17 бита (количество информации больше одного бита, т. к. неопределенность уменьшилась больше, чем в два раза).

Вариант D. “Это одна карта из колоды".

I = log2(36/36) = log2(1) = 0 бит (неопределенность не уменьшилась - сообщение не информативно).

Вариант E. “Это  дама  пик". I=log2(36/1)=log2(36)=5,17 бит (неопределенность полностью снята).

Кодирование символьных (текстовых и числовых) данных

С помощью двоичного кода кодируется символьная, т. е. текстовая и числовая информация, для чего используются специальные кодировочные таблицы.

Для латинской раскладки клавиатуры применяется единая кодировочная таблица во всех странах, поэтому текст, набранный с использованием латинской раскладки, будет адекватно отображаться на любом компьютере.

Эта кодировочная носит название ASCII.

Код ASCII - American Standard Code for Information Interchange - (стандартный код информационного обмена США (произносится как "эски"), разработан ANSI - American National Standard Institute).

Он имеет базовую и расширенную таблицы кодирования:

  •  базовая - от 0 до 127;
    •   расширенная - от 128 до 255,

т. е. всего - 256 или 28 значений.

Таким образом, в этой кодировочной таблице использовано восемь бит или 1 байт.

Первые 32 значения (от 0 до 31) отданы для кодирования символов аппаратных средств (компьютеров и принтеров).

Значения от 32 до 127 - коды символов английского алфавита, знаки препинания, цифр, арифметических действий и некоторых вспомогательных символов.

В России расширенная символьная кодировка (от 128 до 255-го значения), включающая коды кириллицы, имеет три действующих стандарта:

- Windows 1251 - стандарт в российском секторе Word Wide Web;

- КОИ-8 (восьмизначный код обмена информацией) - стандарт в сообщениях электронной почты и телеконференций;

- международный стандарт ISO (International Standard Organization - международный институт стандартизации), который на практике используется редко.

Однако, используя 8-битную кодировочную таблицу невозможно адекватно увидеть на мониторе документы, созданные на тех языках, где используются символы, отличающиеся от латинских и кирилличных, например, умляуты в немецком языке или иероглифы.

Универсальная система кодирования текстовых данных основана не на 8-, а на 16-разрядном (или 2-х байтном) кодировании называется Юникод (UNICODE). На основании такой таблицы может быть закодировано N=216=65 536 символов.

Она позволяет кодировать не только русский и латинский алфавиты, но практически все современные письменности, в том числе: китайскую, корейскую, японскую, арабскую, иврит, армянскую, бенгальскую  и т. п.).

Однако при этом все текстовые документы автоматически имеют вдвое больший объем.

Поэтому сейчас на практике больше распространено представление Юникода UTF-8 (Unicode Transformation Format). 

Кодировка в UTF-8 обеспечивает наилучшую совместимость с системами, использующими 8-битные символы.

Текст, состоящий только из символов с номером меньше 128-го при записи в UTF-8 превращается в обычную кодировку ASCII или Windows 1251.

Русифицированная часть стандарта Windows 1251 представлена в следующей таблице:


О120

О121

О122

О123

О124

О125

О126

О127

О128

О129

Ђ

Ѓ

О130

О131

О132

О133

О134

О135

О136

О137

О138

О139

ѓ

Љ

О140

О141

О142

О143

О144

О145

О146

О147

О148

О149

Њ

Ќ

Ћ

Џ

ђ

О150

О151

О152

О153

О154

О155

О156

О157

О158

О159

˜

љ

њ

ќ

ћ

џ

О160

О161

О162

О163

О164

О165

О166

О167

О168

О169

Ў

ў

Ј

¤

Ґ

¦

§

Ё

©

О170

О171

О172

О173

О174

О175

О176

О177

О178

О179

Є

«

¬



®

Ї

°

±

І

і

О180

О181

О182

О183

О184

О185

О186

О187

О188

О189

ґ

µ

·

ё

є

»

ј

Ѕ

О190

О191

О192

О193

О194

О195

О196

О197

О198

О199

ѕ

ї

А

Б

В

Г

Д

Е

Ж

З

О200

О201

О202

О203

О204

О205

О206

О207

О208

О209

Р

Й

К

Л

М

Н

О

П

Р

С

О210

О211

О212

О213

О214

О215

О216

О217

О218

О219

Т

У

Ф

Х

Ц

Ч

Ш

Щ

Ъ

Ы

О220

О221

О222

О223

О224

О225

О226

О227

О228

О229

Ь

Э

Ю

Я

а

б

в

г

д

е

О230

О231

О232

О233

О234

О235

О236

О237

О238

О239

ж

з

и

й

к

л

м

н

о

п

О240

О241

О242

О243

О244

О245

О246

О247

О248

О249

р

с

т

у

ф

х

ц

ч

ш

щ

О250

О251

О252

О253

О254

О255

О256

О257

О258

О259

ъ

ы

ь

э

ю

я


Кодирование графических данных

Графическая информация, как и информация любого типа, хранятся в памяти компьютера в виде двоичных кодов.

Изображение, состоящее из отдельных точек, каждая из которых имеет свой цвет, называется растровым изображением. Минимальный элемент такого изображения при отображении на мониторе называется пиксель (pix).

Все объекты окружающего мира можно разделить на: излучающие (источники света: солнце, лампа, монитор) и отражающие излучение (бумага и т. п.).

В зависимости от того, является объект излучающим или отражающим свет, для описания его цвета в виде числового кода используются две обратные друг другу цветовые модели: RGB или CMYK.

Для кодирования яркости как чёрно-белого, так и цветного изображения используются 8 двоичных разрядов, т. е. 256 полутонов.

Модель RGB используется в источниках света: телевизорах, мониторах. Основные цвета в этой модели: красный (Red), зеленый (Green), синий (Blue). Цвета в этой модели добавляются к черному (blacK) цвету, поэтому она называется аддитивной (суммирующей). Сумма всех трех основных цветов в равных долях дает белый (White) цвет: R+G+B=W.

Цвета кодируются  24 двоичными разрядами, при этом каждый из трёх цветов имеет по восемь разрядов, т. е. по 256 градаций. Модель RGB обеспечивает определение 16,5 млн. различных цветовых оттенков, что близко к чувствительности человеческого глаза. Такой режим называется полноцветным (True Colour).

Парное сочетание в равных долях основных цветов RGB дает дополнительные цвета:  голубой (Cyan), пурпурный (Magenta) и желтый (Yellow), т. е.:

G+B=C (голубой); B+R=M (пурпурный);   R+G=Y (желтый).

Излучающий объект (RGB)    Отражающий объект (CMYK)

Использующая дополнительные цвета модель CMYK применяется в полиграфии при формировании изображений, предназначенных для печати на бумаге. Основными цветами в ней являются дополнительные цвета модели RGB. Они получаются вычитанием цветов RGB из белого цвета, поэтому модель называется субтрактивной (вычитающей):

W-R=C (голубой);   W-G=M (пурпурный);   W-B=Y (желтый).

В свою очередь парное сочетание в равных долях цветов модели CMY дает цвета модели RGB, т. е. M+Y=R (красный);  Y+C=G (зелёный);  C+M=B (синий), а сложение всех дополнительных цветов: C+M+Y=K (чёрный).

Теоретически сумма цветов C+M+Y дает черный (blacK) цвет, т. е. C+M+Y=K, но реально получить абсолютно черный цвет очень трудно. Поэтому в модели CMYK к триаде CMY добавляют черный цвет K. Для обозначения черного цвета от слова blacK взята последняя буква, т. к. буква B уже используется в модели RGB для обозначения синего цвета.

Для представления графики в модели CMYK нужно иметь 32 бинарных разряда (по 8 bit на каждый цвет). Этот режим также, как и в модели RGB, называется полноцветным (True Colour), однако при этом цветовая гамма, воспроизводимая при печати на бумаге меньше представляемой на мониторе в модели RGB.

Иногда для кодирования цвета каждой точки число двоичных разрядов ограничивают 8-ю разрядами вместо 24 разрядов, чтобы сократить объем данных, например, при черчении,  когда не требуется передачи цветовых полутонов. Кодирование цветной графики 16 разрядами (8 разрядов – цвета и 8 разрядов – яркость или полутона чёрного) называется режимом High Colour.

Кодирование звуковых данных

Звуковые волны при помощи микрофона превращаются в аналоговый переменный электрический сигнал. Он проходит через звуковой тракт и попадает в аналого-цифровой преобразователь (АЦП) - устройство, которое переводит сигнал в цифровую форму (двоичный код).

Звуковая информация в двоичном коде представляется с помощью различных корпоративных стандартов (форматов).

Формат WAV использует дискретизацию 22 кГц и 8-разрядную запись. Разрядность показывает, с какой точностью происходят изменения амплитуды аналогового сигнала. При этом на каждую секунду записи требуется около 22 Кбайт или 176 Кбит. И это лишь удовлетворительное качество для записи голоса, шумов, немузыкальных звуковых эффектов.

В современных преобразователях принято использовать 20-битное кодирование амплитуды сигналов, что позволяет получать качественную оцифровку звука.

Формат Audio DVD использует разрядность 24 бита и частоту дискретизации (семплирования) 96 кГц. В этом случае для несжатой записи требуется уже звуковой поток более 10 Мбайт/мин.

Поэтому для сокращения объема звуковых файлов применяется их сжатие, основанное на вырезании части, звукового диапазона, не влияющего на слуховое восприятие. В настоящее время наиболее употребляемыми форматами такого сжатия являются MP3, MP4 и Windows Media Audio (WMA-файлы). При таком сжатии достаточно высокое качество звучания достигается при 1 Мбайт/мин.

Форматы MP3 и MP4 наиболее универсальны, но формат WMA (частный стандарт компании Microsoft), обеспечивая удовлетворительное качество, широко применяется в операционных системах Windows по умолчанию, т. к. входит в комплект Windows и не требует установки дополнительной программы (внешнего кодека).

Структуры данных

Для автоматизации работы с данными их объединяют в структуры. Существует три основных типа структур:

  •  линейная (или список), в которой адрес элемента задается его уникальным номером, в частности, номером строки. Т. е., уже в линейной структуре данных, в результате ее упорядочивания, возникают адресные данные – номер строки;
  •  табличная (матрица) — элемент определяется адресом ячейки - номером каждого измерения (многомерные матрицы могут иметь более 2-х измерений);
  •  иерархическая - адрес каждого элемента определяется путем доступа (маршрутом), ведущим от вершины структуры к данному объекту.

Достоинства и недостатки структур

Линейная и табличная - это простые структуры. Недостаток структур - при изменении количества элементов происходит изменение адресов остальных элементов.

Иерархическая структура легко развивается путем создания новых уровней. Проблем с обновлением адресов нет, т. к. каждый элемент имеет уникальный адрес, не зависящий от остальных элементов. (Примеры: оглавление в книге, почтовый адрес). Недостаток структуры - относительная трудоемкость записи адреса. Примеры: оглавление в книге, почтовый адрес.

Важная характеристика структур: каждый элемент данных в них приобретает новое свойство – адрес. Адрес элемента – это тоже данные, которые хранятся, преобразуются и т. п.

Файловая структура

Восемь двоичных разрядов (28) составляют 1 байт (1 B), что является наименьшей единицей измерения данных.

Целесообразно использовать для кодирования 16 двоичных разрядов (2 байта), это – слово. Часто используются величины: 32 разряда - удвоенное слово, 64 разряда - учетверенное слово.

Килобайт - 1000 байтов (точнее - 1024 байта, т. к.  1 KB = 210 B), о погрешности 3% "забывают". Для сведения: одна страница неформатированного машинописного текста составляет около 2 KB.

1 МВ (мегабайт) =1024 KB =  220 В

1 GB (гигабайт) = 1024 MB = 230 В

1 ТВ (терабайт) = 1024 GB =  240 В

1 PВ (петабайт) = 1024 TB  =  250 В

Файл - это последовательность произвольного числа байтов, обладающая конкретным (полным) именем.

Полное имя файла включает 3-х части:

  •  путь доступа к файлу;
  •  собственное имя;
  •  расширение, определяющим формат файла.

 Полное имя файла является уникальным, т. е. на одном компьютере не может быть не может быть 2-х файлов с одинаковыми полными именами.

Регистр символов в полном имени значения не имеет.

В интернете также не может быть 2-х файлов с одинаковыми полными именами, при этом полное имя входит уникальный адрес компьютера. Для интернета регистр символов в полном имени файла может иметь значение

ИТОГИ

  1.  Данные различаются типами в соответствии с физической природой сигналов (аналоговые и дискретные).
  2.  С целью унификации приемов и методов работы с данными в вычислительной технике применяется универсальная система кодирования  данных - двоичный код, элементарной единицей которого является 1 бит. 
  3.  Наименьшей единицей измерения данных является 8-ми разрядное двоичное число - 1 байт.
  4.  Основной единицей хранения данных является файл. Полное имя файла, включающее собственное имя файла, путь доступа к нему и расширение файла, является уникальным.
  5.  Для удобства работы с данными их структурируют (структуры: линейная, табличная и иерархическая различаются методом адресации). При сохранении данных в структуре возникают данные нового типа - адресные.

PAGE  11



 

Другие похожие работы, которые могут вас заинтересовать.
8335. Аналоговая и дискретная информация. Носители данных. Операции с данными. Кодирование данных. Системы счисления. Энтропия и количество информации 227.54 KB
  Системы счисления. Системы счисления Кодирование данных используется издавна: код Морзе Брайля морской сигнальный алфавит и т. В истории человечества для кодировании чисел наиболее известны две системы счисления: непозиционная и позиционная. Как та так и другая системы счисления характеризуются основанием – количеством различных цифр используемых для записи чисел например от 0 до 9 т.
2172. Динамические структуры данных 23.57 KB
  Дек – очередь с двумя концами double ended queue Самим записать операции для дека Реализация очереди на основе массива. ОЧЕРЕДЬ на основе массива queue3f.h интерфейсный файл include iostrem include fstrem using nmespce std; const int NN=100; typedef int tip; struct queue { int beg; int size; tip x[NN]; }; void clrququeue q; void insququeue q tip ; void remqu queue q; tip topqu queue q; bool emptyqu queue q; bool overqu queue q; void wrfquofstrem foutqueue q; queue3fR.cpp ...
1596. СТРУКТУРЫ И МОДЕЛИ ДАННЫХ 43.58 KB
  Временные характеристики фиксируют время исследования объекта и важны для оценки изменений свойств объекта с течением времени. Основное требование к таким данным – актуальность, что означает возможность их использования для обработки, неактуальные данные – это устаревшие данные.
18464. Разработка структуры базы данных информационной системы 971.23 KB
  Требуется разработать приложение и базу данных для компьютерной фирмы занимающейся продажей вычислительной техники комплектующих для неё и периферии. Формы первичных учетных документов определяются и устанавливаются организацией в составе применяемой ею системы учетной документации для регистрации хозяйственных операций. Первые быстродействующие компьютеры использовались предпринимателями в основном для автоматизации процессов которые раньше выполнялись вручную большим числом сотрудников невысокой квалификации; типичный пример - обработка...
20323. Разработка структуры базы данных информационной системы 971.23 KB
  Требуется разработать приложение и базу данных для компьютерной фирмы занимающейся продажей вычислительной техники комплектующих для неё и периферии. Формы первичных учетных документов определяются и устанавливаются организацией в составе применяемой ею системы учетной документации для регистрации хозяйственных операций. Первые быстродействующие компьютеры использовались предпринимателями в основном для автоматизации процессов которые раньше выполнялись вручную большим числом сотрудников невысокой квалификации; типичный пример - обработка...
13542. Базы данных геологической информации 20.73 KB
  В последнее время широкими темпами происходит внедрение компьютерных технологий и, в частности баз данных, в научную сферу. Этот процесс не обходит стороной и геологию, так как именно в естественных науках имеется необходимость для хранения и обработки больших объемов информации.
7176. ОРГАНИЗАЦИЯ БАЗ ДАННЫХ И СИСТЕМЫ УПРАВЛЕНИЯ БАЗАМИ ДАННЫХ 116.07 KB
  Например в качестве информационной системы можно рассматривать расписание движения поездов или книгу регистрации данных о заказах. Атрибут записанный на каком-либо носителе информации называют элементом данных полем данных или просто полем. При обработке данных часто встречаются однотипные объекты с одинаковыми свойствами.
21499. Процесс составления баз данных аэрологической информации, принцип работы программного обеспечения и перефирийного оборудования 7.28 MB
  Данные в БД логически структурированы (систематизированы) с целью обеспечения возможности их эффективного поиска и обработки в вычислительной системе. Структурированность подразумевает явное выделение составных частей (элементов), связей между ними, а также типизацию элементов и связей, при которой с типом элемента (связи) соотносится определённая семантика и допустимые операции.
3541. Кодирование информации 13.99 KB
  Конспект урока Класс: Тема: Кодирование информации. Практическая работа №8 Тип урока: Практическая работа Цель: Познакомить учащихся с многообразием окружающих человека кодов ролью кодирования информации в жизни человека. Работа по формированию понятий код длина кода кодирование и перекодирование информации. Работа по формированию навыков использования кодировки и перекодировки информации.
11459. Анализ, алгоритм и программы кодирование информации по методу «Волшебные квадраты» 70.75 KB
  Криптографический метод Магических квадратов иногда называется Волшебних квадратов. По этому чтобы не была путаница использовано слова Магических квадратов. В работе анализировано волшебные квадраты и создано программа составление волшебных квадратов нечетного порядка по методу Лубера...
© "REFLEADER" http://refleader.ru/
Все права на сайт и размещенные работы
защищены законом об авторском праве.