Информатика
Литература
Информатика и информация. Системы счисления, меры количества и объёма информации, кодирование
Обобщённая формулировка Информатика
Информатика как
Определение информатики как науки.
Фундаментальная информатика
Теоретическая информатика
Прикладная информатика
Информатика как отрасль народного Хозяйства
Термин «информатика»
Термин информация
Система передачи информации
Система передачи информации
Классификация информации (по видам)
Система счисления
Позиционная система счисления
Представление чисел в позиционной системе
К позиционным системам относятся:
Современные арабские цифры
Непозиционные системы счисления
Представление чисел в позиционной системе
Восьмеричная и шестнадцатеричная
Перевод в системах счисления. Общее правило.
Меры и единицы количества и объёма информации
Бит
Байт
Количество информации
Энтропия – количество информации по Шеннону
Объём информации
Тезаурус
Зависимость количества смысловой (семантической) информации от тезауруса получателя
Коэффициент содержательности
Кодирование информации
Кодирование числовой информации
Формы предоставления чисел
Естественная форма
Нормальная форма с плавающей точкой (запятой)
Кодирование текстовой информации
Таблицы кодировок текста
Кодирование графической информации
Режимы кодировки цветов
CMYK
Типы графических изображений
Кодирование звуковой информации
480.50K
Категория: ИнформатикаИнформатика

Информатика и информация. Системы счисления, меры количества и объёма информации, кодирование

1. Информатика

Преподаватель:
Бычков Игорь Николаевич
Электронная почта: [email protected]ua.ru
Мобильный Тел.: 8-903-184-93-72

2. Литература

Основная:
• Под ред. Байкова А.Ю. Информатика в МФЮА. Базовый курс.,
МФЮА, М: - 2006г. – 148 с.
• Под ред. Байкова А.Ю. ПРАКТИКУМ ПО ИНФОРМАТИКЕ, МФЮА,
М: - 2006г. – 106 с.
Алексеев А. П. Информатика 2015. Учебное пособие. Обзоры по
программным продуктам и аппаратным средствам. Толкование терминов.
Методы сжатия информации. Помехоустойчивое кодирование. Защита
информации. М.: Из-во Солон-пресс, 2015. – 400 с. - ISBN 978-5-91359-1586
Информатика: экспресс-подготовка к Интернет-тестированию: учеб.
Пособие/ В.М. Титов, О.Н. Рубальская, О.В. Маленкова и др.; под ред. О.Н.
Рубальской – М.: Финансы и статистика; ИНФРА-М, 2010. – 240 с
Коноплева И.А., Денисов А.В., Хохлова О.А.: Информационные
технологии. Учебное пособие. М.: Изд-во Проспект, 2015. – 328 с. ISBN:
978-5-392-01410-1

3.

• Метелица Н.Т. Основы информатики [Электронный
ресурс]: учебное пособие/ Метелица Н.Т., Орлова
Е.В.— Электрон. текстовые данные.— Краснодар:
Южный институт менеджмента, 2012.— 113 c.—
Режим доступа: http://www.iprbookshop.ru/9751.—
ЭБС «IPRbooks», по паролю
• Исакова А.И. Информационные технологии
[Электронный ресурс]: учебное пособие/ Исакова
А.И., Исаков М.Н.— Электрон. текстовые данные.—
Томск: Томский государственный университет
систем управления и радиоэлектроники, Эль
Контент, 2012.— 174 c.— Режим доступа:
http://www.iprbookshop.ru/13938.— ЭБС «IPRbooks»,
по паролю

4.


Дополнительная:
Алексеев А.П.: Сборник лабораторных работ по
дисциплине "Информатика". Часть 1. М.: Издательство:
Солон-пресс, 2016. – 262 с. - ISBN: 978-5-91359-193-7
Каймин В. А. Информатика: учебник / Каймин В. А;. - М.:
Изд-во Москва: Проспект, 2011. - 270, [2] с.: ил. - ISBN
978-5-392-02121-5
Капралов Е., Кошкарев А., Тикунов В., Лурье И., Семин
В., Серапинас Б., Сидоренко В. , Симонов А.
Геоинформатика. В 2 книгах. — Москва: Academia,
2010. — ISBN 978-5-7695-6820-6, ISBN 978-5-7695-6821-3
Кудинов Ю. И. Основы современной информатики:
учебное пособие для вузов / Кудинов Ю. И., Пащенко Ф.
Ф.; . - Санкт-Петербург [и др.]: Лань, 2009. - 255 с.: ил. ISBN 978-5-8114-0918-1 Гриф: УМО

5.

Перечень ресурсов информационнотелекоммуникационной сети «Интернет»,
необходимых для освоения дисциплины:
• Виды операционных систем [электронный ресурс].
– Режим доступа:
http://nashol.com/201011076179/vidi-operacionnihsistem.html
• Информатика: аппаратные средства персонального
компьютера. Электронная библиотека читать
онлайн произведения [электронный ресурс]. –
Режим доступа: http://fb2gratis.com/read/30826/18
• Компьютерные сети [электронный ресурс]. – Режим
доступа:
http://www.lanberry.ru/lan/kompjyuternie_seti

6.

• Основные понятия вычислительной техники.
Студопедия. [электронный ресурс]. – Режим доступа:
http://studopedia.su/10_90436_osnovnie-ponyatiyavichislitelnoy-tehniki.html
• Основы информатики: Учебник для вузов [электронный
ресурс]. – Режим доступа: http://wmhelp.net/lib/b/book/120467185/
• Программные и аппаратные средства информатики
Викиверситет [электронный ресурс]. – Режим доступа:
https://ru.wikiversity.org/wiki/
• Структурная организация и аппаратные средства
персонального компьютера nnre.ru библиотека
[электронный ресурс]. – Режим доступа:
http://www.nnre.ru/kompyutery_i_internet/informatika_a
pparatnye_sredstva_personalnogo_kompyutera/p6.php

7. Информатика и информация. Системы счисления, меры количества и объёма информации, кодирование

8. Обобщённая формулировка Информатика

Информатика
Обобщённая формулировка
Информатика
Информатика – это научно-техническая
и практическая человеческая деятельность,
связанная с процессами накопления,
обработки и передачи информации с
помощью компьютерной вычислительной
техники и телекоммуникационной связи.

9. Информатика как

• Фундаментальная наука;
• Теоретическую наука;
• Прикладная, как отрасль народного
хозяйства.

10. Определение информатики как науки.

Информатика изучает структуру и общие
свойства всех видов информации и форм
представления, процессы и методы её сбора,
хранения,
поиска,
переработки,
преобразования,
использования,
распространения и защиты в различных
сферах
научной,
производственной,
гуманитарной
и
общечеловеческой
деятельности
при
помощи
автоматизированных
средств
приема,
обработки, передачи и уничтожения.

11. Фундаментальная информатика

Занимается разработкой методологии получения
обобщённых знаний о любых закономерностях
информационных систем и содержит следующие
направления:
o Теория информации;
o Информационное моделирование;
o Методы измерения информации;
o Алгебра логики;
o Теория алгоритмов и структуры данных;
o Теория баз данных;
o Искусственный интеллект и интеллектуальные системы;
o Теория автоматов и др.

12. Теоретическая информатика

Дискретная математика;
Системный анализ;
Вычислительная математика.

13. Прикладная информатика

Основные направления прикладной
информатики:
Вычислительные и информационные
технологии;
Техническое и программное обеспечение;
Поиск и восстановление информации;
Робототехника;
Компьютерная графика и визуализация;
Взаимодействие человека и компьютера и др.

14. Информатика как отрасль народного Хозяйства

Это непосредственное промышленное
производство
всех
комплектующих
вычислительной техники и средств защиты, а
также интеллектуальная деятельность по
созданию программных продуктов.

15. Термин «информатика»

Об информатике как науке заговорили в 40-х
годах прошлого века, а отдельной наукой она
стала в 70-ых годах.
Термин «информатика» как комбинация
слов «информатизация» и «автоматика»
закрепился, благодаря французским ученым,
которые в те годы были активистами в развитии
информационных технологий и техники.

16.

• В США эту науку называют computer Science, в
Великобритании – Computing Science, акцентируя на
научно-технической сущности этой науки.
• В СССР новая наука под термином информатика была
официально утверждена и зарегистрирована в 1983
году Академии Наук СССР с трактовкой как
«комплексная научная и инженерная дисциплина,
изучающая все аспекты разработки, проектирования,
создания, оценки, функционирования основанных на
ЭВМ систем переработки информации, их применения
и воздействия на различные области социальной
практики».

17. Термин информация

Информация
Термин информация
• Термин информация возник от латинского
information – разъяснение, изложение.
• ГОСТ Р 50922-2006 «Защита информации.
Основные термины и определения»
определяет следующее толкование:
информация – Сведения (сообщения,
данные) независимо от формы их
представления.

18. Система передачи информации

• В информатике среда естественная или искусственная, содержащая
информацию, называется информационной средой. Объект среды
(клетка, человек, механизм и т.д.), хранящий или передающий
информацию называется в общем случае источником, генератором
или передатчиком.
• Объект, принимающий информацию (клетка, человек, автомат и т.д.) в
общем случае называется получателем информации, потребителем
или адресатом.
• Если для принятия информации, например, звуковой, требуется
техническое средство, например, слуховой аппарат, такое устройство
называется приёмником.
• Информация идет по определенным, соответствующим, каналам
связи, сам процесс между источником (передатчиком) и приёмником
(получателем) называется информационным взаимодействием, а всё
это в совокупности называется системой передачи информации.

19. Система передачи информации

20. Классификация информации (по видам)

Варианты
1
2
3
4
5
6
7
8
9
10
Виды информации
цифровая
динамическая
Ограниченного пользования
внутренняя
выходная
Внешняя
Графическая
Звуковая или акустическая
Письменная или
символьная
аналоговая
Статическая
Открытая
входная
текстовая
Зрительная
или
визуальная
Биологическ
ая
Переменная
Плановая
Первичная
Вторичная
Социальная
Постоянная
Учетная
Оперативная
Промежуточная результативная

21. Система счисления

Это - определенный метод и способ
записи чисел с помощью набора цифр или
символов, обозначающих количественное
значение.
Системы счисления бывают позиционные
и непозиционные.

22. Позиционная система счисления

В такой системе одна и та же цифра может иметь
различные значения в зависимости от места
расположения.
Позиционная система основывается на том, что
некоторое число q единиц первого разряда
объединяется в одну единицу второго
разряда, q единиц второго разряда в одну
единицу третьего разряда и т.д.
Число q называется основанием системы.

23. Представление чисел в позиционной системе

Любое число в позиционной системе
может быть представлено следующим
образом:
an*pn+an-1*pn-1+…+a1*p1+a0*p0
Например, в десятичной системе (т.е.
основание 10) запись числа 13 будет
вычисляться так:
1*101+3*100=1310

24. К позиционным системам относятся:


Двоичная;
Восьмеричная;
Десятеричная;
Шестнадцатеричная.

25. Современные арабские цифры

Используются в позиционных системах.
Современные арабские цифры пришли в
Европу в 13 веке из Индии и получили широкое
распространение во всём мире со второй
половины 15 века.

26. Непозиционные системы счисления

В непозиционной системе количественное
значение символа определяется только его
изображением и не зависит от его позиции в
числе.

27.

Пример – Римские цифры
Европа перешла на них с 4-го века.
Главные часы России, кремлёвские куранты,
оснащены именно римскими цифрами.
Семь чисел обозначаются буквами:
1 – I, 5 – V, 10 – X, 50 – L, 100 – C, 500 – D и
1000 – M
Например, 2016 год римскими цифрами
будет выражен так: MMXVI год.

28. Представление чисел в позиционной системе

Суть преобразования цифр в число в любой
позиционной системе счисления заключается в
соглашении о разрядах. Разряды нумеруются справа на
лево, начиная с 0. Цифра, стоящая в k-ом разряде,
означает количество единиц этого разряда.
Например, в десятичной позиционной системе
счисления из 3-х целых натуральных цифр 1, 2, 3 можно
получить несколько числе – 123, 132, 213, 231, 312 и 321,
поменяв позицию каждой цифры.
В согласии с разрядом каждая цифра в этих числах
может выражать единицы, десятки и сотни.

29.

В вычислительной технике, для физического
представления чисел, подлежащих обработке,
необходимы элементы, способные находится в одном
из нескольких устойчивых состояний.
Простота технической реализации
двухпозиционных элементов обеспечила наибольшее
распространение ЭВМ двоичной системы счисления,
основание которой S=2. В ней используются лишь две
цифры 0 и 1.
Любое действительное число в двоичной системе
представляется в виде суммы целых степеней
основания S=2, умноженных на соответствующие
коэффициенты – 0 или 1. Числа в двоичной системе
выглядят громоздко и однообразно.
Например, 625,12510=1001110001,001.

30. Восьмеричная и шестнадцатеричная

Восьмеричную систему счисления можно
представить, как 8=23, шестнадцатеричную
систему, как 16=24.
Запись чисел короче, чем в двоичной
системе. Вот как выглядит одно и то же число
в разных системах:
625,12510=1001110001,0012=1161,18=271,216

31.

Восьмеричная и шестнадцатеричная системы
счисления применяются в процессе
программирования для более компактной записи
команд программы.
В восьмеричной системе счисления используется
восемь цифр от 0 до 7, а любое число представляется
суммой целых степеней основания s=8, умноженных
на соответствующие коэффициенты a1=0,1,…7.
В шестнадцатеричной системе счисления
используются цифры от 0 до 9 и дополнительно к ним
применяются буквенные символы латинского
алфавита 10-A, 11-B, 12-C, 13-D, 14-E, 15-F.

32. Перевод в системах счисления. Общее правило.

Начнём рассматривать 10-ю систему счисления. Любое число можно
разложить по разрядам. Например, 213 мы воспринимаем как 2
сотни, один десяток и три единицы.
Правило, по которому образуются разряды таково: необходимо взять
основу системы счисления (в нашем случае 10) и возвести её в
разные степени, начиная с 0 (любое число в степени 0 равно 1).
Выходит следующее:
100=1
101=10
102=100
103=1 000
104= 10 000
После чего сначала узнаём сколько целых сотен содержится в
числе 213, 213 : 100=2. Затем сколько десятков (213-200=13,
13/10=1) и сколько единиц – 3 единицы.
Вот что получается:
213=2*102+1*101+3*100=200+10+3

33. Меры и единицы количества и объёма информации

34. Бит

В информатике и вычислительной технике
ячейка памяти, которая может хранить одну
двоичную цифру (0 или 1) называется битом и
является наименьшей единицей измерения
количества и объёма информации.
Если в ячейке памяти есть заряд, то она
содержит 1, а если нет – 0. Для практических
целей этого недостаточно и биты группируют
вместе, чтобы они могли хранить больше цифр, а
это значит – больше информации.

35.

Существует следующее правило: группа N битов
может принимать 2n значений.
Например:
Если один бит хранит однозначное двоичное
число, то 2 бита могут содержать двузначное число и
таких чисел будет уже 4;
3 бита будут хранить уже 8 значений и выражать
трехзначное двоичное число 000, 001, 011, 100, 101,
110, 111;
Если использовать группу из 4-х бит, то она примет
16 значений четырёхзначных двоичных чисел.

36. Байт

Наименьшая группа битов, использующаяся на практике,
состоит из 8 бит и называется байтом, т.е. байт может принимать
28=256 значений, которые соответствуют двоичным числам от
00000000 до 11111111 или, если перевести их в десятичную систему,
от 0 до 255.
Если объединить 2 байта, а это 16 бит, следовательно, они
могут хранить одно из 216=65 536 чисел.
Наряду с байтами используются образованные от него
единицы:
1 Килобайт – 1024 байта
1 Мегабайт – 1024 Килобайта
1 Гигабайт – 1024 Мегабайта
1 Терабайт – 1024 Гигабайта
1 Петабайт – 1024 Терабайта
1 Эксабайт – 1024 Петабайта
1 Зеттабайт – 1024 Эксабайта
1 Иоттабайт – 1024 Заттабайта

37. Количество информации

Количество информации J обычно связывают с получением
оценки пока неопределённых, но может быть вероятных
свойств, процессов системы (а) или правильных решений любых
хозяйственных, управленческих или бытовых вопросов.
Американский инженер Ральф Хартли в 1928г. предложил
рассматривать процесс определения количества информации как
выбор вероятностного сообщения из конечно заданного
множества N равноконечного сообщений, используя формулу:
J=log2N
Например: Допустим, нужно угадать одно число из 100.
Можно вычислить сколько информации для этого потребуется
J=log2100=6,644 бит, т.е. сообщение о верно угаданном числе
будет содержать около 7 бит.

38. Энтропия – количество информации по Шеннону

Клод Шеннон в 1948г. ввел понятие
неопределенности – энтропия H(α). Мерой
количества информации Шеннон предложил
считать функцию, названную им энтропией.
Полученное сообщение β об объекте,
проблеме, выборе или какой-то системе (α) может
изменить энтропию, т.е. энтропия может стать
Hβ(α)<H(α), Hβ(α)>H(α), или H β(α)=H(α).
Разность между первоначальной энтропией и
энтропией с β сообщением и есть, по мнению
Шеннона, информация.
Jβ(α)=H(α)-Hβ(α)

39.

Величина Jβ(α) может быть положительной,
если сообщение достоверное и своевременное,
может быть отрицательной, если не
изменило, а увеличило нашу неопределённость
и может быть нулевой.
Нулевой результат Jβ(α)=0 может быть в двух
случаях:
1) Сообщение β не понятное, не
своевременное и не принесло никакой
информации, т.е. Hβ(α)=H(α);
2) Сообщение B на столько ценное, что
полностью сняло неопределенность и можно
принять решение, т.е. Jβ(α)=H(α).

40.

В общем случае энтропия, изменяясь до K-го состояний, равна
H (α)=
, где
P1 – вероятность того, что система находится в i-ом состоянии.
Если K=1, тогда никакой неопределенности нет.
При росте числа K возможных вариантов мера степени
неопределенности является функцией K-f(K) монотонно растёт с
увеличением K.
При определении конкретной оценки неопределенности
обычно используют логарифм по основанию 2, т.е. f(K)=log2K
Это значит, что за единицу неопределенности берутся два
равновероятных случая (как при подбрасывании монеты или как в
ячейке двоичной памяти), т.е. P1=1/K, согласно формуле Шеннона
H(α)=log2K.

41.

Например, энтропия нашего алфавита из
32 букв (е и ё не будем различать):
H=Log232=5 бит
Энтропия десятичного набора цифр:
H=log210= 3.32 бита.
Энтропия, содержащая 32 буквы и 10
цифр:
H=log2(32+10)= 5 + 3,32 = 8,32 бита

42. Объём информации

Это некоторый текст, содержащий различные
символы (буквы, цифры, знаки – препинания,
математические, музыкальные и т.д.).
Для одного и того же смыслового
содержания объем информации в зависимости
от краткости или расширенного изложения или
от языка той или иной национальности может
быть различным, поэтому некоторые авторы
вместо объема используют синоним – длина
информации.

43. Тезаурус

Для измерения смыслового содержания
информации получила распространение, т.н.
тезаурусная мера, которая связана со
способностью пользователя принимать
информацию.
Тезаурус – это совокупность сведений и
связей между ними, которыми располагает
пользователь, т.е. – это кругозор, интеллект,
накопленные знания пользователя.

44.

Если информацию получает персональный
компьютер,
его
тезаурус
определяется
заложенными
в
него
программами
и
устройствами,
позволяющими
принимать,
обрабатывать
и
представлять
текстовые
сообщения на разных языках, разными шрифтами,
с помощью аудио- и видеоинформации из
локальной, корпоративной или всемирной сети.
Если получателем является человек, его
тезаурус может быть очень богат, глубок и
многообразен,
что
позволяет
извлекать
информацию из любого сообщения.

45. Зависимость количества смысловой (семантической) информации от тезауруса получателя

• При S=0 получатель не воспринимает информацию.
• При S>0 получатель воспринимает малое количество
информации.
• При S -> ∞ Получатель всё знает и поступающая информация
ему не нужна.

46. Коэффициент содержательности

Относительной
мерой
количества
семантической
информации служит коэффициент содержательности С,
определяемый отношением информации достаточной для
понимания смысла к объёму информации, который получил
пользователь:
C=J/V – коэффициент содержательности.
Эта мера чисто индивидуальная и зависит от технических
возможностей компьютера или состояния интеллекта
пользователя.
Прагматическая
мера
информации
полезность
(ценность)
информации
и
релевантностью информации.
определяет
называется

47. Кодирование информации

Кодирование информации — процесс
преобразования сигнала из формы, удобной для
непосредственного использования информации,
в форму, удобную для передачи, хранения или
автоматической переработки.

48. Кодирование числовой информации

Для кодирования чисел используются 1, 2, 4, 8, 16 байт. Один
бит (крайний слева) отводится под знак числа.
В вычислительной технике применяются специальные коды:
• Прямой код представляет двоичные числа, где отрицательные
значения кодируются единицей, а положительные - нулем. При
этом старший разряд называется знаковым. Например, числа +510
и -510 выглядят, как +510=0,1012 и -52=1,1012
• Обратный код для отрицательных чисел получается путём
инверсии (единицы знаковых разрядов заменяются нулями, а нули
заменяются единицами) из прямого кода. Например, число -510 в
обратном коде выглядит, как 1,0102
• Дополнительный код для отрицательных чисел получается из
обратного кода добавлением единицы к младшему разряду кода.

49. Формы предоставления чисел

В
ЭВМ
применяют
две
представления двоичных чисел:
формы
• Естественная форма с фиксированной
запятой (точкой);
• Нормальная форма с плавающей запятой
(точкой).

50. Естественная форма

Числа
представляются
последовательностью
двоичных
чисел,
представляющих целые числа.
Точка или запятая формально отделяет
знаковые разряды.
С целыми числами вычисления проводят
точно, т.е. результат (при делении) с остатком
округляют до целого числа.
Недостатком
этой
формы
является
ограничительный диапазон чисел.

51. Нормальная форма с плавающей точкой (запятой)

Представляет число в следующем виде:
x=m*qn
, где m – мантисса в виде набора цифр
(10 > мантисса >1);
q – основание системы счисления;
n – порядок числа.
Множитель
qn
называется
характеристикой мантиссы.

52.

Нормальная
форма
используется
для
представления дробных чисел, для чего их
преобразуют по указанной формуле.
Например, пусть дано число 12,37510, в
нормальной форме оно будет выглядеть как
12,37510 = 0,12375*102
1100,0112=0,1100011*2100
При хранении дробных чисел часть бит отводится
для мантиссы, часть для порядка числа, а в крайнем
левом бите хранится знак.
Мантисса выражается в прямом коде, как для
положительных, так и для отрицательных чисел.
Различие в знаке отражается только на значении
разряда.

53. Кодирование текстовой информации

При обработке текстовой информации каждому
символу
соответствует
определенное
число.
Соответствие между набором символов и чисел
называется кодировкой символов.
Существует много различных кодировок. В
большинстве
из
них
символы
кодируются
однобайтовыми комбинациями. Одним байтом
можно закодировать 256 целых чисел. Этого
достаточно для кодирования всех букв латинского и
русского алфавита, арабских цифр, знаков препинания
и некоторых других необходимых знаков.
Для
наглядности,
существуют
таблицы
кодирования, где каждому символу присваивается
свой номер.

54. Таблицы кодировок текста

• ASCII – американский стандартный код обмена
информацией – 1 байт (256 символов).
• Windows-1251 - была разработана под кириллицу
компанией Microsoft – 1 байт (256 символов).
• КОИ-8 - код обмена информацией, восьмизначный,
разработан в 60-х годах в СССР – 1 байт (256
символов).
• Unicode - разработали компании Microsoft, Borland
и Adobe, в кодировке каждому символу отводилось
не 1, а 2 байта (65536 символов).

55. Кодирование графической информации

Кодирование такой информации заключается в
кодировке цвета. Изображение так же, как и символы,
можно закодировать, оцифровав цвета.
Графическую информацию можно представить в виде
таблицы, состоящей из квадратиков, т.е. реальное
изображение покрывается ячеистой сеткой, где каждой
ячейке соответствует свой цвет.
Минимальный размер ячейки приводит к максимальному
качественному представлению изображения, т.е. увеличению
частоты дискретизации приводит к чёткости, яркости, и
большой цветовой гамме.
Сканер превращает аналоговое изображение в цифровое,
а видеосистема, напротив, из цифровой последовательности
создаёт для человеческого глаза аналоговое изображение.

56. Режимы кодировки цветов

• Режим Bitmap. Используется 1 бит, поэтому можно
закодировать только два варианта цвета, например,
чёрный и белый, красный и зелёный;
• Режим Grayscale. Используется 1 байт, дающий каждой
ячейки (точке) 256 градаций серого цвета;
• Режим индекса. Использует 1 байт. Каждый из 256
градаций соответствует свой цвет с определенным
названием;
• Режим True Color. Используется 3 байта, которые
содержат 16 777 216 цветов и оттенков на основе 3-х
базовых цветов – красного (Red), зелёного (Green) и
синего (Blue). Такой режим также называется по первым
буквам базовых цветов RGB- моделью.

57. CMYK

Для печатных изображений применяется другая
цветовая модель на базе голубого (Cyan), пурпурного
(Magenta), желтого (Yellow) и чёрного (Black) – CMYKмодель. (буква K от окончания Black).
При печати увеличение количества краски не
приводит к увеличению яркости, а к её уменьшению.
Поэтому метод печати с помощью CMYK-модели
является
не
аддитивным,
а
субтрактивным
(вычитающим).
Цветовыми компонентами этой модели являются не
основные цвета, а те которые получаются в результате
вычитания основных цветов из белого.

58. Типы графических изображений

• Векторные изображения, состоят из схематических
контуров и заливок, всегда условно передают
смысловую реальность. Основным элементом
отображения является сегмент – отрезок линии или
контур – несколько таких отрезков;
• Растровые изображения качественно отображают
исходную графику. Главным элементом кодирования
является пиксель – квадратная ячейка или точка,
внутри которой все свойства изображения остаются
неизменными. Термин пиксель образовался от
английского picture – картина, изображение и
element – элемент, элемент изображения.

59. Кодирование звуковой информации

Звук представляет собой типичный аналоговый сигнал, в
котором по оси t откладывается время, а оси A(t) колебание
воздуха.

60.

Оцифровка звукового сигнала происходит в три
этапа:
I. Дискретизация - заключается в определении
временных промежутков для снятия показаний,
т.е. определяем частоту измерений амплитуды
сигнала в секунду.
II. Квантование – заключаются в разбитии сигнала
на отдельные дискретные участки, в результате
чего получается ступенчатая кривая.
III. Кодирование – заключаются в непосредственном
процессе оцифровки в соответствии с принятыми
правилами дискретизации и квантования.
English     Русский Правила