Реферат по «Основам информационных технологий» Студент 1 курса к

БЕЛОРУССКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

На правах рукописи

УДК 681.24.(01)

Адамович

Александр Антонович

Предмет и основные понятия информатики

Реферат по«Основам информационных технологий»

Студент 1 курса кафедры экономической институциональной экономики

Специальность: Менеджмент

Научные руководитель: П.П.Кожич

Минск, 2012

ОГЛАВЛЕНИЕ

TOC \o «1-3» \h \z \u ВВЕДЕНИЕ……………………………………………………………………………..……3

ГЛАВА 1 ПРЕДМЕТ И ОСНОВНЫЕ ПОНЯТИЯ ИНФОРМАТИКИ……5

1.1 Данные…………………………………………………………………………………………8

1.2 Информация………………………………………………………………………………………9

1.3 Знание…………………..…………………………………………………………………….10

1.4 Информационная Система…………………………………………………………………..11

1.5 Информационные технологии……………………………………..………………………..13

ГЛАВА 2 ОСНОВНЫЕ ПРЕДСТАВЛЕНИЯ ТЕОРИИ ИНФОРМАЦИИ. ПОНЯТИЕ ОБ ИНФОРМАЦИИИ И ЕЁ СВОЙСТВАХ………….………………14

2.1 Подход Р.Хартли…………………………………………………………………….……….15

2.2 Подход К.Шеннона……………………………………………………………………………17

2.3 Связзь Формул К.Шеннона И Р.Халтли………………………………………..…………….18

2.4 Сравнение подходов Р.Хартли и К.Шеннона………………………………..…………….19

2.5 Кодирование информации…………………………………………………………………..20

2.6 Кодировка чисел………………………………………………………………………………..21

2.7 Кодировка символов………………………………………………………………..……….22

2.8 Кодировка изображений……………………………………………………………..………23

ГЛАВА 3 СЖАТИЕ ДАННЫХ…………………………………………………………..25

3.1 Базовый уровень……………………………………………………………………………….27

3.2 Системный уровень………………………………………………………………………….28

3.3 Служебный уровень………………………………………………………………………….29

3.4 Прикладной уровень…………………………………………………………………………..30

3.5 Классификация прикладного программного обеспечения………………………………..32

СПИСОК ЛИТЕРАТУРЫ…………………………………………………………………..36

ПЕРЕЧЕНЬ УСЛОВНЫХ ОБОЗНАЧЕНИЙ

КИТ – компьютерные информационные технологии.

Инф. систем. – информационная система.

Др. – другие.

ВВЕДЕНИЕ

ГЛАВА 1 ПРЕДМЕТ И ОСНОВНЫЕ ПОНЯТИЯ ИНФОРМАТИКИ

1.1 Информатика. Основные определения

Информатика — это комплексная, техническая наука, которая изучает и систематизирует законы и приемы создания, сохранения, воспроизведения, получения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ними. Термин «информатика» происходит от французского слова Informatique и образован из двух слов: информация и автоматика. Термин информация произошел от латинского слова informatio — разъяснение, осведомление. Этот термин введен во Франции в середине 60—х лет XX ст., когда началось широкое использование вычислительной техники. Тогда в англоязычных странах вошел в употребление термин «Computer Science» для обозначения науки о преобразовании информации, которая базируется на использовании вычислительной техники. Теперь эти термины являются синонимами.

Появление информатики обусловлено возникновением и распространением новой технологии сбора, обработки и передачи информации, связанной с фиксацией данных на машинных носителях. Предмет информатики как науки составляют:

аппаратное обеспечение средств вычислительной техники;

программное обеспечение средств вычислительной техники;

средства взаимодействия аппаратного и программного обеспечения;

средства взаимодействия человека с аппаратными и программными средствами.

Средства взаимодействия в информатике принято называть интерфейсом. Поэтому средства взаимодействия аппаратного и программного обеспечения иногда называют также программно- аппаратным интерфейсом, а средства взаимодействия человека с аппаратными и программными средствами — интерфейсом пользователя.

Задачи информатики как науки составляют:

изучить структуру, общие свойства информации, исследовать законы и методы создания,

преобразования, накопления, передачи и использования информации.

систематизация приемов и методов работы с аппаратными и программными средствами

вычислительной техники. Цель систематизации состоит в том, чтобы выделять, внедрять и

развивать передовые, более эффективные технологии автоматизации этапов работы с данными, а

также методически обеспечивать новые технологические исследования.

В составе основной задачи сегодня можно выделить такие основные направления информатики для практического применения :

архитектура вычислительных систем (приемы и методы построения систем, предназначенных для автоматической обработки данных);

интерфейсы вычислительных систем (приемы и методы управления аппаратным и программным обеспечением);

программирование (приемы, методы и средства разработки комплексных задач);

преобразование данных (приемы и методы преобразования структур данных);

защита информации (обобщение приемов, разработка методов и средств защиты данных);

автоматизация (функционирование программно—аппаратных средств без участия человека);

стандартизация (обеспечение совместимости между аппаратными и программными средствами,между форматами представления данных, относящихся к разным типам вычислительных систем).

На всех этапах технического обеспечения информационных процессов для информатики ключевым вопросом есть эффективность. Для аппаратных средств под эффективностью понимают соотношение производительности оснащение к его стоимости. Для программного обеспечения под эффективностью принято понимать производительность работающих с ним пользователей. В программировании под эффективностью понимают объем программного кода, созданного программистами за единицу времени. В информатике все жестко ориентированно на эффективность. Вопрос как осуществить ту или другую операцию, для информатики важный, но не основной. Основным есть вопрос — как совершить данную операцию эффективно.

В рамках информатики, как технической науки можно сформулировать понятия информации, информационной системы и информационной технологии.

1.2 Данные

Данные (data)— это такое же первоначальное понятие, как, скажем, в математике «точка»: попытка дать определение начальным понятиям приводит к необходимости дополнительно определять использованные термины. Итак, будем считать, что данные — это те или иные сведения (необязательно несущие смысловую нагрузку).

Во время информационного процесса данные преобразовываются из одного вида в другого с помощью методов. Обработка данных включает в себя множество разных операций. Основными операциями есть:

сбор данных — накопление информации с целью обеспечения достаточной полноты для принятия решения;

формализация данных — приведение данных, которые поступают из разных источников к единой форме;

фильтрация данных — устранение лишних данных, которые не нужны для принятия решений;

сортировка данных — приведение в порядок данных за заданным признаком с целью удобства

использования;

архивация данных — сохранение данных в удобной и доступной форме;

защита данных — комплекс мер, направленных на предотвращение потерь, воспроизведения и

модификации данных;

транспортирование данных — прием и передача данных между отдаленными пользователями информационного процесса. Источник данных принят называть сервером, а потребителя — клиентом;

преобразование данных — преобразование данных с одной формы в другую, или с одной структуры в другую, или изменение типа носителя.

1.3 Информация

Информация (information)— это данные, сопровождающиеся смысловой нагрузкой.

При этом, очевидно, то, что для одних является данными, для других вполне может быть информацией. Но всегда можно точно сказать, что нужно предпринять для того, чтобы те или иные данные стали информативными для наибольшей аудитории: их нужно снабдить смысловым содержанием. Чем более полным будет это содержание, тем более информативной будет соответствующее сообщение.

Информация которая:

воспринимается из окружающей среды называется входной информацией,

выдается в окружающую среду называется исходная информацией.

Информация существует в виде документов, чертежей, рисунков, текстов, звуковых и световых сигналов, электрических и нервных импульсов и т.п..

Важнейшие свойства информации:

объективность и субъективность;

полнота;

достоверность;

адекватность;

доступность;

актуальность.

1.4 Знание

Знание — есть переживание, сравнённое с другими переживаниями это определение, которое дал Лосский Н. О. в своей работе «Обоснование интуитивизма», является наиболее точным.

Сравнительная информация (знание) обладает теми качествами, на которые как раз указывали процитированные мною авторы. В частности, она позволяет принимать решения. Причём, если это покупатель, то он может принять решение о покупке товара по более подходящей для него цене (при этом могут подключаться знания о качестве сервиса — сравнение информации; знания о надёжности торговой компании — сравнение информации о том, где могут продавать качественную, а где — поддельную продукцию и т. д.). Если решение принимает представитель торговой компании, то знания о конкурентах могут ему позволить более выгодно вести бизнес. Важно подчеркнуть, что каждый раз знание получается именно на основе сравнения информации.

1.5 Информационная система

В информатике понятие «система» чаще используют относительно набора технических средств и программ. Системой называют также аппаратную часть компьютера. Дополнение понятия «система» словом «информационная» отображает цель ее создания и функционирования.

Информационная система — взаимосвязанная совокупность средств, методов и персонала, используемая для сохранения, обработки и выдачи информации с целью решения конкретной задачи.

Современное понимание информационной системы предусматривает использование компьютера как основного технического средства обработки информации. Компьютеры, оснащенные специализированными программными средствами, являются технической базой и инструментом информационной системы.

В работе информационной системы можно выделить следующие этапы:

a. Зарождение данных — формирование первичных сообщений, которые фиксируют результаты

определенных операций, свойства объектов и субъектов управления, параметры процессов, содержание нормативных и юридических актов и т.п..

b. Накопление и систематизация данных — организация такого их размещения, которое обеспечивало бы быстрый поиск и отбор нужных сведений, методическое обновление данных, защита их от искажений, потери, деформирование целостности и др.

c. Обработка данных — процессы, вследствие которых на основании прежде накопленных данных формируются новые виды данных: обобщающие, аналитические, рекомендательные, прогнозные. Производные данные тоже можно обрабатывать, получая более обобщенные сведения.

d. Отображение данных — представление их в форме, пригодной для восприятия человеком. Прежде всего — это вывод на печать, то есть создание документов на так называемых твердых (бумажных) носителях. Широко используют построение графических иллюстративных материалов (графиков, диаграмм) и формирование звуковых сигналов.

Сообщения, которые формируются на первом этапе, могут быть обычным бумажным документом, сообщением в «машинном виде» или тем и другим одновременно. В современных информационных системах сообщения массового характера большей частью имеют «машинный вид». Аппаратура, которая используется при этом, имеет название средства регистрации первичной информации. Потребности второго и третьего этапов удовлетворяются в современных информационных системах в основном средствами вычислительной техники. Средства, которые обеспечивают доступность информации для человека, то есть средства отображения данных, являются компонентами вычислительной техники. Подавляющее большинство информационных систем работает в режиме диалога с пользователем.

Типичные программные компоненты информационных систем включают: диалоговую подсистему ввода — вывода, подсистему, которая реализует логику диалога, подсистему прикладной логики обработки данных, подсистему логики управления данными. Для сетевых информационных систем важным элементом является коммуникационный сервис, обеспечивающий взаимодействие узлов сети при общем решении задачи. Значительная часть функциональных возможностей информационных систем закладывается в системном программном обеспечении: операционных системах, системных библиотеках и конструкциях инструментальных средств разработки. Кроме программной составной информационных систем важную роль играет информационная составная, которая задает структуру, атрибутику и типы данных, а также тесно связана с логикой управления данными.

1.6 Информационные технологии

В широком смысле слово технология — это способ освоения человеком материального мира с помощью социально организованной деятельности, которая включает три компоненты: информационную (научные принципы и обоснование), материальную (орудие работы) и социальную (специалисты, имеющие профессиональные навыки). Эта триада составляет сущность современного понимания понятия технологии.

Понятие информационной технологии появилось с возникновением информационного общества, основой социальной динамики в котором являются не традиционные материальные, а информационные ресурсы: знания, наука, организационные факторы, интеллектуальные способности, инициатива, творчество и т.д. К сожалению, это понятие настолько общее и всеохватывающее, что до сих пор специалисты не пришли к четкой, формализованной формулировке. Наиболее удачным определением понятия информационной технологии дано академиком Глушковым В.М., который трактовал ее как человеко-машинную технологию сбора, обработки и передачи информации, которая основывается на использовании вычислительной техники.

Эта технология быстро развивается, охватывая все виды общественной деятельности: производство, управление, науку, образование, финансово—банковские операции, медицину, быт и др.

ГЛАВА 2ОСНОВНЫЕ ПРЕДСТАВЛЕНИЯ ТЕОРИИ ИНФОРМАЦИИ.ПОНЯТИЕ ОБ ИНФОРМАЦИИ И ЕЕ СВОЙСТВАХ

Современная наука о свойствах информации и закономерностях информационных процессов называется теорией информации. Рассмотрим смысл понятия информация на примере двух подходов к измерению количества информации: подходов Хартли и Шеннона. Первый базируется на принципах теории множеств и комбинаторики, а для второго фундаментом служит теория вероятностей. В основе всей теории информации лежит открытие, сделанное Р. Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку. К. Шеннон в 1948 году придал этой теории завершенность. Большой вклад в дальнейшее развитие и обобщение теории информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, Р.Л. Стратанович. Сравнительно недавно исследователи советских архивов сообщили о том, что теория, известная сегодня как теория Шеннона, была создана А.Н. Колмогоровым еще в 1938 году, но была засекречена, так как использовалась в военных разработках.

2.1 Подход р. Хартли

Подход Р. Хартли базируется на фундаментальных теоретико-множественных, по существу комбинаторных основаниях, а также некоторых интуитивно очевидных предположениях.

Итак, будем считать, что если существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным.

Найдем вид функции, связывающей количество информации, получаемой при выборе некоторого элемента из множества, с количеством элементов в этом множестве, иначе говоря — с мощностью множества.

Если множество элементов, из которых осуществляется выбор, состоит из одного единственного элемента, то его выбор предопределен, т.е. никакой неопределенности выбора нет. Таким образом, если мы узнаем, что выбран этот единственный элемент, то, очевидно, при этом мы не получаем никакой новой информации, т.е. получаем нулевое количество информации.

Если множество состоит из двух элементов, то неопределенность выбора существует, но ее значение минимально. В этом случае минимально и количество информации, которое мы получаем, узнав, что совершен выбор одного из элементов.

Чем больше элементов содержит множество, тем больше неопределенность выбора, т.е. тем больше информации мы получаем, узнав о том, какой выбран элемент.

Из этих очевидных соображений следует первое требование: информация есть монотонная функция мощности исходного множества — чем больше элементов содержит множество, тем больше заключено в нем информации.

Обычно мы представляем числа в десятичной системе счисления, или системе счисления с основанием 10.

В компьютерных технологиях опираются на представления чисел в двоичной (цифры 0 и 1) и шестнадцатеричной системах, в последней к цифрам 0123456789 добавлены «цифры» ABCDEF (10 11 12 13 14 15).

В двоичной системе целое число представляется как сумма степеней числа 2 с соответствующими коэффициентами от 0 до 1, а в шестнадцатеричной — как сумма степеней числа 16 с соответствующими коэффициентами от 0 до 15 (но вместо чисел от 10 до 15 используются буквы A — F).

Рассмотрим процесс выбора чисел из рассмотренного множества. До выбора вероятность выбрать любое число одинакова. Существует объективная неопределенность в вопросе о том, какое число будет выбрано. Эта неопределенность тем больше, чем больше N — количество чисел, а чисел тем больше — чем больше разрядность i этих чисел.

Примем, что выбор одного числа дает нам следующее количество информации:

i = Log2(N).

Таким образом, количество информации, содержащейся в двоичном числе, равно количеству двоичных разрядов в этом числе.

Это выражение и представляет собой формулу Хартли для количества информации.

При увеличении длины числа в два раза количество информации в нем также должно возрасти в два раза, несмотря на то, что количество чисел во множестве возрастает при этом по показательному закону (в квадрате, если числа двоичные), т.е. если

N2=(N1)2,

то

I2 = 2 * I1,

F(N1*N1)= F(N1) + F(N1).

Это невозможно, если количество информации выражается линейной функцией от количества элементов во множестве. Но известна функция, обладающая именно таким свойством: это Log:

Log2(N2) = Log2(N1)2= 2 * Log2(N1).

Это второе требование называется требованием аддитивности.

Таким образом, логарифмическая мера информации, предложенная Хартли, одновременно удовлетворяет условиям монотонности и аддитивности. Сам Хартли пришел к такому представлению меры информации на основе эвристических соображений, подобных только что изложенным. Но в настоящее время строго доказано, что логарифмическая мера для количества информации однозначно следует из этих двух постулированных им условий. Минимальное количество информации получается при выборе одного из двух равновероятных вариантов. Это количество информации принято за единицу измерения и называется бит (от англ. Binary digit — двоичная цифра, то есть два возможных значения).

2.2 Подход к. шеннона

Клод Шеннон основывается на теоретика–вероятностном подходе. Это связано с тем, что исторически шенноновская теория информации выросла из потребностей теории связи, имеющей дело со статистическими характеристиками передаваемых сообщений и каналов связи.

Пусть существует некоторое конечное множество событий (состояний системы): X={x1, x2, …, xN},

которые могут наступать с вероятностями: p(xi), соответственно, причем множество вероятностей удовлетворяет естественному условию нормировки:

Исходное множество событий характеризуется некоторой неопределенностью, т.е. энтропией Хартли, зависящей, как мы видели выше, только от мощности множества. Но Шеннон обобщает это понятие, учитывая, что различные события в общем случае не равновероятны. Например, неопределенность системы событий: {монета упала «орлом», монета упала «решкой»}, значительно выше, чем неопределенность событий: {монета упала «орлом», монета упала «ребром»}, так как в первом случае варианты равновероятны, а во втором случае вероятности вариантов сильно отличаются.

Если измерять количество информации изменением степени неопределенности, то шенноновское количество информации численно совпадает с энтропией исходного множества.

2.3 Связь формул к. Шеннона и р. Хартли

Следуя [391], приведем вывод выражения Шеннона (4.2) непосредственно из выражения Хартли для количества информации: I=Log2(N).

Пусть события исходного множества мощности N равновероятны, тогда учитывая, что непосредственно из формулы Хартли получаем.

Остается предположить, что это выражение верно и для случая, когда события неравновероятны [391]. В этом предположении и состоит обобщение Клода Шеннона, составившее целую эпоху в развитии современной теории информации.

2.4 Сравнение подходов р. Хартли и к. Шеннона

Чрезвычайно важным и принципиальным является то обстоятельство, что для построения меры Хартли используется лишь понятие многообразие, которое накладывает на элементы исходного множества ишь одно условие (ограничение): должна существовать возможность отличать эти элементы один от другого.

В теории Шеннона существенным образом используется статистика, причем предполагается, что случайные события (состояния системы) распределены по нормальному закону.

Таким образом, различие между подходами Хартли и Шеннона к построению теории информации соответствует различию между непараметрическими и параметрическими методами в статистике. Если говорить более конкретно, то, очевидно, что мера Шеннона асимптотически переходит в меру Хартли при условии, что вероятности всех событий (состояний) равны. В статистике доказано фундаментальное свойство энтропии случайного процесса, состоящее в том, что при условии нормальности распределения и достаточно больших выборках все множество событий можно разделить на две основные группы:

высоковероятные события (считающиеся заслуживающими изучения);

маловероятные события (считаются не заслуживающими особого внимания).

Причем высоковероятные события с высокой точностью равновероятны. При увеличении размерности выборки доля «заслуживающих внимания» событий неограниченно уменьшается, и мера Шеннона асимптотически переходит в меру Хартли. Поэтому можно считать, что при больших нормально распределенных выборках мера Хартли является оправданным упрощением меры Шеннона.

2.5 Кодирование информации

Очевидно, что для кодирования информации достаточно использовать любые два различных значения, например, цифры 0 и 1 (да и нет, истина и ложь и т. п.). В этом случае применительно к кодировке чисел мы имеем дело с так называемой двоичной системой счисления. В общем случае, необходимо говорить о кодировке любых символов (не чисел!), не смешивая эти две разные задачи.

Для измерения количества информации используют 1 бит – один символ двухбуквенного алфавита, состоящего из нулей и единиц {0, 1}.

Кроме этого используются также следующие единицы:

1 байт=8 бит,

1024 байт=1 Кбайт,

1024 Кбайт=1 Мбайт,

1024 Мбайт=1 Гбайт.

2.6 Кодировка чисел

Целые числа в системе счисления с любым основанием (2, 10, 16 и т.д.) всегда представляются точно.

Так, любое целое число представляется в виде суммы степеней числа, лежащего в основании системы счисления с соответствующими коэффициентами — от 0 до 9 в десятичной, 0 и 1 в двоичной, от 0 до F (15) в шестнадцатеричной системах. Для определенности остановимся на двоичном представлении. При этом, как показано выше, чем большее количество двоичных разрядов отводится под хранение целого числа, тем больше возможный диапазон изменения его значений. Минимальное количество использующихся двоичных разрядов (применительно к компьютерным технологиям) равно 8, что составляет 1 байт.

Легко убедиться, что 8 двоичных разрядов позволяют закодировать числа от 0 до 255. Если же отвести один из разрядов под хранение знака числа, то те же 8 разрядов обеспечат возможность кодировки целых чисел от -128 до 127.

Для кодировки вещественных чисел, когда необходимо учесть и десятичную часть числа, используется особая форма представления — с плавающей точкой:

X = M * 2P

Здесь M — так называемая мантисса, Р — порядок.

При хранении чисел с плавающей точкой выделяется определенное количество разрядов под хранение мантиссы и под хранение порядка. Точность представления вещественного числа зависит от разрядности мантиссы, а возможный диапазон изменения — от количества разрядов, выделенных для хранения порядка.

2.7 Кодировка символов

Кодировка символов применительно к компьютерным приложениям базируется обычно на системе кодировки ASCII (American Standard Code for Information Interchange- Американский стандартный код для обмена информацией) — 256 различных, упорядоченных по коду (номеру) символов. Значения кода — целые числа от 0 до 255.

Для кодирования одного символа используется 8 битов, или 1 байт. В этом легко убедиться, если записать значения кодов в двоичной системе. Существует много систем кодировки, основанных на выделении 1 байта для кодирования одного символа (ANSI, KOI-8 и т.д.). В последнее время получила распространение система Unicode, использующая для кодировки одного символа 2 байта. Это резко расширило возможности, позволив кодировать более чем 65000 различных символов уникальными кодами.

2.8 Кодировка изображений

Под изображением будем понимать прямоугольную область, закрашенную непрерывно изменяющимся цветом. Поэтому для представления изображений в целых числах необходимо отдельно дискретизировать прямоугольную область и цвет.

Для описания области она разбивается на множество точечных элементов – пикселев [pixel]. Само множество называется растром [bit map, dot matrix, raster] (см. рис. 1.3), а изображения, которые формируются на основе растра, называются растровыми.

Число пикселев называется разрешением [resolution]. Часто встречаются значения 640х480, 800х600, 1024х768, 1280х1024. Каждый пиксел нумеруется, начиная с нуля слева направо и сверху вниз.

Для представления цвета используются цветовые модели.

Цветовая модель [color model] это правило, по которому может быть вычислен цвет. Самая простая цветовая модель – битовая. В ней для описания цвета каждого пиксела (чёрного или белого) используется всего один бит. Для представления полноцветных изображений используются несколько более сложных моделей.

Известно, что любой цвет может быть представлен как сумма трёх основных цветов: красного, зелёного и синего. Если интенсивность каждого цвета представить числом, то любой цвет будет выражаться через набор из трёх чисел. Так определяется наиболее известная цветовая RGB-модель. На каждое число отводится один байт. Так можно представить 224 цвета, то есть примерно 16,7 млн. цветов. Белый цвет в этой модели представляется как (1,1,1), чёрный – (0,0,0), красный (1,0,0), синий (0,0,1). Жёлтый цвет является комбинацией красного и зелёного и потому представляется как (1,1,0).

Цветовая модель RGB [Red-Green-Blue] была стандартизирована в 1931 г. и впервые использована в цветном телевидении. Модель RGB является аддитивной моделью, то есть цвет получается в результате сложения базовых цветов. Существуют и другие цветовые модели, которые для ряда задач оказываются более предпочтительными, чем RGB-модель.

Например, для представления цвета в принтере используется субтрактивная CMY-модель [Cyan- Magenta-Yellow], цвет в которой получается в результате вычитания базовых цветов из белого цвета.

Белому цвету в этой модели соответствует (0,0,0), чёрному — (1,1,1), голубому — (1,0,0), сиреневому — (0,1,0), жёлтому — (0,0,1).

В цветовой модели HSV [Hue-Saturation-Value] цвет представляется через цвет, насыщенность и значение, а в модели HLS [Hue-Lightness-Saturation] через оттенок, яркость и насыщенность. Современные графические редакторы, как правило, могут работать с несколькими цветовыми моделями.

Наиболее популярными являются графические форматы: BMP [Bit MaP], PCX, GIF [Graphics Interchange Format], TIFF [Tagged Image File Format], JPEG [Joint Photographic Experts Group], которые по существу различаются между собой используемыми методами сжатия. Форматы BMP и PCX используют RLE-алгоритм, форматы GIF и TIFF – LZW-алгоритм, JPEG использует одноимённый алгоритм сжатия.

ГЛАВА 3 СЖАТИЕ ДАННЫХ

Характерной особенностью большинства типов данных является их избыточность. Степень избыточности данных зависит от типа данных. Например, для видеоданных степень избыточности в несколько раз больше чем для графических данных, а степень избыточности графических данных, в свою очередь, больше чем степень избыточности текстовых данных. Другим фактором, влияющим на степень избыточности является принятая система кодирования. Примером систем кодирования могут быть обычные языки общения, которые являются ни чем другим, как истемами кодирования понятий и идей для высказывания мыслей. Так, установлено, что кодирование текстовых данных с помощью средств русского языка дает в среднем избыточность на 20—25% большую чем кодирование аналогичных данных средствами английского языка.

Для человека избыточность данных часто связана с качеством информации, поскольку избыточность, как правило, улучшает понятность и восприятие информации. Однако, когда речь идет о хранении и передаче информации средствами компьютерной техники, то избыточность играет отрицательную роль, поскольку она приводит к возрастанию стоимости хранения и передачи информации. Особенно актуальной эта проблема стает в случае обработки огромных объемов информации при незначительных объемах носителей данных. В связи с этим, постоянно возникает проблема уменьшения избыточности или сжатия данных. Если методы сжатия данных применяются к готовым файлам, то часто вместо термина «сжатие данных» употребляют термин «архивация данных», сжатый вариант данных называют архивом, а программные средства, которые реализуют методы сжатия называются архиваторами.

В зависимости от того, в каком объекте размещены данные, подлежащие сжатию различают:

a. Сжатие (архивация) файлов: используется для уменьшения размеров файлов при подготовке их к передаче каналами связи или к транспортированию на внешних носителях маленькой емкости;

b. Сжатие (архивация) папок: используется как средство уменьшения объема папок перед долгим хранением, например, при резервном копировании;

c. Сжатие (уплотнение) дисков: используется для повышения эффективности использования дискового просторную путем сжатия данных при записи их на носителе информации (как правило, средствами операционной системы).

Существует много практических алгоритмов сжатия данных, но все они базируются на трех теоретических способах уменьшения избыточности данных. Первый способ состоит в изменении содержимого данных, второй — в изменении структуры данных, а третий — в одновременном изменении как структуры, так и содержимого данных.

Если при сжатии данных происходит изменение их содержимого, то метод сжатия называется необратимым, то есть при восстановлении (разархивировании) данных из архива не происходит полное восстановление информации. Такие методы часто называются методами сжатия с регулированными потерями информации. Понятно, что эти методы можно применять только для таких типов данных, для которых потеря части содержимого не приводит к существенному искажению информации. К таким типам данных относятся видео— и аудиоданные, а также графические данные. Методы сжатия с регулированными потерями информации обеспечивают значительно большую степень сжатия, но их нельзя применять к текстовым данным. Примерами форматов сжатия с потерями информации могут быть:

JPEG — для графических данных;

MPG — для видеоданных;

MP3 — для аудиоданных.

Если при сжатии данных происходит только изменение структуры данных, то метод сжатия называется обратимым. В этом случае, из архива можно восстановить информацию полностью. Обратимые методы сжатия можно применять к любым типам данных, но они дают меньшую степень сжатия по



Страницы: 1 | 2 | Весь текст