Все о тюнинге авто

Дать определение что такое информация. Виды информации в информатике. Понятие и виды информации. По своему назначению

Информация является одной из фундаментальных философских категорий, вместе с веществом, энергией, пространством и временем. имеет много разных определений, которые раскрывают все его грани. Философский словарь дает ей такое определение - во-первых, это совокупность каких-либо знаний, данных, некоторых сведений, а во-вторых, это одно из самых главных понятий в кибернетике.

Еще одно понятие информации - это продукт, полученный в результате взаимодействия данных с адекватными методами. Данными являются любые зарегистрированные сигналы. Но для того, чтобы извлечь из них сведения, нужны определенные методы.

Также существует такое понятие информации, как некоего ресурса, запаса некоторых характеристик объекта, но ресурса неистощимого, имеющего способности к обновлению и воспроизведению. И с этим ресурсом можно производить некие действия - информационные процессы. В структуре возможных операций с ним можно выделить несколько основных разновидностей.

Виды информационных процессов:

1) Поиск - извлечение информации из хранилищ.

2) Сбор - ее накопление для обеспечения полноты, достаточной чтобы принять решение.

3) Формализация - приведение всех ее видов в одинаковую форму для того, чтобы они стали сопоставимыми друг с другом.

4) Фильтрация - отсеивание данных, не нужных для принятия решения.

5) Сортировка - упорядочение всех данных по определенному признаку для более удобного использования, применяется для повышения ее доступности.

6) Архивация данных - организация процесса в легкодоступной и удобной форме, благодаря этому процессу снижаются экономические затраты на хранение данных и повышается надежность.

7) Защита данных - это меры для предотвращения утраты, модификации или воспроизведения данных.

8) Транспортировка - передача и прием данных между участниками

9) Преобразование - перевод данных в другую форму или в другую структуру.

Понятие информации сложно и многогранно, поэтому следует приложить усилия, чтобы изучить его.

Понятие информации. Задачи и постулаты прикладной теории информации

С начала 1950-х годов предпринимаются попытки использовать понятие информации (не имеющее до настоящего времени единого определения) для объяснения и описания самых разнообразных явлений и процессов.

В некоторых учебниках дается следующее определение информации:

Информация - это совокупность сведений, подлежащих хранению, передаче, обработке и использованию в человеческой деятельности .

Такое определение не является полностью бесполезным, т.к. оно помогает хотя бы смутно представить, о чем идет речь. Но с точки зрения логики оно бессмысленно. Определяемое понятие (информация ) здесь подменяется другим понятием (совокупность сведений) , которое само нуждается в определении.

Свойства информации:

1. полнота - свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект или процесс;

2. актуальность- способность информации соответствовать нуждам потребителя в нужный момент времени;

3. достоверность - свойство информации не иметь скрытых ошибок. Достоверная информация со временем может стать недостоверной, если устареет и перестанет отражать истинное положение дел;

4. доступность - свойство информации, характеризующее возможность ее получения данным потребителем;

5. релевантность - способность информации соответствовать нуждам (запросам) потребителя;

6. защищенность - свойство, характеризующее невозможность несанкционированного использования или изменения информации;

7. эргономичность - свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование "ресурса" как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизведения и обновления, чем материальные ресурсы.

С этой точки зрения можно рассмотреть такие свойства информации:

1. запоминаемость;

2. передаваемость;

3. воспроизводимость;

4. преобразуемость;

5. стираемость.

Запоминаемость - одно из самых важных свойств. Запоминаемую информацию будем называть макроскопической (имея в виду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.

Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К.Шеннона. В данном случае имеется в виду несколько иной аспект - способность информации к копированию, т.е. к тому, что она может быть “запомнена” другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.

Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.

Фундаментальное свойство информации - преобразуемость . Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может.

Свойство стираемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.

Данных свойств информации недостаточно для формирования ее меры, так как они относятся к физическому уровню информационных процессов.

Информация всегда связана с материальным носителем.

Носителем информации может быть: любой материальный предмет (бумага, камень и т.д.);волны различной природы: акустическая (звук), электромагнитная (свет, радиоволна) и т.д.; вещество в различном состоянии: концентрация молекул в жидком растворе, температура и т.д.Машинные носители информации: перфоленты, перфокарты, магнитные ленты, и т.д.

Сигнал - способ передачи информации. Это физический процесс, имеющий информационное значение. Он может быть непрерывным или дискретным.Сигнал называется дискретным, если он может принимать лишь конечное число значений в конечном числе моментов времени.

Аналоговый сигнал - сигнал, непрерывно изменяющийся по амплитуде и во времени. Сигналы, несущие текстовую, символическую информацию, дискретны . Аналоговые сигналы используют в телефонной связи, радиовещании, телевидении. Говорить об информации вообще, а не применительно к какому-то ее конкретному виду беспредметно. Классифицировать ее можно:

  • по способам восприятия (визуальная, тактильная и т.д.);
  • по форме представления (текстовая, числовая, графическая и т. д.);
  • по общественному значению (массовая, специальная, личная).

При всех различиях в трактовке понятия информации, бесспорно, то, что проявляется информация всегда в материально-энергетической форме в виде сигналов.

Информацию, представленную в формализованном виде, позволяющем осуществлять ее обработку с помощью технических средств, называют данными .

Информация – это совокупность каких-либо сведений, данных, передаваемых устно (в форме речи), письменно (в виде текста, таблиц, рисунков, чертежей, схем, условных обозначений)либо другим способом (например, с помощью звуковых или световых сигналов, электрических и нервных импульсов, перепадов давления или температуры и т.д.).

В середине 20 века термин «информация» стал общенаучным понятием, включающим обмен сведениями между людьми, человеком и автоматом (ЭВМ), автоматом и автоматом, обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке, от организма к организму.

Теоретические и практические вопросы, относящиеся к информации, изучает информатика.

Информатика – отрасль науки, изучающая структуру и свойства информации, а также вопросы, связанные с ее сбором, хранением, поиском, передачей, переработкой, преобразованием, распространением и использованием в различных сферах человеческой деятельности.

Есть еще одно определение информатики:

Информатика – это область человеческой деятельности, связанная с процессами преобразования информации с помощью компьютеров.

Пристальное внимание к информатике связано с бурным ростом объема человеческих знаний, который часто называют «информационным взрывом ». Общая сумма человеческих знаний изменялась раньше очень медленно. Затем процесс получения новых знаний заметно ускорился. Так общая сумма человеческих знаний к 1800 г. удваивалась каждые 50 лет, к 1950 г. – каждые 10 лет, к 1970 г. – каждые 5 лет, к 1990 г. – ежегодно. Т.о., в настоящее время накоплен большой объем информации, обработать который вручную людям невозможно (в силу своих физиологических особенностей).

Эффективным инструментом обработки большого количества информации и незаменимым помощником в жизни человека стал компьютер (от англ. computer- вычислительное устройство).

Основные направления использования компьютера:

  • накопление, хранение и обработка больших объемовинформации, быстрый поиск требуемых данных;
  • выполнение научных, экономических и конструкторских расчетов;
  • делопроизводство (составление писем, оформление документов);
  • обучение и приобретение профессиональных навыков;
  • издательское дело;
  • построение чертежей, диаграмм, создание рисунков и
    картин, мультфильмов, кинофильмов, видео клипов;
  • общение людей;
  • имитация работы человека-эксперта в определенной
    предметной области;
  • игры и развлечения.

    Несмотря на многообразие решаемых с помощью компьютера задач, принцип его применения в каждом случае один и тот же: информация, поступающая в компьютер, обрабатывается с целью получения требуемых результатов. Не случайно в США и Великобритании учебный курс информатики называется ComputerScience - компьютерная наука. Итак, информатика занимается вопросами обработки информации с помощью компьютера. Для решения конкретной задачи компьютер должен выполнить определенные действия (команды) в строго определенном порядке.

    Программа - это записанный в определенном порядке набор команд, выполнение которых обеспечивает решение конкретной задачи. Процесс составления программ называется программированием .

    Таким образом, чтобы решить конкретную задачу, необходимо иметь компьютер, т.е. само устройство для осуществления действий. В английском языке имеется специальное слово – hardware- для обозначения всех частей и приспособлений, из которых состоит компьютер, т.н. аппаратная часть . Кроме компьютера необходимо иметь набор программ, управляющих его действиями, - программное обеспечение , или software. Это слово придумано специально, чтобы подчеркнуть, что программное обеспечение является равноправной частью компьютера как устройства, предназначенного для решения задач, но в отличие от “твердой” аппаратной части, ПО (программное обеспечение) гибкое, изменяющееся в зависимости от конкретной решаемой задачи.

  • Слово "информация" от informatio - сведение, разъяснение, ознакомление.

    Информация - это совокупность каких-либо сведений, данных, пе­редаваемых устно (в форме речи), письменно (в виде текста, таблиц, рисун­ков, чертежей, схем, условных обозначений) либо другим способом (напри­мер, с помощью звуковых или световых сигналов, электрических и нервных импульсов, перепадов давления или температуры и т. д.).

    В середине XX века термин «информация» стал общенаучным поня­тием, включающим обмен сведениями между людьми, человеком и автома­том (электронной вычислительной машиной - ЭВМ), автоматом и автома­том, обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке, от организма к организму.

    Теоретические и практические вопросы, относящиеся к информации, изучает информатика.

    Информатика - наука, изучающая структуру и свойства информа­ции, а также вопросы, связанные с ее сбором, хранением, поиском, переда­чей, преобразованием, распространением и использованием в различных сферах человеческой деятельности.

    Еще одно определение информатики.

    Информатика - это область человеческой деятельности, связанная с процессами преобразования информации с помощью компьютеров.

    Дать однозначное определение информации трудно. Существует 4 подхода к определению информации:

    • обыденный (в смысле осведомление о положении дел, это информация, сообщаемая по телефону, передаваемая по радио и телевидению),
    • философский (информацию получает субъект об объекте в процессе познания; считается, что объект отражается в сознании субъекта),
    • кибернетический (информация --- это управляющий сигнал, передаваемый по линии связи, однако это скорее носитель информации, чем сама информация),
    • вероятностный (информация --- это мера уменьшения неопределенности состояния объекта исследования).

    Поговорим подробнее о вероятностном подходе, так как он позволяет ввести количественную меру информации. Этот подход и принят за основу в современной науке.

    Каждому объекту присуща какая либо неопределенность. Например, он может находиться в одном из нескольких фиксированных состояний. Упавшая монета находится в одном из двух состояний, игральный кубик - в одном из шести и т.д. В процессе испытания (бросание монеты, кубика) объект приобретает одно из возможных состояний. Следовательно, неопределенность состояния объекта при этом уменьшается. Тем самым испытатель получает какую-то информацию. Степень уменьшения неопределенности при испытании может быть разной. Она зависит от количества возможных состояний, и от их вероятностей.

    Вероятность - это величина в диапазоне от 0 до 1, характеризующая частоту появления того или иного состояния объекта при испытаниях.


    Понятно, что при выпадении наименее вероятного состояния получаем наибольшее количество информации. Если объект имеет n равновероятных состояний, то вероятность каждого из них равна 1/n. Например, вероятность выпадения одной из граней кубика при бросании равна 1/6, а вероятности выпадения орла (решки) при бросании монеты равна 0,5. Это означает, что из 1000 бросаний монеты реализуется примерно 500 выпадений орла (решки).

    Пристальное внимание к информатике связано с бурным ростом объема человеческих знаний, который порой называют «информационным взрывом». Общая сумма человеческих знаний изменялась раньше очень медленно. Затем процесс получения новых знаний получил заметное ускорение. Так, общая сумма человеческих знаний к 1800 г. удваивалась каждые 50 лет, к 1950 г. - каждые 10 лет, а к 1970 г. - каждые 5 лет, к 1990 г. -ежегодно

    Колоссальный объем информации передается по глобальной сети Ин­тернет, которая связывает страны, расположенные на разных континентах.

    Согласно отчету ComputerAlmanacIndustryInc., в 1998 г. во всем ми­ре свыше 147 млн человек имели доступ к Интернету, по сравнению с 61 млн. в 1996 г. В отчете названы 15 наиболее «сетевых» стран мира.

    Список возглавили США, где насчитывается 76,5 млн пользователей, затем следовали Япония и Великобритания с 9,75 млн и 8,1 млн пользовате­лей соответственно. В десятке «сильнейших» оказались Германия - 7,14 млн пользователей, Канада- 6,49 млн, Австралия- 4,36 млн, Фран­ция- 2,79 млн, Швеция- 2,58 млн, Италия 2,14 млн и Испания - 1,98 млн.

    Оставшиеся пять стран в списке пятнадцати были: Нидерланды - 1,96 млн пользователей Интернетом, Тайвань- 1,65 млн., Китай - 1,58 млн., Финляндия - 1,57 млн и Норвегия - 1,34 млн. Взятые вместе, эти 15 стран составляют 89% мирового «населения» Интернета.

    Таким образом, в настоящее время накоплен большой объем инфор­мации, обработать который вручную людям невозможно (в силу своих психофизических особенностей).

    Эффективным инструментом обработки большого объема информации является электронная вычислительная машина (ЭВМ).

    Одним из основных факторов ускорения научно-технического прогресса является широкое использование новых информационных технологий, под которыми понимается совокупность методов и средств сбора, обработки и передачи данных (первичной информации) для получения информации нового качества о состоянии объекта, процесса или явления на базе вычислительной и коммуникационной техники и широкого применения математических методов.

    Различают две формы представления информации - непрерывную (аналоговую) и прерывистую (цифровую, дискретную). Непрерывная форма характеризует процесс, который не имеет перерывов и теоретически может изменяться в любой момент времени и на любую величину (например, речь человека, музыкальное произведение). Цифровой сигнал может изме­няться лишь в определенные моменты времени и принимать лишь заранее обусловленные значения (например, только значения напряжений 0 и 3,5 В). Моменты возможного изменения уровня цифрового сигнала задает тактовый генератор конкретного цифрового устройства.

    Для преобразования аналогового сигнала в цифровой сигнал требуется провести дискретизацию непрерывного сигнала во времени, квантование по уровню, а затем кодирование отобранных значений.

    Дискретизация - замена непрерывного (аналогового) сигнала по­следовательностью отдельных во времени отсчетов этого сигнала. Наиболее распространена равномерная дискретизация, в основе которой лежит теоре­ма Котельникова.

    На рисунке схематично показан процесс преобразования аналогового сигнала в цифровой сигнал. Цифровой сигнал в данном случае может при­нимать лишь пять различных уровней. Естественно, что качество такого пре­образования невысокое. Из рисунка видно, что изменение цифрового сигнала возможно лишь в некоторые моменты времени (в данном случае этих момен­тов одиннадцать).

    После такого преобразования непрерывный сигнал представляют по­следовательностью чисел. Показанный на рисунке непрерывный сигнал за­меняется числами 2-3-4-4-4-3-2-2-3-4-4. Затем перечисленные десятичные числа преобразуют (кодируют) в последовательность единиц и нулей. Ре­зультаты данного преобразования можно представить таблицей:

    После такого преобразования непрерывный сигнал представляют по­следовательностью чисел. Показанный на рисунке непрерывный сигнал за­меняется числами 2-3-4-4-4-3-2-2-3-4-4. Затем перечисленные десятичные числа преобразуют (кодируют) в последовательность единиц и нулей.

    Первое представление об аналоговом и цифровом способах хранения и распространения информации можно получить, рассматривая два способа записи звуковых сигналов: аналоговую и цифровую аудиозаписи.

    При аналоговой аудиозаписи непрерывный электрический сигнал, формируемый источником звука на выходе микрофона, с помощью магнит­ной головки наносится на движущуюся магнитную ленту. Недостатком аналогового способа обработки информации является то, что копия бывает все­гда хуже оригинала.

    При цифровой аудиозаписи используется процесс выборки, заключающийся в периодическом измерении уровня (громкости) аналогового зву­кового сигнала (например, поступающего с выхода микрофона) и превраще­нии полученного значения в последовательность двоичных чисел. Для пре­образования аналогового сигнала в цифровой используется специальный конвертор, называемый аналогово-цифровой преобразователь (АЦП). Сигнал на выходе АЦП представляет собой последовательность двоичных чисел, которая может быть записана на лазерный диск или обработана ком­пьютером. Обратная конверсия цифрового сигнала в непрерывный сигнал осуществляется с помощью цифроаналогового преобразователя (ЦАП).

    Качество аналогово-цифрового преобразования характеризует пара­метр, называемый разрешением. Разрешение- это количество уровней квантования, используемых для замены непрерывного аналогового сигнала цифровым сигналом. Восьмиразрядная выборка позволяет получить только 256 различных уровней квантования цифрового сигнала, а шестнадцатираз­рядная выборка - 65 536 уровней.

    Еще один показатель качества трансформации непрерывного сигнала в цифровой сигнал - это частота дискретизации - количество преобразо­ваний аналог-цифра (выборок), производимое устройством в одну секунду.

    Этот показатель измеряют килогер­цами (килогерц - тысяча выборок в секунду). Типичное значение час­тоты дискретизации современных лазерных аудиодисков - 44,1 кГц.

    Имеется тенденция перехода к единому цифровому представлению всех видов информации. Глобальная сеть Интернет претендует на то, чтобы объединить все средства вещания и коммуникации, компьютерные, телефон­ные, радио- и видеосети, связав их в единое «киберпространство».

    1. 8 теории информации этот термин употребляется формальным образом для квантификации массива пунктов в терминах числа выборов, которые есть у каждого, имеющего дело с этими пунктами. По определению, количество информации, измеряемое в битах и сокращенно обозначаемое как Н, содержащееся в массиве равновероятных выборов, выражается как log2 N, где N – число выборов. Таким образом, ответ на вопрос: "Дождь идет?" – будет обеспечивать один бит информации, так как имеется только два выбора (да или нет) и log2 2=1. (Обратите внимание, что не имеет значения, истинен ответ или нет.) Если кто-то выбирает из 16 равновероятных альтернатив, этим выбором будет обеспечиваться 4 бита информации (log216 = 4). В общем, чем менее вероятно событие, тем большее количество информации передается с его возникновением.

    Интересно, что это употребление понятия информация параллельно тому, что физикам известно как энтропия или случайность. Когда множество сильно структурировано и не характеризуется случайностью, показатели и энтропии, и информации низкие. Это значение термина, следовательно, связано не с тем, что сообщено, но с тем, что могло бы быть сообщено; следовательно, его следует концептуально различать с 2. 2. Свободное значение: любой материал с содержанием. Это значение термина близко к стандартному значению в неспециальном употреблении. Информация здесь, в основном, любое знание, которое получено, обработано и понято. Когда понятие моделей обработки информации впервые вводилось в когнитивной психологии, термин информация использовался в значении 1. Однако трудность в определении того, сколько информации содержится в чем-то и, следовательно, обрабатывается кем-то, кто имеет дело с относительно прямым, но сложным сообщением (например, это предложение), быстро привела к смещению к значению 2.

    ИНФОРМАЦИЯ

    information; Information) относится ко всем тем данным, которые поступают к человеку извне по разным чувственно-перцептуальным и сенсорно-моторным каналам, а также к тем данным, которые уже переработаны центральной нервной системой, интериоризованы и реинтерпретированы человеком и представлены в его голове в виде ментальных репрезентаций. Когнитивный поворот в науке поставил в центр исследовательских интересов прежде всего когнитивную информацию как специфически человеческую информацию, приобретаемую в опыте познания мира при восприятии и обобщении этого опыта. Собственно предметом когнитивной науки является ментальная информация, которую Дж.Фодор определяет как «внутренний код» ; Дж.Миллер и Ф.Джонсон-Лэрд под ментальной информацией подразумевают «концептуальную структуру» [Мiller, Johnson-Laird 1976]; Р.Джекендофф к задачам когнитивной теории относит изучение структуры ментальной информации и принципов «компьютации» (вычисления) этой информации . Ментальная информация имеет отношение к различным ментальным пространствам, содержание которых могут составлять как сведения реальном мире, так и о планах, убеждениях, интенциях и т.п. Концептуальная информация рассматривается как результат познавательной деятельности человека, как та содержательная информация, которая уже стала продуктом человеческой обработки и структурации знаний. Концептуальная информация возникает в процессе осмысления всей поступающей по разным каналам информации и может включать как сведения об объективном положении дел в мире, так и сведения о возможных мирах и положении дел в них.

    ИНФОРМАЦИЯ

    от лат. informatio – разъяснение, изложение) – первоначально – любые сведения, передаваемые людьми устным, письменным или др. способом; с середины ХХ в. – общенаучное понятие, включающее обмен сведениями между людьми, людьми и техническими устройствами, техническими устройствами, обмен сигналами в растительном и животном мире, передачу признаков от клетки к клетке, от организма к организму. В конфликтологии информационный подход к изучению и регулированию конфликтов пока не обоснован, необходимость и значение его не осознаны в силу молодости науки. Информационный подход в конфликтологии м. б. применен в четырех основных сферах. 1. Сфера исследования реальных конфликтов, каждый из которых можно подвергнуть системно-информационному анализу. Любые решения и действия участники конфликта предпринимают на основе информационных моделей конфликтной ситуации, имеющейся у них. Сам процесс конфликтного взаимодействия представляет собой обмен И. между участниками конфликта. Ключ к пониманию конфликтов лежит в исследовании информационной среды, в условиях и под воздействием которой они возникают, развиваются и завершаются. 2. Стереотипы поведения людей в конфликтах являются результатом информационного воздействия опыта жизни человека. Изучение того, какие виды И. и каким образом формируют неосознаваемые мотивы конфликтных действий человека в будущем, – важное направление исследования и регулирования конфликтов. 3. Воздействие третьей стороны на конфликт с целью его конструктивного разрешения носит информационный характер. Качественное информационное обеспечение управления конфликтом – ключевое условие успешной работы конфликтолога. 4. Сама конфликтология представляет собой научные знания о конфликтах, развитие которых подчинено законам получения, передачи и хранения И. В ХХ в. авторы 607 диссертаций по конфликтологии использовали при проведении исследований примерно 10 % И., имеющейся по проблеме в науке, которую они представляют, и примерно 1 % И. из смежных наук. Трудности в распространении конфликтологической И. тормозят развитие науки.

    ИНФОРМАЦИЯ

    от лат. informare - составлять понятие о чем-либо) - совокупность сведений, уменьшающих неопределенность в выборе различных возможностей. В инженерной психологии - любые изменения в управляемом процессе, отображаемые на информационной модели или непосредственно воспринимаемые оператором, а также команды, указания о необходимости осуществления тех или иных воздействий на процесс управления. Любое сообщение информативно, если оно представляет то, чего мы не знали до этого сообщения. Сообщение представляет собой совокупность сведений о некоторой физической системе. Применительно к деятельности оператора сообщение - это совокупность зрительных, акустических и иных сигналов, воспринятых в данный момент времени, а также «сигналов», хранимых в памяти оператора. Сообщение приобретает смысл (содержит определенное количество информации) только тогда, когда состояние системы заранее не известно, случайно, то есть системе заранее присуща какая-то степень неопределенности. В качестве меры неопределенности используется понятие энтропии. Неопределенность системы уменьшается при получении каких-либо сведений об этой системе. Чем больше объем полученных сведений, чем они более содержательны, тем большей информацией о системе можно располагать. Поэтому естественно количество информации измерять уменьшением энтропии той системы, для уточнения состояния которой предназначены эти сведения. Если исходная (априорная) энтропия системы была Н(Х), а после получения сведений об этой системе (напр., после обновления информации на средствах отображения) энтропия стала Н0 (Х), то количество полученной информации равно: 1 = Н(Х)-Н0 (Х). В том практически важном случае, когда после получения сведений состояние системы стало полностью определенным, т. е. Н0 (Х) = 0, количество полученной информации равно энтропии системы: 1 = Н(Х). Используемая в деятельности оператора И. классифицируется по ряду признаков. По назначению И. может быть командной (дает указания о необходимости проведения определенных действий) и осведомительной (дает представление о сложившейся ситуации). По своему характеру И. может быть релевантной (полезной в данной ситуации) и иррелевантной (бесполезной в данной ситуации; такая И. может оказаться и вредной с точки зрения эффективности работы оператора, тогда она называется помехой). И, наконец, с точки зрения полноты И. разделяется на избыточную и безызбыточную. Введение избыточности (изображение, естественный язык и т. п.) является эффективным средством борьбы с помехами, повышает помехоустойчивость работы оператора. Количество И., передаваемой операторам со средств отображения на органы управления, может существенно отличаться от количества поступившей И. (энтропии источника И.). Это отличие обусловлено, во-первых, тем, что, как и для технического канала связи, часть информации Н п6м может быть потеряна за счет воздействия помех. Во-вторых, количество И. увеличивается за счет использования дополнительной И. Она образуется за счет привлечения некоторых данных, хранимых в памяти оператора, а также в том случае, если в процессе решения задачи оператору нужно провести какие-либо вычисления, проверить логические условия или осуществить запоминание некоторой части информации. Поэтому в общем случае количество И., перерабатываемой оператором, равно Н = Н + Н - Н. Единицей измерения количества И. является двоичная единица, или бит. Бит - это энтропия простейшей системы, имеющей два равновероятных состояния. Одну двоичную единицу один бит) оператор получает при выборе одного из двух равновероятных сигналов. В инженерной психологии и эргономике изучаются такие характеристики И., как ее количество, ценность, достоверность, избыточность, безопасность, а также такие информационные процессы, как кодирование, сжатие, старение, рассеивание, воспроизведение И.