Что понимается под битом информации. Большая энциклопедия нефти и газа. Как измеряется количество информации

Отчет по лабораторным работам

ИНФОРМАТИКА

Курс 1 ЗЭЭ

Выполднил

Багинский М.Н

Мойсюк А.В

Проверил

Костюкевич В.М

Петрозаводск 2015

1.1. Что означает термин "информатика " и каково его происхождение?. 3

1.2. Какие области знаний и административно-хозяйственной деятельности официально закреплены за понятием «информатика» с 1978года. 3

1.3. Какие сферы человеческой деятельности и в какой степени затрагивает информатика? 3

1.4. Назовите основные составные части информатики и основные направления её применения. 3

1.5. Что подразумевается под понятием "информация" в бытовом, естественно-научном и техническом смыслах?. 4

1.6. Приведите примеры знания фактов и знания правил. Назовите новые факты и новые правила, которые Вы узнали за сегодняшний день. 5

1.7. От кого (или чего) человек принимает информацию? Кому передает информацию? 5

1.8. Где и как человек хранит информацию?. 5

1.9. Что необходимо добавить в систему "источник информации - приёмник информации", чтобы осуществлять передачу сообщений?. 6

1.10. Какие типы действий выполняет человек с информацией?. 6

1.11. Приведите примеры ситуаций, в которых информация. 6

1.12. Приведите примеры обработки информации человеком. Что является результатами этой обработки?. 7

1.13. Список использованной литературы…………………………………………...17

1.1. Что означает термин "информатика " и каково его происхождение?

Термин "информатика " (франц. informatique) происходит от французских слов information (информация ) и automatique (автоматика ) и дословно означает "информационная автоматика

Инфоpматика - это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

1.2. Какие области знаний и административно-хозяйственной деятельности официально закреплены за понятием «информатика» с 1978года

1978 году международный научный конгресс официально закрепил за понятием "информатика" области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации - массового внедрения компьютерной техники во все области жизни людей.

1.3. Какие сферы человеческой деятельности и в какой степени затрагивает информатика?

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни

1.4. Назовите основные составные части информатики и основные направления её применения.

Инфоpматика - комплексная научная дисциплина с широчайшим диапазоном применения. Её приоритетные направления:

Pазpаботка вычислительных систем и пpогpаммного обеспечения;

Теоpия инфоpмации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;

Математическое моделирование, методы вычислительной и прикладной математики и их применение к фундаментальным и прикладным исследованиям в различных областях знаний;

Методы искусственного интеллекта, моделирующие методы логического и аналитического мышления в интеллектуальной деятельности человека (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);

Системный анализ, изучающий методологические средства, используемые для подготовки и обоснования решений по сложным проблемам различного характера;

Биоинформатика, изучающая информационные процессы в биологических системах;

Социальная информатика, изучающая процессы информатизации общества;

Методы машинной графики, анимации, средства мультимедиа;

Телекоммуникационные системы и сети, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;

Разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.

1.5. Что подразумевается под понятием "информация" в бытовом, естественно-научном и техническом смыслах?

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше";

В технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

В кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы

1.6. Приведите примеры знания фактов и знания правил. Назовите новые факты и новые правила, которые Вы узнали за сегодняшний день.

1.7. От кого (или чего) человек принимает информацию? Кому передает информацию?

Информация передаётся в форме сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

канал связи

ИСТОЧНИК ----------- ПРИЁМНИК

1. Cообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника - специалиста-метеоролога посредством канала связи - телевизионной передающей аппаратуры и телевизора.

2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.) воспринимает информацию из внешнего мира, перерабатывает её в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе своей жизнедеятельности.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

1.8. Где и как человек хранит информацию?

Текстов, рисунков, чертежей, фотографий;

Световых или звуковых сигналов;

Радиоволн;

Электрических и нервных импульсов;

Магнитных записей;

Жестов и мимики;

Запахов и вкусовых ощущений;

Хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д

1.9. Что необходимо добавить в систему "источник информации - приёмник информации", чтобы осуществлять передачу сообщений?

Информация передаётся в форме сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними.

1.10. Какие типы действий выполняет человек с информацией?

Информацию можно:

1. создавать;

2. передавать

3. воспринимать

4. использовать

5. запоминать

6. принимать

7. копировать

8. преобразовывать

9. комбинировать

10. обрабатывать

11. делить на части

12. упрощать

13. хранить

14. искать

15. измерять

16. разрушать

1.11. Приведите примеры ситуаций, в которых информация

а) создается: книга

б) копируется: ксерокс

в) передается: радио

г) обрабатывается: компьютерные программы

д) воспринимается: глаза уши

е) разрушается: помехи в радиосигнале

ж) запоминается: головной мозг человека

з) измеряется: бит

и) ищется: сми интернет

к) принимается: скачивание фильма с интернета

л) делится на части: книга в двух томах

1.12. Приведите примеры обработки информации человеком. Что является результатами этой обработки?

А) Сбор информации в библиотеке, Б) анализ и выбор нужной информации,в) написание реферата по своей теме.

1.13. Приведите примеры информации:

· а) достоверной и недостоверной

· б) полной и неполной

Выпал снег (неполная инфо).

· в) ценной и малоценной;

Курс евро на сегодня равен 40 р (ценная инфо).

В Токио сегодня идет дождь (малоценная инфо).

· г) своевременной и несвоевременной

Начинается гроза (своевременная инфо).

Вчера в магазине была распродажа (несвоевременная инфо).

· д) понятной и непонятной

Понятная информация - на русском языке.

Непонятная информация - на китайском языке.

· е) доступной и недоступной для усвоения;

Человеку, знающему английский язык дали почитать книгу, написанную на английском языке – инфо будет доступна ему, а если он не знает английского, то информация будет не доступна.

· ж) краткой и пространной

Лук - это овощ.

Лук – это огородное или дикорастущее растение семейства лилейных с острым вкусом луковицы и съедобными трубчатыми листьями.

1.14. Назовите системы сбора и обработки информации в теле человека.

Головной мозг. Органы обоняния, осязания, слух, зрение.

1.15. Приведите примеры технических устройств и систем, предназначенных для сбора и обработки информации.

Видео камера, фотоаппарат, диктофон, компьютер, и др.

1.16. От чего зависит информативность сообщения, принимаемого человеком?

Сообщение информативно, если он содержит новые и понятные сведенья для принимающего его человека.

1.17. Почему количество информации в сообщении удобнее оценивать не по степени увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний о нём?

Количество информации зависит от новизны сведений об интересном для получателя информации явлении. Иными словами, неопределенность (т.е. неполнота знания) по интересующему нас вопросу с получением информации уменьшается. Если в результате получения сообщения будет достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что была получена исчерпывающая информация. Это означает, что необходимости в получении дополнительной информации на эту тему нет. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация).

1.18. Как определяется единица измерения количества информации?

1 бит – количество информации в сообщении, уменьшающем неопределенность знаний человека в 2 раза.

1.19. В каких случаях и по какой формуле можно вычислить количество информации, содержащейся в сообщении?

Подходы к определению количества информации. Формулы Хартли и Шеннона.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log 2 100  6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Приведем другие примеры равновероятных сообщений :

1. при бросании монеты: "выпала решка" , "выпал орел" ;

2. на странице книги: "количество букв чётное" , "количество букв нечётное" .

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина" . Однозначно ответить на этот вопрос нельзя . Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе .

Легко заметить, что если вероятности p 1 , ..., p N 1 / N

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями .

1.20. Почему в формуле Хартли за основание логарифма взято число 2?

Бит, единица информации имеет 2 состояния.

1.21. При каком условии формула Шеннона переходит в формулу Хартли?

Если вероятности p 1 , ..., p N равны, то каждая из них равна 1 / N , и формула Шеннона превращается в формулу Хартли.

1.22. Что определяет термин "бит" в теории информации и в вычислительной технике?

Бит в теории информации - количество информации, необходимое для различения двух равновероятных сообщений (типа "орел"-"решка", "чет"-"нечет" и т.п.).

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

1.23. Приведите примеры сообщений, информативность которых можно однозначно определить.

Прогноз погоды на завтра: ожидается переменная облачность, небольшой снег, возможен туман; ночью -11..13°, днем -9..-11°, ветер западный, умеренный.

Курс евро на завтра составит 40 руб.13 коп.

1.24. Приведите примеры сообщений, содержащих один (два, три) бит информации.

Пример 1: Вы бросаете монету, загадывая, что выпадет: орел или решка?

Решение: Есть два варианта возможного результата бросания монеты. Ни один из этих вариантов не имеет преимущества перед другим (равновероятны ). Перед подбрасыванием монеты неопределенность знаний о результате равна двум.

После совершения действия неопределенность уменьшилась в 2 раза. Получили 1 бит информации.

Ответ: Результат подбрасывания монеты принес 1 бит информации.

Пример 2 : Студент на экзамене может получить одну из четырех оценок: 5, 4, 3, 2. Учится неровно и с одинаковой вероятностью может получить любую оценку. После сдачи экзамена, на вопрос: «Что получил?» - ответил: «Четверку». Сколько бит информации содержится в его ответе?

Решение: Если сразу сложно ответить на вопрос, то можно отгадать оценку, задавая вопросы, на которые можно ответить только «да» или « нет», т.е. поиск осуществляется отбрасыванием половины вариантов.

Вопросы будем ставить так, чтобы каждый ответ уменьшал количество вариантов в два раза и, следовательно, приносил 1 бит информации.

1 вопрос: -Оценка выше тройки? - ДА

(число вариантов уменьшилось в два раза.) Получен 1 бит информации.

2 вопрос: -Ты получил пятерку? - НЕТ

(выбран один вариант из двух оставшихся: оценка – «четверка».) Получен еще 1 бит.

В сумме имеем 2 бита.

Ответ: Сообщение о том, что произошло одно из четырех равновероятностных событий несет 2 бита информарции.

Пример 3: На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?

1 вопрос: - Книга лежит выше четвертой полки? - НЕТ (1, 2, 3, 4) - 1 бит

2 вопрос: - Книга лежит ниже третьей полки? - ДА (1, 2) - 1 бит

3 вопрос: - Книга – на второй полке? - НЕТ (1) - 1 бит


Похожая информация.


Лекция 2. Свойства информации. Количество информации. Понятие алгоритма.

Краткие итоги

В лекции были рассмотрены понятии информатика и информатизация. Описано как передается и в каком виде существует информация.

Контрольные вопросы

1. Что изучает Информатика?

2. Что понимается под информацией?

3. Что называется информационными процессами?

4. Дайте определение, что такое технические средства.

5. Дайте определение, что такое программное обеспечение и что оно в себя включает.

6. Что означает термин Brainware?

7. Дайте определение Информационным объектам.

8. Дайте примеры передачи сообщений.

9. Опишите процесс передачи сообщений.


Лекция 2. Свойства информации. Количество информации. Понятие алгоритма.

В лекции рассматривается общий смысл понятий алгоритма, количество информации, какими свойствами обладает информация. Понятия информатизация общества

Цель лекции: Понять, как измеряется количество информации. В лекции рассматривается понятия бита и байта информации.

Какими свойствами обладает информация?

Свойства информации:

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел.

Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному, излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях

Как измеряется количество информации?

Возможно, ли объективно измерить количество информации? На этот вопрос ученые до сих пор не могут дать точный ответ. Как, например можно измерить информацию, которая содержится в литературных произведениях Пушкина, Лермонтова, Достоевского. Важнейшим результатом теории информации является следующий вывод: В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

В настоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте. Эти подходы используют математические понятия вероятности и логарифма.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log 2 100  6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Приведем другие примеры равновероятных сообщений :

1. при бросании монеты: «выпала решка» , «выпал орел»;

2. на странице книги: «количество букв чётное» , «количество букв нечётное» .

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина" . Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Легко заметить, что если вероятности p 1 , ..., p N равны, то каждая из них равна 1 / N , и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

В качестве единицы информации Клод Шеннон предложил принять один бит (англ . bit - binary digit - двоичная цифра).

Бит в теории информации - количество информации, необходимое для различения двух равновероятных сообщений (типа «орел»-«решка», «чет»-«нечет» и т.п.).

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Бит - слишком мелкая единица измерения. На практике чаще применяется более крупная единица - байт , равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8).



Широко используются также ещё более крупные производные единицы информации:

· 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

· 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

· 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

· 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

· 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит ), а десятичная (дит ) единица информации.

При этом важно отличать двоичные кратные приставки от соответствующих десятичных:

«один К» – 1 К=210=1024 от «один кило» – 103=1000,

«один М» – 1 М=220=1048576 от «один мега» – 106=1000000 и т.д.

Этим часто злоупотребляют производители компьютерной техники, в частности, производители жестких магнитных дисков, которые при указании их информативной емкости используют меньшую единицу измерения с тем, чтобы результирующее значение выражалось большим числом (как в известном мультфильме – "А в попугаях-то я длиннее!").

Информация относится к фундаментальным, неопределяемым понятиям науки информатика. Тем не менее смысл этого понятиядолжен быть разъяснен. Предпримем попытку рассмотреть это понятие с различных позиций.

Термин информация происходит от латинского слова informatio , что означает сведения, разъяснения, изложение . В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

    в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

    в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

    в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

    в теории информации под информацией понимают сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация может существовать в виде:

    текстов, рисунков, чертежей, фотографий;

    световых или звуковых сигналов;

    радиоволн;

    электрических и нервных импульсов;

    магнитных записей;

    жестов и мимики;

    запахов и ощущений;

    хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т.д.

Свойства информации

Свойства информации (с точки зрения бытового подхода к определению);

    релевантность - способность информации соответствовать нуждам потребителя;

    полнота;

    своевременность;

    достоверность;

    доступность;

    защищенность;

    эргономичность - свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

С этой точки зрения свойства информации:

    запоминаемость;

    передаваемость;

    воспроизводимость

    преобразуемость

    стираемость.

Фундаментальное свойство информации - преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Высшей формой информации, проявляющейся - в управлении в социальных системах, являются знания.

Информационные процессы

Под информационным понимают процесс, связанный с определенными операциями над информацией в ходе которого может измениться содержание информации или форма ее представления.

В информатике к таким процессам относят:

получение,

хранение,

передачу,

обработку,

использование информации.

Определение количества информации

Вероятностный подход к измерению информации

Любая информация может рассматриваться как уменьшение неопределенности наших знаний об окружающем мире (в теории информации принято говорить именно об уменьшении неопределенности, а не об увеличении объема знаний). Случайность события заключается в том, что реализация того или иного исхода имеет некоторую степень неопределенности. Пусть, например, абсолютно незнакомый нам ученик сдает экзамен, результатом которого может служить получение оценок 2, 3, 4 или 5. Поскольку мы ничего не знаем о данном ученике, то степень неопределенности всех перечисленных результатов сдачи экзамена совершенно одинакова. Напротив, если нам известно, как он учится, то уверенность в некоторых исходах будет больше, чем в других: так, отличник скорее всего сдаст экзамен на пятерку, а получение двойки для него - это нечто почти невероятное. Наиболее просто определить количество информации в случае, когда все исходы события могут реализоваться с равной долей вероятности . В этом случае для вычисления информации используется формула Хартли .

В более сложной ситуации, когда исходы события ожидаются с разной степенью уверенности, требуются более сложные вычисления по формуле Шеннона , которую обычно выносят за рамки школьного курса информатики. Очевидно, что формула Хартли является некоторым частным случаем более общей формулы Шеннона.

Формула Хартли была предложена в 1928 году американским инженером Р.Хартли. Она связывает количество равновероятных состояний N с количеством информации I в сообщении о том, что любое из этих состояний реализовалось.

Наиболее простая форма для данной формулы зафиксируется следующим образом:

2 I = N

Причем обычно значение N известно, а I приходится подбирать, что не совсем удобно. Поэтому те, кто знает математику получше, предпочитают преобразовать данную формулу так, чтобы сразу выразить искомую величину I в явном виде:

I = log 2 N

Единица информации носит название бит (от англ. Вinary digiT - двоичная цифра); таким образом, 1 бит - это информация о результате опыта с двумя равновероятными исходами.

Чем больше возможных исходов, тем больше информации в сообщении о реализации одного из них.

Пример 1. Из колоды выбрали 16 карт (все “картинки” и тузы) и положили на стол рисунком вниз. Верхнюю карту перевернули (дама пик). Сколько информации будет заключено в сообщении о том, какая именно карта оказалась сверху? Все карты одинаковы, поэтому любая из них могла быть перевернута с одинаковой вероятностью. В таких условиях применима формула Хартли. Событие, заключающееся в открытии верхней карты, для нашего случая могло иметь 16 возможных исходов. Следовательно, информация о реализации одного из них равняется

I = log 2 16 = 4 бита

Примечание. Если вы не любите логарифмы, можно записать формулу Хартли в виде 2 i = 16 и получить ответ, подбирая такое I , которое ей удовлетворяет.

Алфавитный (объемный) подход к измерению информации

Он заключается в определении количества информации в каждом из знаков дискретного сообщения с последующим подсчетом количества этих знаков в сообщении. Пусть сообщение кодируется с помощью некоторого набора знаков. Заметим, что если для данного набора установлен порядок следования знаков , то он называется алфавитом . Пусть алфавит, с помощью которого записываются все сообщения, состоит из N символов . Для простоты предположим, что все они появляются в тексте с одинаковой вероятностью. Тогда применима формула Хартли для вычисления информации

Вероятностная мера

Общая оценка количества информации, названная вероятностной мерой, была разработана американским инженером-связистом и ученым Клодом Шенноном в 1948 г в известных работах по теории информации. С этого времени началось интенсивное развитие теории информации вообще и углубленное исследование вопроса об измерении ее количества в системах телекоммуникации в частности.

Формула Шеннона .

Здесь: I – количество информации, получаемое в результате проведения опыта; N – общее количество исходов в опыте; p i – вероятность i-го исхода.

Если вероятности всех исходов в опыте равны p 1 = p 2 = . . . = p n = 1/N (бросание монеты, игрального кубика, вытаскивание карты из колоды и т.п.), то формула Шеннона превращается в формулу Хартли (1928 г.): I = log 2 N.

Как видно, в результате произведенных выкладок получилась уже известная нам логарифмическая мера.

Таким образом, по формуле Шеннона под количеством информации понимается уменьшение неопределенности о состоянии какой-либо системы.

Известны различные формы представления информации. Однако, элек­тронно-вычислительная машина – это техническое устройство, основанное на работе электронных компонентов, а значит, обладающее определенными фи­зическими характеристиками. Поэтому, информация, предназначенная для ЭВМ, должна иметь физическое представление, причем это представление должно быть наиболее простым.

Этим требованиям отвечает, так называемое, битовое представление информации, основанное на двоичной системе счисления, при котором каждая запоминаемая частица может принимать только два значения - либо 0, либо 1. В технических устройствах двоичная система счисления используется для обозначения систем с двумя возможными состояниями. Например:

1 - есть отверстие, 0 - нет отверстия;

1 - включено, 0 - выключено;

1 - есть напряжение, 0 - нет напряжения.

Причем каждая двоичная цифра содержит один бит информации.

За единицу информации 1 бит (binary digit – двоичная единица) принимается количество информации, получаемое в результате проведения опыта, состоящего в выборе одного из двух равновероятных исходов.

Бит действительно является очень маленьким объемом хранения информации, содержащим всего два состояния: 0, 1. Если объединить два бита в одно целое, то в таком объеме можно хранить уже 4 состояния: 00, 01, 10, 11. Если объединить три, то появляется возможность для хранения еще большей информации: 000, 001, 010, 011, 100, 101, 110, 111. И так далее. Таким образом, объем информации, записанной двоичными знаками (0 и 1) в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. Напри­мер, восьмиразрядный двоичный код 11001011 имеет объем дан­ных V= 8 бит.



Чтобы было нагляднее, изобразим это в таблице:

На практике чаще применяется более крупная единица измерения – байт (1 байт = 8 бит), а также производные от него единицы измерения информации.

Для измерения больших объемов информации используются следующие единицы:

1 Кб (один килобайт)= 1024 байт=2 10 байт
1 Мб (один мегабайт)= 1024 Кб=2 10 Кбайт=2 20 байт
1 Гб (один гигабайт)= 1024 Мб=2 10 Mбайт=2 30 байт
1Тбайт (один терабайт)=2 10 Гбайт=1024Гбайт=2 40 байт
1Пбайт(один петабайт)=2 10 Тбайт=1024Тбайт=2 50 байт
1Эбайт(один экзабайт)=2 10 Пбайт=1024Пбайт=2 60 байт
1Збайт(один зетабайт)=2 10 Эбайт=1024Эбайт=2 70 байт
1Йбайт(один йотабайт)=2 10 Збайт=1024Збайт=2 80 байт.

Следует обратить внимание, что в системе измерения двоичной (компьютерной) информации, в отличие от метрической системы, единицы с приставками «кило», «мега» и т. д. получаются путем умножения основной единицы не на 10 3 = 1000, 10 6 = 1000 000 и т. д., а на 2 10 , 2 20 и т. д.

Двоичный разряд, двоичное число по-английски Bi naryDigit . Из трех букв этих слов образовали звонкое словоbit , которое уже было в английском языке (bit– кусочек, кусок). В информатике оно имеет то же значение, что иBi naryDigit , но ему добавили и новый смысл.

Бит – единица информации и единица представления информации в компьютере.

Бит (один разряд двоичного числа) может принимать два значения: 0 или 1. В десятичных числах один разряд может принимать значения от 0 до 9. Если число одноразрядное (однобитовое), то 0 или 1 – это значение числа и цифры числа, которые в этом случае совпадают.

Поскольку компьютер может обрабатывать только двоичные числа, кодировать информацию можно только этими двоичными числами. В этом случае мы можем сказать, что азбука, используемая для кодирования информации, состоит из двух символов (чисел) 0 и 1.

Одноразрядным двоичным числом, т. е. одним битом, можно закодировать всего два символа, так как он принимает только два значения – 0 или 1. А десятичное одноразрядное число позволит нам закодировать 10 символов, ибо оно может иметь 10 значений – от 0 до 9.

Теперь используем для кодирования двухразрядные числа. Тогда в десятичной системе счисления можем использовать для кодирования числа от 0 до 99, т.е. 100 чисел. И закодировать можем 100 символов, в 10 раз больше, чем при кодировании одноразрядными числами.

Аналогичная закономерность имеет место и при увеличении разрядности двоичных чисел. Двухразрядным двоичным числом можем закодировать 4 символа, так как возможных чисел тоже 4: 00, 01, 10, 11, т. е. в два раза больше, чем одноразрядным. Можно проверить, что трехразрядным двоичным числом можно закодировать символов в 2 раза больше, чем двухразрядным. Обобщая эту закономерность, получаем простую формулу для определения количества символов S , которое можно закодироватьn – разрядными двоичными числами:

S = 2 n

Двоичное n -разрядное число, которое используется для кодирования информации в компьютере, называется байтом .

Из этого определения следует и другое определение байта:

Байт – единица обработки информации в компьютере, так как по значению байта можно узнать, какой символ им закодирован.

Если используются для кодирования другие n-разрядные двоичные числа, то они обязательно берутся кратными байту.

Байт сначала имел 6, затем 7 разрядов (битов), а теперь он равен 8-ми битам.

Одно из значений перевода английских слов bit и bite кусочек. Считая кусочек частью целого, бит, действительно, – часть двоичного числа. Если байтом кодируются буквы, символы, из которых строятся слова, то и байт выражает часть слова.

Байты используются также для измерения объема памяти, оперативной и внешней, размеров файлов. Но в этом случае применяются более крупные единицы измерений. Например, Килобайты (Кб), Мегабайты (Мб) Гигабайты (Гб), Терабайты (Тб):

1 Кб = 1024 байт = 2 10 байт

1 Мб = 1024 Кб= 2 10 Кб

1 Гб = 1024 Мб= 2 10 Мб

1 Тб = 1024 Гб= 2 10 Гб

Кодирование целых и действительных чисел

Целые числа кодируются двоичным кодом достаточно просто - достаточно взять целое число и делить его пополам до тех пор, пока в остатке не образуется ноль или единица. Полученный результат деления снова так же делить. И эту процедуру деления продолжаем до тех пор, пока результат деления не окажется меньше 2. Совокупность остатков от каждого деления, записанная справа налево вместе с последним остатком, и образует двоичный аналог десятичного числа.

19:2 = 9 + 1 9:2=4+1 4:2=2+0 2:2 = 1

Таким образом, 19 10 = 1011 2 .

Для кодирования целых чисел от 0 до 255 достаточно иметь 8 разрядов двоичного кода (8 бит). Шестнадцать бит позволяют закодировать целые числа от 0 до 65 535, а 24 бита - уже более 16,5 миллионов разных значений.

Для кодирования действительных чисел используют 80-разрядное кодирование. При этом число предварительно преобразуется в нормализованную форму:

3,1415926 = 0,31415926-10 1

300 000 = 0,3-10 6

123 456 789 = 0,123456789 10 1 /

Первая часть числа называется мантиссой, а вторая - характеристикой. Большую часть из 80 бит отводят для хранения мантиссы (вместе со знаком) и некоторое фиксированное количество разрядов отводят для хранения характеристики (тоже со знаком).