Ответ:

Преобразование информации из одной формы в другую знаковую форму называют кодированием. Для кодирования используют определенную систему знаков – алфавит. Количество знаков в алфавите может быть различным. Самый короткий алфавит состоит из двух знаков. Если для кодирования информации используется только два знака — 0 и 1, то кодирование называют двоичным. Информация закодированная таким способом является дискретной (цифровой), т.е. представляется просто набором двоичных цифр. Такой способ достаточно универсален. Он может использоваться для представления всех видов знаковой информации (в том числе числовых данных, тогда речь идет о двоичных числах), а также для представления аналоговой информации (изображений, звука и т.п.). В последнем случае речь идет об аналого-цифровом преобразовании (АЦП), в процессе которого исходная аналоговая информация подвергается дискретизации — разбиению на элементы, каждый из которых описывается конечным набором двоичных знаков.

Для записи текстовой (знаковой) информации всегда используется какой-либо язык (естественный или формальный). Всё множество используемых в языке символов называется алфавитом. Полное число символов алфавита называют его мощностью. При записи текста в каждой очередной позиции может появиться любой из N символов алфавита, т.е. может произойти N событий. Следовательно, каждый символ алфавита содержит iбит информации, где i определяется из неравенства: 2 i ≥ N. Тогда общее количество информации в тексте определяется формулой:

V = k * i , где V – количество информации в тексте; k – число знаков в тексте (включая знаки препинания и даже пробелы), i— количество бит, выделенных на кодирование одного знака.

Так как каждый бит – это 0 или 1, то любой текст может быть представлен последовательностью нулей и единиц. Именно так текстовая информация хранится в памяти компьютера.Присвоение символу алфавита конкретного двоичного кода — это вопрос соглашения, зафиксированного в кодовой таблице. В настоящее время широкое распространение получили кодовые таблицы ASCII и Unicode.

ASCII(American Standart Code for Informational Interchange — Американский стандартный код информационного обмена) используется достаточно давно. Для хранения кода одного символа выделено 8 бит, следовательно, кодовая таблица поддерживает до 2 8 = 256 символов. Первая половина таблицы (128 символов) — управляющие символы, цифры и буквы латинского алфавита. Вторая половина отводится под символы национальных алфавитов. К сожалению, в настоящее время существует целых пять вариантов кодовых таблиц для русских букв, поэтому тексты созданные в одной кодировке неверно отображаются в другой. (Наверное, Вы встречали русскоязычные сайты, тексты которых выглядят как бессмысленный набор знаков? Приходилось менять кодировку?).

Unicode — получил распространение в последние годы. Для хранения кода одного символа выделено 16 бит, следовательно, кодовая таблица поддерживает до 2 16 = 65536 символов. Такого пространства достаточно, чтобы в одном стандарте объединить все "живые" официальные (государственные) письменности. Кстати, стандарт ASCII вошел в состав Unicode.

Не нашли то, что искали? Воспользуйтесь поиском:

Лучшие изречения: Увлечёшься девушкой-вырастут хвосты, займёшься учебой-вырастут рога 9821 — | 7687 — или читать все.

1. Дискретное представление информации: двоичные числа; двоичное кодирование текста в памяти компьютера. Информационный объем текста.

Вся информация, которую обрабатывает компьютер должна быть представлена двоичным кодом с помощью двух цифр 0 и 1. Эти два символа принято называть двоичными цифрами или битами. С помощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилось причиной того, что в компьютере обязательно должно быть организованно два важных процесса: кодирование и декодирование.

Кодирование – преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код.

Декодирование – преобразование данных из двоичного кода в форму, понятную человеку.

С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде последовательности нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента:

0 – отсутствие электрического сигнала;

1 – наличие электрического сигнала.

Эти состояния легко различать. Недостаток двоичного кодирования – длинные коды. Но в технике легче иметь дело с большим количеством простых элементов, чем с небольшим числом сложных.

Вам приходится постоянно сталкиваться с устройством, которое может находится только в двух устойчивых состояниях: включено/выключено. Конечно же, это хорошо знакомый всем выключатель. А вот придумать выключатель, который мог бы устойчиво и быстро переключаться в любое из 10 состояний, оказалось невозможным. В результате после ряда неудачных попыток разработчики пришли к выводу о невозможности построения компьютера на основе десятичной системы счисления. И в основу представления чисел в компьютере была положена именно двоичная система счисления.

Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вида информации, а именно, что должно кодироваться: числа, текст, графические изображения или звук.

Для записи информации о количестве объектов используются числа. Числа записываются с помощью набора специальных символов.

Система счисления — способ записи чисел с помощью набора специальных знаков, называемых цифрами.

Системы счисления подразделяются на позиционные и непозиционные .

В позиционных системах счисления величина, обозначаемая цифрой в записи числа, зависит от её положения в числе (позиции).

В непозиционных системах счисления величина, которую обозначает цифра, не зависит от положения в числе.

Непозиционные системы счисления.

Каноническим примером фактически непозиционной системы счисления является римская , в которой в качестве цифр используются латинские буквы: I обозначает 1, V — 5, X — 10, L — 50, C — 100, D — 500, M -1000. Натуральные числа записываются при помощи повторения этих цифр. При этом, если большая цифра стоит перед меньшей, то они складываются (принцип сложения), если же меньшая — перед большей, то меньшая вычитается из большей (принцип вычитания). Последнее правило применяется только во избежание четырёхкратного повторения одной и той же цифры.

Например, II = 1 + 1 = 2, здесь символ I обозначает 1 независимо от места в числе.

Для правильной записи больших чисел римскими цифрами необходимо сначала записать число тысяч, затем сотен, затем десятков и, наконец, единиц.

Пример: число 1988. Одна тысяча M, девять сотен CM, восемьдесят LXXX, восемь VIII. Запишем их вместе: MCMLXXXVIII.

MCMXCVIII = 1000+(1000-100)+(100-10)+5+1+1+1 = 1998

Позиционные системы счисления.

В позиционных системах счисления величина, обозначаемая цифрой в записи числа, зависит от её положения в числе (позиции). Количество используемых цифр называется основанием системы счисления .

Самой первой такой системой, когда счетным "прибором" служили пальцы рук, была пятеричная .

Следующей после пятеричной возникла двенадцатеричная система счисления. Возникла она в древнем Шумере. Некоторые учёные полагают, что такая система возникала у них из подсчёта фаланг на руке большим пальцем. Широкое распространение получила двенадцатеричная система счисления в XIX веке.

Следующая позиционная система счисления была придумана еще в Древнем Вавилоне, причем вавилонская нумерация была шестидесятеричная , т.е. в ней использовалось шестьдесят цифр! В более позднее время использовалась арабами, а также древними и средневековыми астрономами. Шестидесятеричная система счисления, как считают исследователи, являет собой синтез уже вышеупомянутых пятеричной и двенадцатеричной систем.

В настоящее время наиболее распространены десятичная , двоичная , восьмеричная и шестнадцатеричная системы счисления. Двоичная, восьмеричная (в настоящее время вытесняется шестнадцатеричной) и шестнадцатеричная система часто используется в областях, связанных с цифровыми устройствами, программировании и вообще компьютерной документации. Современные компьютерные системы оперируют информацией представленной в цифровой форме. Числовые данные преобразуются в двоичную систему счисления.

1. Дискретное представление информации: двоичные числа; двоичное кодирование текста в памяти компьютера. Информационный объем текста.

Человек воспринимает информацию с помощью органов чувств. При этом он стремится зафиксировать ее и представить в форме, доступной другим. Форма представления информации может быть различной. Один и тот же объект, например дом, можно изобразить графически в виде рисунка или выполнить чертеж в трех проекциях. Его можно описать в стихах или с помощью математических формул.

Форма представления информации зависит от цели, для которой она служит. Например. Запись решения квадратного уравнения на алгоритмическом языке или языке программирования в корне отличается от той формы записи, которая используется на уроках алгебры.

Рассмотрим представления чисел.

Числа записываются с использованием особых знаковых систем, которые называются системами счисления. Все системы счисления делятся на позиционные и непозиционные.

Система счисления – это способ записи чисел с помощью специальных знаков – цифр.

Числа: 123, 45678, 1 CXL

Цифры: 0, 1, 2, … I, V, X, L, …

Алфавит – это набор цифр.

Типы систем счисления:

      непозиционные – значение цифры не зависит от ее места (позиции) в записи числа; позиционные – зависит от ее места (позиции) в записи числа.

    Унарная – одна цифра обозначает единицу (1 день,
    1 камень, 1 баран, …)

    Римская: I – 1 (палец), V – 5 (раскрытая ладонь, 5 пальцев),
    X – 10 (две ладони), L – 50,
    C – 100 (Centum), D – 500 (Demimille),
    M – 1000 (Mille)

    Позиционная система: значение цифры определяется ее позицией в записи числа.

    Десятичная система: первоначально – счет на пальцах
    изобретена в Индии, заимствована арабами, завезена в Европу

    Алфавит: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9
    Основание (количество цифр): 10

    3 7 8 = 3·102 + 7·101 + 8·100

    Другие позиционные системы:

    двоичная, восьмеричная, шестнадцатеричная (информатика)

    двенадцатеричная (1 фут = 12 дюймов, 1 шиллинг = 12 пенсов)

    двадцатеричная (1 франк = 20 су)

    шестидесятеричная (1 минута = 60 секунд, 1 час = 60 минут)

    Cистемы счисления в компьютерах

    В XVII веке немецкий ученый Готфрид Лейбниц предложил уникальную систему представления чисел с помощью всего двух символов – 0 и 1. Сегодня этот способ повсеместно используется в технике, в том числе и в компьютерах и называется дискретным.

    Компьютер способен хранить только дискретно представленную информацию. Его память, как бы велика она ни была, состоит из отдельных битов, а значит, по своей сути дискретна.

    Язык компьютера — это язык двоичных чисел — двоичный алфавит, имеющий два знака, 1 и 0. Этим знакам в логике и технике приводят в соответствие понятия — да и нет, истина и ложь, включено и выключено. Такой алфавит называют еще бинарным. В соответствии с этим введена и наименьшая единица информации — бит (англ. bit, от binary — двоичный и digit — знак).
    Одного бита информации достаточно, чтобы передать слово "да" или "нет", закодировать, например, состояние электролампочки. Кстати, на некоторых выключателях пишут "1 —включено" и "0 — выключено". Взгляд на выключатель снимает для нас неопределенность в его состоянии. При этом мы получаем количество информации, равное одному биту.

    БИТ — наименьшая единица измерения информации, соответствующая одному разряду машинного двоичного кода.

    Двоичная кодировка (двоичная система счисления) имеет ряд преимуществ перед другими системами кодирования:

    Для ее реализации нужны технически не сложные элементы с двумя возможными состояниями (есть ток — нет тока, намагничен — не намагничен и т. д.). Представление информации посредством только двух состояний надежно и помехоустойчиво. Возможно применение особой алгебры логики (булевой алгебры) для выполнения логических преобразований информации. Двоичная арифметика намного проще десятичной. Двоичные таблицы сложения и умножения предельно просты.

      Обработка информации в компьютере основана на обмене электрическими сигналами между различными устройствами машины. Признак наличия сигнала можно обозначить цифрой 1, признак отсутствия — цифрой 0.

    ДВОИЧНОЕ КОДИРОВАНИЕ ТЕКСТА

    Для представления текста в компьютере используется 256 различных знаков. Для кодирования 1 знака отводится 8 битов.

    Кодирование – присвоение каждому символу десятичного кода от 0 до 255 или соответствующего ему двоичного кода от до

    Присвоение символу определенного кода – это вопрос соглашения, которое фиксируется в кодовой таблице.

    В качестве международного стандарта была принята кодовая таблица ASCII (American Standard Code for Information Interchange) :

    Коды с 0 по 32 (первые 33 кода) — коды операций (перевод строки, ввод пробела, т. е. соответствуют функциональным клавишам);

    Коды с 33 по 127 – интернациональные, соответствуют символам латинского алфавита, цифрам, знакам арифметических операций, знакам препинания;

    Коды с 128 по 255 – национальные, т. е. кодировка национального алфавита.

    на 1 символ отводится 1 байт (8 бит), всего можно закодировать 28 = 256 символов

    С 1997 года появился новый международный стандарт Unicode, который отводит для кодировки одного символа 2 байта (16 бит), и можно закодировать 65536 различных символов (Unicode включает в себя все существующие, вымершие и искусственно созданные алфавиты мира, множество математических, музыкальных, химических и прочих символов)

    В настоящий момент существует пять кодировок кириллицы: КОИ-8, CP1251, CP866, ISO, Mac. Для преобразования текстовых документов из одной кодировки в другую существуют программы которые называются Конверторы

    Чтобы подсчитать информационный объем текста необходимо количество информации, которое несет один символов, умножить на количество символов в тексте: