Компьютерная информация под защитой. Правовое и криминалистическое обеспечение безопасности компьютерной информации. Монография

         
Компьютерная информация под защитой. Правовое и криминалистическое обеспечение безопасности компьютерной информации. Монография
Александр Игоревич Сотов


Работа посвящена исследованию компьютерной информации и компьютерной техники с точки зрения ее правового статуса и правовой защиты. Раскрывается само понятие информации и ее тот эффект, который оказало на развитие человечества изобретение средств ее автоматической обработки. Особое внимание уделено правовому регулированию статуса компьютерной информации и информационных сетей, включая глобальную сеть Интернет. Отдельная глава посвящена правовому регулированию вопросов информационной безопасности и защиты информации. Также в книге исследованы вопросы уголовной ответственности за киберпреступления, их расследования и использования компьютерной информации в качестве доказательств.





Александр Сотов

Компьютерная информация под защитой. Правовое и криминалистическое обеспечение безопасности компьютерной информации: монография



Автор:

Александр Игоревич Сотов, канд. юрид. наук, доц. кафедры криминалистики МГУ им. М.В. Ломоносова




Глава I

Понятие компьютерной информации. Возникновение и эволюция





Значение информации в материальном мире


По аналогии с «каменным веком», «железным веком» современность часто называют информационным веком. Это обстоятельство, несмотря на субъективный характер, тем не менее, свидетельствует о той существенной роли, которую в окружающем мире играет информация.

Тем не менее, окончательной определенности о том, что следует понимать под термином «информация» до сих пор не имеется.

Например, одним из наиболее простых подходов является характеристика информации как «всех сведений, являющихся объектом хранения, передачи и преобразования»[1 - Я.Л.Шрайберг, М.В.Гончаров – Справочное руководство по основам информатики и вычислительной техники – М осква: Финансы и статистика, 1995]. Такая формулировка представляется не совсем удачной, поскольку вызывает вопрос – что же такое «сведения».

К числу наиболее известных попыток определить значение информации следует отнести формулировку К. Шеннона, согласно которой информация – это любой сигнал, который устраняет неопределенность, имеющуюся у получателя сигнала, относительно свойств, которыми обладает источник сигнала[2 - К. Шеннон, «Математическая теория связи» (A Mathematical Theory of Communication), перевод в сборнике Шеннон К. «Работы по теории информации и кибернетике». – М.: ИЛ, 1963. – 830 с., стр. 243–322)].

Пожалуй, именно это определение лучше всего позволяет понять роль информации в современном мире и стремительное развитие средств по ее обработке.

Прежде всего, следует отметить, что окружающий мир материален, то есть существует независимо от сознания индивида. Предметы материального мира, как живые так и неживые, не являются изолированными, но взаимодействуют друг с другом. Однако характер этого взаимодействия для неживых предметов кардинально отличается от того взаимодействия, которое характерно для живых существ. Влияние друг на друга неживых предметов предопределяется исключительно протеканием физических, химических и иных объективных реакций. У образований «мертвой материи» отсутствует возможность самостоятельного поведения.

Живые существа обладают возможностью совершать действия, напрямую не обусловленные воздействиями окружающего мира, но направленные на поддержание и продолжение их жизненного цикла в условиях изменяющейся окружающей среды. Такие действия можно назвать «поведением». Признаки поведения наиболее заметны для высокоразвитых организмов и менее очевидны для простейших живых образований, которые находятся на «границе» между живым и неживым мирами.

Основная цель поведения, как говорилось ранее – обеспечить сохранение организма (или совокупности организмов) в условиях изменения обстановки. Но прежде всего организм должен иметь возможность воспринять факт самого изменения. Пока никакого сигнала не поступило, организм не имеет оснований для изменения поведения, он пребывает в состоянии неопределенности относительно свойств окружающего мира. Но как только получен сигнал, в той или иной форме запускается механизм защитного реагирования – пчелы слетаются на запах меда, бутоны цветов закрываются перед началом дождя, армейское подразделение занимает свои позиции, участники торгов на бирже продают или покупают акции.

Информация и является тем самым сигналом, который поступает к живому организму из окружающего мира и позволяет ему совершать или не совершать определенные действия в зависимости от показателей окружающей среды в текущий момент времени, относительно которых у организма, благодаря сигналу, имеется определенность.

Таким образом, информацию можно охарактеризовать как форму взаимодействия между живым и неживым миром.

Если простейшие организмы способны только воспринимать информацию, то более развитые формы жизни также обладают сознанием – свойством, которое позволяет хранить и обрабатывать информацию. Благодаря сознанию организм способен правильно реагировать на изменения окружающей обстановки, даже если сигнал перестал действовать или дошел до получателя в искаженном виде.

Высшей формой сознания является разум, то есть способность создавать и обрабатывать сведения, которые не могут поступить от предметов материального мира (абстрактное мышление).

Таким образом, информацию можно определить как любой сигнал (независимо от его физической природы), исходящий от объектов материального мира, на основании которого субъекты поведения могут совершать определенные самостоятельные действия. В широком смысле информация является способом взаимодействия между материальным миром и сознанием.




Этапы развития информационных технологий


Человек выделяется из животного мира, прежде всего, своими уникальными возможностями по обращению с информацией. В ходе своей жизнедеятельности он постоянно осуществляет ее поиск, сбор, хранение, обработку, предоставление, распространение. Для этих видов деятельности человек вырабатывал определенные процессы и методы, совершенствовал способы их применения. В настоящее время процессы и методы выполнения операций с информацией, а также способы их практической реализации носят название информационных технологий[3 - Такое определение содержится в п.2 ст.2 Федерального закона от 27.07.2006 № 149-ФЗ "Об информации, информационных технологиях и о защите информации".].

На протяжении развития человечества можно отметить несколько наиболее существенных этапов, которые ознаменовали собой переход информационных технологий на качественно новый уровень[4 - Крылов В.В. «Современная криминалистика. Правовая информатика и кибернетика». М., изд. «ЛексЭст», 2007 г., стр. 36-37]:

I этап – возникновение членораздельной речи. Этот этап можно назвать стартовым. Именно речь сделала возможным информационный обмен между субъектами, причем позволила передавать сведения не только о конкретных, но и об абстрактных предметах.

II этап – появление письменности. На данном этапе появилась возможность перевести информацию на материальный носитель, что позволило наладить информационный обмен не только при непосредственном взаимодействии субъектов друг с другом, но даже при их проживании в различные временные периоды. Резко возросла сохраняемость информации, возможности по ее сбору, предоставлению и пр.

III этап – появление книгопечатания. Для указанного этапа характерно создание условий для действительно массового доступа людей к информации. На качественно новый уровень перешли процессы копирования и распространения информации.

IV этап – появление технических устройств, обрабатывающих информацию, которые сохраняют сведения в формализованном виде на носителе определенного типа, производят их кодировку-декодировку, передают, принимают и фиксируют на носителе того же типа. Возникшие на данном этапе информационные технологии решили задачу мгновенного информационного обмена, сделали доступным копирование и обработку практически неограниченных объемов информации, существенно повысили возможности по ее поиску и сбору.




Технические средства для хранения, обработки и передачи информации


Эволюция человеческой цивилизации самым тесным образом связана с развитием орудий труда. Именно благодаря этим орудиям человек преобразует окружающий мир для удовлетворения своих разнообразных потребностей.

Однако не следует забывать, что орудия труда – также вещи материального мира. Их взаимодействие с предметами труда предопределяется законами протекания физических, химических и иных реакций. Поскольку они не зависят от человека, ему приходилось прикладывать постоянные усилия, чтобы удерживать это взаимодействие в тех рамках, которые необходимы для получения желательного результата.

Способность замечать эти рамки, умение понять, когда взаимодействие должно начаться, когда оно должно быть изменено или прекращено, определяет степень профессионального мастерства работника. Опытные мастера ценились во все времена, и их руками создавались подлинные шедевры ремесла, однако основывать на них массовое производство было невозможно.

Проблема выпуска качественной продукции в больших масштабах была бы решена, если бы у орудий труда появилась возможность, которой традиционно обладали живые существа – воспринимать сигналы об изменяющейся обстановке и предпринимать соответствующие действия. Подобными свойствами обладали автоматические устройства, из которых первым можно признать ловушку для мамонтов. По мере развития материального производства сфера применения автоматических устройств росла, расширялась. Соответственно, расширялись и стоящие перед автоматическими устройствами задачи. Становились разнообразнее сигналы, которые должны были воспринимать устройства, усложнялись требуемые от них действия. В конечном счете, встал вопрос о создании таких устройств, способных взаимодействовать с окружающим миром на том же уровне, что и человек.

Основная проблема заключалась в том, что у обычных автоматических устройств определенному сигналу соответствует также одно заранее определенное действие. Иначе говоря, обычное автоматическое устройство не способно к «поведению». Требовалось создать устройство, которое могло бы не только получать информацию, но и обрабатывать ее – то есть, на основе полученного сигнала оценивать сведения об окружающей обстановке и совершать одно из нескольких возможных действий. Следствием этих требований являлась также способность к хранению информации – иначе устройство не могло бы оценить, насколько изменилась обстановка.

Результатом работы по разработке такого устройства явилось создание электронно-вычислительной машины (компьютера).

Таким образом, электронно-вычислительная машина (ЭВМ, компьютер) является результатом развития автоматических устройств, и ее отличительной чертой является способность не только воспринимать сигналы из окружающего мира, но и обрабатывать эту информацию.




ЭВМ: принцип действия, понятие, классификация


В силу предъявляемых требований ЭВМ должна была иметь:

• устройство для получения (ввода) информации;

• устройство для хранения информации (память);

• устройство для обработки информации (включает в себя два компонента: 1) арифметическо-логическое устройство, предназначенное для оценки ситуации и 2) устройство управления, предназначенное для выбора способа поведения);

• устройство для вывода результатов обработки информации.

Работа компьютера происходит следующим образом:

– устройство ввода информации воспринимает сигнал и преобразует его в устройство обработки информации;

– устройство обработки информации (арифметически-логический блок) преобразует сигнал в машинно-читаемый код, который передается в блок управления;

– блок управления разделен на ячейки, в каждой из которых «находится» определенная команда, способная производить действия с информацией;

– полученный сигнал активизирует команду из первой ячейки, которая может исполнять какую-либо из следующих операций:

• выполнение логических или арифметических операций с помощью арифметически-логического блока;

• чтение из памяти данных для выполнения арифметических или логических операций;

• запись результатов в память;

• ввод данных из внешнего устройства в память;

• вывод данных из памяти на внешнее устройство.

– после выполнения команды из первой ячейки активизируется следующая ячейка с другой командой. Однако этот линейный порядок может быть изменен с помощью команд передачи управления (перехода). Они заставляют устройство управления активизировать ячейки не одну за другой, а переходить туда, где находится необходимая для решения данной задачи команда.

– после выполнения последней команды результаты обработки информации выводятся на внешнее устройство.

Очевидно, что способности машины в целом определяются количеством ячеек в блоке управления и объемом содержащихся в них команд. Чем больше ячеек – тем больше команд, тем больше задач может решать машина. Например, в калькуляторе количество ячеек невелико, команд по обработке информации там немного. Поэтому калькулятор может работать с числовыми данными, но не способен производить операции с текстовыми или визуальными данными.








Необходимо отметить, что перед создателями первых вычислительных машин стояла проблема – должны ли устройство для хранения информации (память) и устройство для ее обработки находиться в разных аппаратах, или лучше их объединить.

У каждого решения были свои положительные и отрицательные качества.

Разделение памяти и управления позволяло упростить программирование, снижало возможность сбоев, облегчало работу пользователей. На первой машине, в которой память и управление разделялись («Марк I», разработанной в Гарвардском университете), данные хранились в электромеханических устройствах, а программы вводились с помощью перфорационных лент. Разумеется, операции с данными и операции с программами приходилось осуществлять по-разному. Однако это же повлекло увеличение размеров машины и появление дополнительных сложностей в ее обслуживании. Поскольку идея была выдвинута преподавателями Гарвардского университета (главный разработчик – Говард Эйкен), то принцип разделения «памяти» и «программы» в рамках вычислительного устройства получил наименование «гарвардской архитектуры».

Напротив, группа ученых Принстонского университета, членом которой являлся известный американский математик венгерского происхождения Джон (Янош) фон Нейман[5 - Burks A. W., Goldstine H. H., Neumann J. «Preliminary Discussion of the Logical Design of an Electronic Computing Instrument». Princeton, N. J., July 1946. О содержании статьи на русском языке см. Смирнов А. Д. «Архитектура вычислительных систем: Учебное пособие для вузов» – М.: Наука, 1990], полагала, что «память» и «программы» должны находиться в одном аппаратном устройстве. То есть, команды и числа, которые с помощью этих команд обрабатываются, находятся в одинаковых ячейках, которые последовательно обрабатываются. Это, в свою очередь, требовало, чтобы как данные, так и команды по их обработке, писались на одном и том же языке, причем и над программами, и над данными можно было выполнять одни и те же операции. Данный принцип, именуемый «принципом единства памяти», стал отличительным признаком «архитектуры фон Неймана».

Уязвимым местом неймановской архитектуры являлось введение данных. Устройство Эйкена могло принимать данные в привычной для человека десятичной форме исчисления. При такой форме все числа описываются с помощью десяти различных знаков – от 0 до 9.

Архитектура Неймана этого не позволяла. Но для решения проблемы группой Неймана был найден оригинальный путь, который, в конечном счете, и предопределил почти повсеместную победу «неймановской архитектуры», а также привел к появлению компьютера в традиционном понимании.

Этот путь заключался в использовании двоичного кода. При двоичном коде все числа записываются с помощью двух знаков – 0 и 1. В двоичном коде нулю соответствует 0, единице – 1, а вот число «2» в двоичном коде пишется как «10». «3» выражается «11», «4» – это 100 и т. д.

Существенным достоинством двоичного кодирования является то, что оно позволило «материализовать» информацию, перевести ее из области абстрактного сигнала в область «материала», который может быть подвергнут обработке с помощью технических средств. Сигнал либо есть (1), либо его нет (0). «Память» компьютера состоит из огромного количества элементарных электромагнитных устройств, которые либо испускают электрические импульсы (что для устройства обработки является 1), либо не испускают (это дает 0). Если сигнал меняется с 1 на 0, это означает уменьшение числа, то есть вычитание, а если с 0 на 1 – это сложение. Конечно, запись даже небольшого числа вроде 32 и арифметических операций с ним в двоичном коде выглядит очень громоздко, но скорость считывания сигналов уравновешивала все недостатки.

Первоначально элементарные устройства были заметных размеров, и считывание сигналов с них было относительно долгим. Но широкое внедрение полупроводников, микросхем и пр. позволили кардинально уменьшить размеры вычислительных устройств и одновременно повысить их быстродействие.

Тем не менее, вплоть до настоящего момента все компьютеры, как и их далекие предшественники, могут только складывать и вычитать числа, записанные в двоичном коде, но делают это гораздо быстрее.

Следует отметить, что использование двоичного кода далеко не сразу было признано единственно верным решением. Как уже говорилось, имелись варианты систем, работающих в десятичной системе. Можно также упомянуть оригинальный эксперимент, осуществленный в СССР при создании вычислительного устройства, работающего в троичном коде (машина «Сетунь»[6 - Н. А. Криницкий, Г. А. Миронов, Г. Д. Фролов. «Программирование», Государственное издательство физико-математической литературы, Москва, 1963 (Глава 10 Программно-управляемая машина «Сетунь»).]).

Благодаря двоичному коду появилась не только возможность аппаратной обработки информации. Ее стало возможным измерить. Элементарной единицей информации является бит. Он означает либо отсутствие сигнала (0 бит), либо наличие сигнала (1 бит). Соответственно, 1 в двоичном коде – 1 бит информации.

Но если компьютер как аппаратное устройство оперирует именно битами, то человек как пользователь должен пользоваться более привычными ему символами. Опытным путем было установлено, что все символы могут быть описаны для компьютера числами двоичного кода, не превышающими 8 разрядов (всего 256 чисел). Иначе говоря, символ (буква, пробел, цифра) может быть описан с помощью 8 бит. Это количество информации получило наименование «байт». Например, если в произведении 32 000 знаков (включая пробелы, можно сказать, что его информационный объем составляет 32 000 байт).

Следует отметить, что образование кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и так далее, что соответствует десятичным приставкам Кило (10


), Мега (10


), Гига (10


) и так далее. Поскольку компьютер оперирует числами не в десятичной, а в двоичной системе счисления, в кратных единицах измерения количества информации используется коэффициент 2n. Поэтому кратные байту единицы измерения количества информации вводятся следующим образом:

1 Кбайт = 2