Противоракетный зонтик в информационной войне

12 января, 09:04
Математическая модель информационной обороны



Забивание каналов информации «белым шумом» при обсуждении какой-либо проблемы в настоящее время воспринимается как метод ведения информационной войны. Лично я именно так воспринимаю ветки обсуждения между двумя оппонентами из сотен комментов с однотипными взаимными оскорблениями, которые идут по кругу. Но эта проблема началась не в эпоху Интернета 2.0. И на любой подобный хитрый манипуляционный замок всегда можно найти подходящим образом заточенный ключ.




Это актуально, т.к. кремлевские «информационные войска» применяют старый жуковский метод ведения войны – завалить противника пушечным информационным мясом, не сильно заботясь о его качестве (информационные бабы еще нарожают). При этом теория основного метода информационной обороны была разработана еще в середине прошлого века Клодом Шенноном, который для начала стал пытаться эту самую информацию измерять. Очевидно, что для оружия самым подходящим средством измерения были эти самые «мегатонны». Для быдлокодера в отношении информационного оружия ответ вроде бы тоже лежит на поверхности – мегабайты. Для быдлокопирайтора – это, конечно, магические «сбп» (символы без пробела).


Клод Шеннон смотрит на вас, как на символ без пробела


Однако в теории хранения и передачи информации все сильно упрощается. Четыре тома, исписанных буквами «ы» - это меньше, чем четыре тома, исписанных «шла Саша по шоссе и сосала сушку», а четыре тома «Капитала» больше, чем четыре тома, исписанных «шла Саша по шоссе и сосала сушку». Этот совершенно банальный и очевидный вывод приводит нас к решению вопроса о том, как можно бороться с такими явлениями, как флуд, спам и более сложный «белый шум», не прибегая к анальному огораживанию политикой «оппонент банится максимально быстро» (эта политика имеет обратную сторону, но сейчас не об этом).



Математическая сторона этого дела связана с вероятностью появления символа. Если символ в потоке встречается редко, то его появление несёт больше информации, если часто — то меньше. Каждый новый добавляет информацию. Согласно Шеннону, информация, добавленная каждым новым символом — это логарифм от вероятности его появления. Основание логарифма — количество символов в алфавите; если имеется только ноль и единица, то логарифм по основанию два. Всё понятно? Ежели всё понятно, то понятен и знак «минус» перед формулой, так как берется логарифм вероятности, которая по определению меньше единицы.

Но правильная оценка количества мегатонн только очень приблизительно характеризует источник генерируемой информации. По Шеннону такой характеристикой может быть математическое ожидание информации нового символа. Получилось, что чем более разнообразные символы генерит источник, и чем более случайно они распределены, тем больше количественно эта характеристика. Ничего не напоминает? Другими словами: чем более хаотичный поток генерит источник, тем больше эта характеристика.



В целом это и может являться теоретической базой в решении проблемы того, как искусственному интеллекту отличать правду и ложь. Именно это было, например, поднято в теме о дятле Шредингера. Таким образом, мы получаем работающий механизм, который превращает заряд в 150 мегатонн во 200-грамовый взрывпакет и дымовуху.