На тему цензуры в Интернете.
Jason Kottke приводит очень смешные данные по смене файла robots.txt на сайте Белого Дома. Для людей далёких от веб-дизайна и сетевой оптимизации, robots.txt - это файл, дающий команды поисковым ботам, что индексировать (добавлять в результаты поиска), а что не индексировать. Как правило, используется именно для указания того, что в поисковые результаты Гугла, Яндекса или Яху попасть не должно.
Итак,
вчерашний robots.txt: 2400 записей сокрыто от “глаз” поисковых ботов. Интересны такие папки как:
Disallow: /360pics/text
Disallow: /911/911day/text
Disallow: /911/heroes/text
Disallow: /911/messages/text
Disallow: /911/patriotism/text
Disallow: /911/patriotism2/text
Disallow: /911/progress/text
Disallow: /911/remembrance/text
Disallow: /911/response/text
Disallow: /911/sept112002/text
Disallow: /911/text
А вот
“обамафицированный” robots.txt:
в котором лаконично стоит всего две строки.
User-agent: *
Disallow: /includes/
Безумно радует, что кто-то умудряется такие вещи отслеживать. Молодцы. Вот оно остриё информационной политики.
А теперь, внимание, сеанс патриотизма. Наш президент гораздо открытие (либо просто с менее компетентными IT-шниками, что, впрочем, мало вероятно) - на kremlin.ru (равно как и government.ru) вообще нет файла robots.txt :))
Информационные вызовы, уверен, станут весьма важной проблемой для Обамы. Буквально сегодня произошла крупнейшая за историю утечка информации (ок.100 млн. персональных записей) - у процессингового оператора Heartland. В прошлом марте - утечка в TJX не смогла преодолеть барьер в 100 млн.
Оригинал лежит здесь:
Вы можете комментировать здесь или
тут.