Возможности поисковых запросов: доступ к ограниченной информации и даже сетевому оборудованию.

Jan 26, 2013 18:33



Как уже неоднократно писалось - в открытом доступе, с помощью поисковиков нередко можно найти документы, которые их владельцы явно не предназначали для посторонних глаз - достаточно лишь правильно написать поисковый запрос. Для этого, конечно, неплохо бы знать языки запросов поисковых машин, благо, они совсем несложные, а все операторы всегда под рукой - тут основные операторы Яндекса, тут - Google. Впрочем, для особо ленивых вполне подойдет и функция «расширенного поиска». Главное - понимать смысл задаваемого запроса.

Люди, зачастую, крайне беспечны и хранят документы там, куда нет явных ссылок и куда не попадёт обычный пользователь, считая это надежной защитой. Но туда легко добираются краулеры - роботы поисковых машин, чья задача - заносить в базу данных поисковика информацию. В результате, документ, который должен был быть доступен лишь для ограниченного круга пользователей, оказывается в свободном доступе. А всякие разные «грифы» - ДСП, СС, ОВ и прочее - роботам поровну, они таких тонкостей не понимают.




Получив этот ДСПшный документ можно покопаться в его метаданных и узнать - кто работал над документом, когда его создали и даже - когда его распечатывали.


Более продвинутые рассчитывают, что если прямо указать роботу не индексировать те или иные страницы и папки (например, в файле robots.txt), то тот, как послушный мальчик, в запрещенные директории и ни-ни, не полезет. Наивные... Мало того, что запросто может и полезть, даже если этот запрет происходит аж от самого ЦРУ, так еще и список папок в файле Robots.txt прямо указывает пытливому исследователю сайта - куда непременно нужно заглянуть, потому что там, в запретном для индексировании пространстве, запросто может лежать что-нибудь интересное.

Да и простой перебор адресов может дать очень даже полезные результаты. Многие страницы сайта, куда не ведут ссылки, тем не менее вполне доступны для просмотра и часто содержат весьма ценную информацию, получить которую можно, как раз, подбором адреса. Если, скажем, по ссылке вы попали на страницу с адресом http://www.SiteName.DomainName/100.html, то логично предположить, что могут существовать страницы с адресами http://www.SiteName.DomainName/99.html, http://www.SiteName.DomainName/98.html и т.д.

Автоматизировать процесс поиска непроиндексированных страниц можно с помощью программных средств, таких, как, например, как программа Алексея Мыльникова SiteSputnik в варианте Invisible, которую очень любят конкурентные разведчики. Вот тут известный российский специалист Конкурентной разведки Евгений Ющук демонстрирует некоторые её возможности. Другой известный специалист Конкурентной разведки Андрей Масалович, ссылка на блог которого уже есть выше, использует для поиска в «Невидимом Интернете» программу собственной разработки - «Аваланч» и легко находит секретные ключи... британской разведки. Оно, конечно, всего-лишь был конкурс, но осадочек-то остался... А можно и ручками всё делать, конечно, если объем небольшой или потребность нечастая.

Однако пытливый ум любителей и профессионалов поиска в Интернете никак не успокаивается и находит новые интересные лазейки. Выяснилось, что использовав специальные запросы, можно получить доступ не только к информации, но даже и к физическому оборудованию. К сетевым принтерам, например. Польза этого дела для нужд Конкурентной разведки мне пока сомнительна, но - кто знает... А вот, как демонстрация возможностей поиска - весьма впечатляюща.

Интернет-разведка, google, invisible web, конкурентная разведка, Яндекс, секретные данные, Аваланч, поисковые запросы, деловая разведка, Интернет, открытые источники, Александр Кузин, поисковые системы, hidden web, глубокий веб, бизнес-разведка, deep web, СайтСпутник, невидимый Интернет, язык поиска, коммерческая разведка, Андрей Масалович, Евгений Ющук, поиск информации

Previous post Next post
Up