Яндекс выступил с обращением к веб-мастерам
Похоже что «Яндекс» всерьез обеспокоился двумя подряд скандалами, связанными с выдачей поисковиком личной информации пользователей интернета. В официальном блоге «Яндекса» появилось специальное обращение. Компания не видит своей вины в утечке данных, не предназначенных широкой аудитории. Специалисты «Яндекса» уверены, что обеспечить сохранность служебных данных должны были веб-мастера сайтов, невольных участников неприятной ситуации.
Поисковая компания сочла необходимым, устами своего специалиста по безопасности Владимира Иванова, предельно ясно показать путь информации во всемирной сети и главные правила её защиты.
В. Иванов напоминает, что все данные, не предназначенные для широких масс пользователей, необходимо защищать паролями. Вся незащищённая информация свободно попадает в интернет. Веб-мастера и владельцы сайтов могут и должны использовать файл robots.txt. В нём настраиваются параметры безопасности интернет-страниц для всех поисковиков сразу или для каждого в отдельности. Все адреса, упомянутые в robots.txt, поисковые роботы обходят стороной и не выдают в результат поиска. Проверить правильность настройки robots.txt можнос помощью сервиса «Яндекс-Вебмастер».
Владимир Иванов подробно рассказал пути любой незащищённой информации от момента создания до попадания в поисковую систему. Веб-мастер, создающий что-то новое в интернете, заинтересован в привлечении посетителей. Иначе в его работе нет смысла. Поэтому он активно «пиарит» свою страницу ссылками и запросами на индексирование. Ещё до появления первого посетителя через поисковики, рекламные и почтовые сервисы, блогплатформы и интернет-провайдеры о новой странице узнаёт половина интернета. Процесс ускоряется в разы с началом активной работы страницы. Очень быстро о новом продукте в сети узнаёт весь виртуальный мир.
С этого момента в работу включаются всевозможные фильтры, цель которых отделить общедоступную информацию от той, которая не должна попасть в руки широкой аудитории. Но первым эту работу должен проделать веб-мастер. Через пароли и файл robots.txt он защищает те данные, которые считает секретными. Иначе поисковая система всё найдёт и выдаст на всеобщее обозрение любую информацию. В. Иванов подчёркивает, что нельзя собственные просчёты списывать на поисковую систему. Система настроена на поиск максимального количества информации, в этом цель её работы.
Подпишись на рассылку и не пропускай важные мероприятия и семинары, анонсы постов. Получай бесплатные полезные материалы, советы, подборки кейсов и статей за неделю. Будь в курсе!