Шрифт:
Интервал:
Закладка:
Аналогичная ситуация сложилась и вокруг выпадающих меню, выполненных по технологии DHTML. Помимо причин, аналогичных взаимоотношению паука и скриптов, меню на DHTML имеет и дополнительную проблему. Заключается она в том, что часто код меню размещается во внешних файлах, а некоторые поисковые роботы такую систему формирования структуры ссылок не поддерживают.
Многие сайты, разработанные на технологиях ASP, PHP, Cold Fusion или JSP, формируют динамические адреса страниц. Порой их сложно отличить от статических, но многие пауки считают динамическими адресами те, в которых присутствует знак вопроса или они имеют расширение, отличное от htm или html, например php, jsp, pl и др. В строке динамического адреса могут находиться несколько параметров со своими значениями. Некоторые поисковые роботы будут обрабатывать такие адреса, если количество параметров не превышает некоторого определенного числа. Другие — вообще не будут обрабатывать такие адреса. Третьи обработают лишь часть адресов в количестве, не превышающем некоторого значения. Следовательно, сайты, адреса страниц на которых определяются динамически, могут "выпасть" из индекса поисковой системы вне зависимости от их качества.
Мешают корректному процессу индексирования неверные отклики сервера. Проявляться это может, например, в том, что сервер выдает код 200 (Ok) для несуществующих страниц, либо возвращает код 301 (перемещено), 302 (временно перемещено), 404 (не найдено). В последних трех случаях страницы роботом не индексируются, а если они уже были в индексе, то удаляются из него.
Обратите внимание на размер страницы. Практика показывает, что роботы индексируют только определенное количество первых килобайтов кода. Например, робот Google добавляет в индекс первые 101 Кбайт, робот Яндекса — не более 200 Кбайт. Поэтому большие тексты для полноценного индексирования лучше разбивать на части.
Если обратиться к Яндексу, то рекомендую прочитать ответы Александра Садовского на вопросы, заданные ему на форуме www.searchengines.ru в ходе пресс-конференции. В частности, были затронуты вопросы влияния внешних факторов на индексирование сайтов. Например, очень жесткое отношение у Яндекса к сайтам-сателлитам, созданным специально для роботов. Такие сайты определяются с помощью специальных алгоритмов, позволяющих найти их и исключить из индекса.
На вопрос о влиянии хостинговой площадки на процесс индексирования и получаемый размещенным на площадке сайте "вес", Александр ответил:
Яндекс не выдвигает требований к хостингам, и сайты на любой площадке, которые отвечают нашему роботу, индексируются одинаково быстро. Тем не менее можно сформулировать рекомендации общего характера.
• При выборе хостера обращайте внимание на стабильность работы его оборудования (для этого можно воспользоваться такими сервисами, как http://www.uptime.ru/, http://www.uptime.org.ua/ и др.); ширину канала на Россию, если серверы расположены вне РФ; загрузку сервера, на котором будут работать ваши скрипты. Все это в той или иной мере определяет возможность робота "достучаться" до сайта.
9.4.1. Пессимизация и баны
Теперь можно ввести еще РѕРґРёРЅ термин, связанный СЃ результатами ранжирования сайтов. Рто — пессимизация, разновидность наказания сайта РїРѕРёСЃРєРѕРІРѕР№ системой, которая проявляется РІ необычно РЅРёР·РєРѕРј ранжировании сайта. Р’РѕС‚ какое определение было дано РІ 2005 РіРѕРґСѓ этому явлению:
Пессимизация — это принудительное занижение поисковой системой позиций некоторого сайта по ключевым запросам.
Термин "пессимизация" был придуман разработчиками поисковой системы Рамблер. В Рунете этот термин был официально упомянут в 2003 году при обсуждении принципов работы Рамблера. Другие поисковые системы официально о пессимизации не заявляли (http://www.seonews.ru/masterclass/9/34/).
С тех пор прошло довольно много времени, и о пессимизации говорят не только на Рамблере. Отвечая на вопросы, Александр Садовский так охарактеризовал пессимизацию:
Пессимизацию можно рассматривать как понижение в результатах поиска сайта и/или его страниц за некачественную информацию или использование обманных техник. Например, если сайт активно участвует в ссылочных обменах, "линкаторах" и другими способами ссылается на "накрученные" ресурсы и спам, он может быть автоматически пессимизирован.
Пессимизация может применяться как к сайту в целом, так и к его отдельным разделам и страницам. Устранение причины, приведшей к автоматической пессимизации, возвращает сайту нормальные позиции тоже автоматически.
- Галактика Интернет - Мануэль Кастельс - Интернет
- Как мы покупали русский интернет - Сергей Васильев - Интернет
- Wi-Fi: Все, что Вы хотели знать, но боялись спросить - А. Щербаков - Интернет
- Отзывчивый веб-дизайн - Итан Маркотт - Интернет
- Как заработать в Интернете. 35 самых быстрых способов - Ольга Фомина - Интернет
- SEO для бизнеса - Гроховский Леонид - Интернет
- Интернет для женщин - Евгения Пастернак - Интернет
- QNX/UNIX: Анатомия параллелизма - Цилюрик Олег Иванович - Интернет
- Эра Facebook Как использовать возможности социальных сетей для развития вашего бизнеса - Автор Неизвестен - Интернет
- Деловая e-mail переписка. Пять правил успеха - Тамара Воротынцева - Интернет