Jump to content
Sign in to follow this  
Рудик

Что такое алгоритм Панда, против кого он направлен?

Recommended Posts

panda-gugl.gif

 

Про алгоритм Панда знают практически все вебмастера, а уж СЕО-оптимизаторы – и подавно. Алгоритм хоть и грозный, но не такой уж и новый, так как «свирепствует» в выдаче всеми любимой поисковой системы Google он уже шестой год. Правда, в Рунет он прорвался около четырех лет назад, однако этот срок более чем достаточен для того, чтобы выявить сильные и слабые стороны этого явления и научиться с ним бороться. Да и нужно ли с ним бороться? Об этом мы и поговорим.

 

Итак, алгоритм (или лучше назовём его фильтром) Google Panda – это комплекс мер самой главной поисковой системы в Интернете, направленной на то, чтобы очистить выдачу поисковика от всякого «мусора». Впрочем, «мусор» - понятие не самое корректное, так как научились бороться с этим алгоритмом прежде всего владельцы именно «мусорных» сайтов (дорвеев, сплогов и прочего подобного), а вот пострадали от него преимущественно хозяева «честных» сайтов. Почему же так? Да от невнимательности. Разработчики этого «хищника» предвидели именно такое развитие событий, они прекрасно понимали, что всяких СНО-мошенников Пандой (да и вообще чем-либо) не остановить, но, как говорится в Америке, без паблисити нет просперити. Гугл должен был показать всему миру, что он продолжает борьбу самыми радикальными методами, а то, что удар этот будет направлен не туда куда надо – этого широким массам знать было не положено.

 

Впрочем, кое-каких целей Панда достигла. Не секрет, что в последнее время Интернет подвергся нашествию огромной массы так называемых «СЕО-школьников» - людей, которые решили «срубить бабла» в интернете, причем по-быстрому. Нахватавшись кое-каких знаний по «дорвееводству», они принялись засорять интернет миллионами и миллиардами дорвейных «дерьмо-страниц». Естественно, основную массу всей этой «продукции» поисковые системы отлавливают буквально на лету, но немало их всё же проникает в выдачу того же Гугла, мало того – попадает в топы, то есть на самые вкусные позиции в этой выдаче. При этом не качество этих страниц заставляет Гугл их продвигать, а такая любимая им ссылочная масса – не секрет, что Гугл в первую очередь при продвижении того или иного сайта учитывает именно величину ссылочной массы на тот или иной сайт. На контент и его качество он никакого внимания не обращает (в отличие от Яндекса), а когда он видит, что посетителям такой сайт не нравится – то уже поздно – дорвей успел собрать из выдачи достаточно большую массу трафика. Когда такой дорвей банится, ему на смену приходят сотни и тысячи (а то и миллионы) новых, и весь процесс начинается сначала. При таком подходе к делу выдача Гугла постоянно засорена плохими сайтами, и борьба с ними хоть и ведётся успешно, но совершенно не «в режиме реального времени». На первый взгляд это то же самое, что успешно сбивать уже также успешно отбомбившиеся вражеские бомбардировщики на пути отхода. Какой смысл сбивать отработавшие бомбардировщики, когда стоит задача не допустить их до объекта? Врага надо встречать и уничтожать на подступах.

 

В общем, ведущие специалисты Гугла в лице Мэтта Каттса и Амита Сингала и разработали такой алгоритм, который «отстреливал» бы плохие сайты ещё на стадии индексирования, до того, как такие ресурсы смогли бы занять хоть какие-либо выгодные позиции в выдаче по тем или иным запросам. Конечно, над этим следовало бы подумать гораздо раньше, лет так 5-10 назад, но тогда у Гугла были другие задачи. Разработав за последние годы множество «полезных примочек», с помощью которых посетители могли бы работать с выдачей, Гугл принялся, наконец-то», за расчистку своей выдачи самыми радикальными средствами.

 

Что же необходимо предпринять владельцу продвигаемого в Гугл сайта, чтобы не попасть под действие Панды?

 

Во-первых, это так набившая оскомину всем вебмастерам мира уникальность размещаемого на страницах сайта контента. Впрочем, не следует думать, что Гугл встал в ряды борцов с пиратством. Выявлять уникальность контента в пределах всего интернета – занятие тяжёлое и неблагодарное, на это не хватит ресурсов даже у такого гиганта, как Гугл. В большинстве случаев копии уникальных статей появляются на нескольких сайтах одновременно (банальное воровство контента прямо «на взлёте»). Отследить, на каком именно сайте та или иная статья появилась раньше, практически невозможно, так как парсеры контента действуют практически мгновенно, и 99% всего контента начинает дублироваться по интернету ещё до того, как этот контент обнаружат индексирующие роботы. Панда подошла к этому делу с другой стороны - она отдаёт приоритет сайту с самыми сильными позициями, и далеко не всегда побеждает «сайт-исходник». Зачастую тут дело решает ссылочная масса, а у сайтов-воров, как правило, ссылочная масса самая большая. Таким образом сайт, на котором статья появилась физически раньше, запросто может не получить от своей новой публикации совершенно никаких выгод. Таким образом мы видим, что Панда нацелена на продвижение более «оборотистых» (хоть и самых «нечестных») сайтов.

 

Конечно, никто не собирается призывать воровать контент с других сайтов. Просто владелец сайта, желающий обойти действие алгоритма Панда, не должен концентрироваться на контенте. Уникальный контент в этом случае может сыграть с сайтом самую злую шутку. Хотите, чтобы ваш сайт не пострадал от нововведений, акцентируйте своё внимание на ссылочной массе. Только делать это надо умно, а не безумно, как говаривал когда-то давно один известнейший российский классик. Панда, в числе прочего, нацелена также на выявление недостатков в ссылочной массе тех или иных сайтов. Если говорить о дорвеях, то обычно их хозяева получают ссылочную массу в автоматическим режиме, расставляя ссылки на свои ресурсы хоть и «миллионными тиражами», но в принципе откуда попало, в 99% случаев не соблюдая тематики, лишь бы ссылка была, а там хоть потоп. Панда в массовом порядке выявляет такие «не тематические» ссылки и исключает их из учёта. А так как дорвеи, как правило, никогда не соблюдают тематичность, то они очень быстро теряют свою ссылочную массу, и вкупе со всеми остальными отрицательными факторами исключаются из выдачи.

 

У владельцев нормальных, «честных» сайтов проблемы со ссылочной массой, с её качеством, также имеются. До появления Панды было модным закупать ссылки на так называемых «ссылочных биржах», причём первое внимание уделялось «жирности» ссылки, а её тематичность учитывалась постольку поскольку, а часто тематичность вообще не имела никакого значения. Сейчас она значение имеет, причём очень сильное. Не хотите лишиться ссылочной массы – закупайте ссылки только с ресурсов, схожих с вашим сайтом по тематике. Если не хотите над этим трудиться, то тогда и не удивляйтесь тому, что ваш сайт поползёт из топа в самый низ выдачи. Впрочем, он может поползти вниз даже при «хорошей», то есть «тематичной» ссылочной массе, причём по очень простой причине. Как можно заметить, топы Гугла вовсе не освободились от практического засилья плохих сайтов типа дорвеев, и хотя качество их значительно улучшилось, но количество осталось немалым. По низкочастотным запросам эти «более качественные дерьмосайты» всё равно удерживают лучшие позиции, получается что Панда их вовсе не коснулась. Дело в том, что владельцы этих ресурсов научились свою ссылочную базу превращать в тематическую. Конечно, для этого им пришлось потрудиться, однако результат налицо – наиболее «продвинутый» «мусор» как висел в топах Гугла, так и висит до сих пор. Конечно, Панда расчистила выдачу от некачественных «дерьмосайтов», но качественные (если такое вообще можно сказать про «дерьмосайты») как получали трафик с Гугла, так и получают его и сегодня. В выигрыше оказались только «честные» сайты по тем запросам, какие «дерьмосайтам» не светят, то есть по высокочастотным запросам – наиболее популярным, в большинстве своём коммерческим. И опять мы видим, что Панда сработала против нормальных сайтов, так как их хозяева, как правило, не имеют практического опыта использования достаточно больших баз спам-ресурсов. Они хоть и получают достаточно хорошие, «тематические» ссылки, но в весьма ограниченном количестве. Для профессионала-спамера превратить миллионную базу в тематическую не составляет никакого труда. Мы не будем тут рассматривать технологии, которыми пользуются ссылочные спамеры, однако практически у всех есть программа Хрумер и парсер сниппетов, с помощью которых они со своими базами могут творить самые настоящие чудеса. Такое владельцам нормальных сайтов не под силу, если только они не имеют опыта в дорвеестроительстве.

 

Выше мы рассмотрели два основных направления действия алгоритма Google под названием Панда. Как мы заметили, в обоих случаях Панда сработала против нормальных сайтов в пользу «ненормальных», то есть сайтов-воров и «дерьмосайтов». Это показывает нам, что как бы ни совершенны были инструменты «всемогущего Гугла», а цели своей они достигают только частично. Нормальные профессионалы этого алгоритма совсем не боятся, более того – они повернули Панду против своих конкурентов, «белых сайтов». И до тех пор, пока владельцы нормальных, «честных» сайтов не научатся использовать те преимущества, которые имеют перед ними самые «продвинутые» «дерьмосайты», им придётся бояться любого алгоритма Гугла, против чего он бы ни был направлен.


Глобальный конкурс INVESTTALK.RU. Выиграй шанс пообщаться с Илоном Маском! Участвуй, общайся и побеждай.

Share this post


Link to post
Share on other sites

Благодарю автора за интересную информацию. Полагаю, алгоритм выявления недобросовестных сайтов фильтром Google Panda далек от совершенства. Я считаю, что хронологически вполне возможно отследить появление уникальной статьи в интернете. Время появления каждой статьи на сайте фиксируется вплоть по секундам. И надо время чтобы скопировать статью и выстаивать ее на другой сайт. Делать основной упор на ссылочную массу можно назвать ошибкой разработчиков этого алгоритма поиска. В целом качественный сайт должен иметь сбалансированный конвент уникальные статьи и ссылки, что бы занимать высокое место в поисковых системах. 

 

Share this post


Link to post
Share on other sites

Статья и в самом деле интересная, и ее содержание лишний раз показывает, что разработчики поисковых систем, фактически, решают будет ли сайт, который вы холили и лелеяли на протяжении многих месяцев, а то и лет, виден в выдаче в результате запросов пользователей. Собственно, я уже давно опытным путем определила, что выдача выводит на первые страницы в поисковике совершенно никчемные интернет-ресурсы, а поиск по ключевым словам ведет куда угодно, но только не на те страницы, которые ты ищешь, да еще и на такие ресурсы, где уже несколько месяцев не появлялось никакой полезной и новой информации.

Share this post


Link to post
Share on other sites

С наращиванием ссылочной массы нужно быть очень осторожными. Панда - это ведь всего один из фильтров (не единственный). Есть так называемый "Пингвин", который как раз нацелен на минимизацию влияния "низкокачественных ссылок". Как и в случае с Пандой, общественность не знает, что именно Пингвин отфильтрует, что сочтет "низкокачественным". Вроде говорят, что "ловит" обмен ссылками, "покупные" ссылки, ссылки на сайтах неподходящей тематики....

По поводу сложностей выявления уникальности контента во всем интернете - работают же как-то системы типа антиплагиат и etxt? Им хватает ресурсов, а гуглу не хватит?

  • Like 1

Share this post


Link to post
Share on other sites

TimeOut, думаю что неуникальный контент - это самый верный способ загнать свой сайт в ящик. Не даром же даже самые крупные и трастовые сайты напрягаются, и переписывают тексты новостей, а не копируют их друг у друга.

Недавно смотрел ситуацию в сайте трейдерской тематики, за которым наблюдаю уже лет 10. Раньше там посещаемость доходила до 10000 чел.

Нынешние владельцы просто копируют биржевые новости с чужих сайтов и публикуют их, в том числе через выдачу яндекс-новостей. Печальный итоге: посещаемость болтается в районе 1000-1500 на паре десятков еще живых запросах в топе, а некогда популярный форум полностью вымер.

 

Про мощности Гугла в статье скорее всего имеется ввиду, что даже ему не всегда просто определить первоисточник, если сразу появляются десятки копий. Но алгоритм Панда силен, это факт.

Edited by Podavan
  • Like 1

Share this post


Link to post
Share on other sites

TimeOut, думаю что неуникальный контент - это самый верный способ загнать свой сайт в ящик. Не даром же даже самые крупные и трастовые сайты напрягаются, и переписывают тексты новостей, а не копируют их друг у друга.

Недавно смотрел ситуацию в сайте трейдерской тематики, за которым наблюдаю уже лет 10. Раньше там посещаемость доходила до 10000 чел.

Нынешние владельцы просто копируют биржевые новости с чужих сайтов и публикуют их, в том числе через выдачу яндекс-новостей. Печальный итоге: посещаемость болтается в районе 1000-1500 на паре десятков еще живых запросах в топе, а некогда популярный форум полностью вымер.

 

Про мощности Гугла в статье скорее всего имеется ввиду, что даже ему не всегда просто определить первоисточник, если сразу появляются десятки копий. Но алгоритм Панда силен, это факт.

Ваше сообщение выглядит очень мотивируеще и воодушевляющее для меня и всех копирайтеров - мастеров уникального контента)  

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

Добро пожаловать на форум investtalk.ru!

Наша электронная площадка создана и работает для тех, кто ищет выгодные направления для инвестиций и преумножения капитала. Пользователи могут свободно делиться своим мнением, опытом, оценивать ситуацию в стране и в различных областях российской и мировой экономики. Мы ожидаем, что все обсуждения будут проводиться в уважительной форме, это поможет узнать мнение других инвесторов по различным вопросам и найти инвестиции в любой интересный проект. Продолжить читать
×
×
  • Create New...