Оглавление / Уроки

Урок 15. Дорвеестроение - 2012

Среди дорвейщиков в последнее время возникает много вопросов, как правильно сейчас продвигаться в Гугле, за что происходит бан, многие приходят к выводу «чёрное SEO умерло» не пытаясь разобраться в сути, хотя безусловно методы необходимо менять на более сложные и изощрённые. Так или иначе, многим в итоге приходится переходить к более «белым» методам (но при этом автоматизированным), к чему некоторые более дальновидные дорвейщики перешли ещё годы назад.

Разберём несколько важных моментов.

Google Panda

В Гугле появились новые схемы ранжирования, но сам поисковик давно сообщил в чём именно произошли изменения. Ссылку на источник сейчас не помню, но суть следующая:

- Фильтруется теперь не только дублирующий КОНТЕНТ, но и дублирующие ШАБЛОНЫ

Что это значит? Это значит, что если вы наклепали 100 доров с под разные ключевики, но с одинаковым шаблоном, и один из этих доров попадает под фильтр - то и все остальные доры с высокой долей вероятности попадут под фильтр. Каждый дор должен генериться по индивидуальному шаблону. Разработчики доргенов сейчас должны учитывать этот момент.

То же касается и рассылок. Один и тот же форумный движок, одной и той же версии, имеет один и тот же шаблон. Т.е. если вы напарсили базу - пусть и большую - но только какого-то одного движка, то хоть там 10.000 ресурсов и более, и рассылаете уникальный генеренный контент, он тоже с высокой долей вероятности попадёт под фильтр.

Поэтому, гораздо выше будет эффект, если например разошлёте по трастовым 100 phpBB + 100 VBulletin + 100 IPB + 100 YaBB + 100 PunBB, нежели только по 500 phpBB. В этом положительно отличается XRumer, который поддерживает широкое разнообразие движков.

- Ещё более жёстко фильтруются линкопомойки

Если ресурс имеет слишком много ссылок на внешние ресурсы, и эти ссылки растут как на дрожжах, Гугл расценивает этот ресурс как линкопомойку и просто выкидывает его из выдачи, попутно баня ресурсы на которые он ссылается. Именно поэтому паблик-софт сейчас даёт меньшую отдачу, т.к. постит туда же, куда и все. Сейчас особенно важно умело попадать на трастовые и незаспамленные ресурсы, а как именно - расказано в других уроках данного раздела.

Правильная генерация = постепенная генерация

Многие отмечают, что дорвей, на котором было сразу сгенерировано более 10 тыс. страниц, индексируются крайне медленно. Это логично, особенно если на этих страницах малоактуальная информация, и сами домены не имеют никакого траста.

Поэтому, на молодых доменах правильнее будет генерировать доп.страницы постепенно. Естественно, на автомате - но не все сразу. Автоматизировать это элементарно. Пример такого постепенно-наполняемого блога:
botagovo.ru

На этом блоге в течение года ЕЖЕДНЕВНО автоматом создаётся по одному посту. Итог - никаких банов, санкций, пессимизаций. Живой, целевой трафик. Это лишь один из примеров, также можно написать автомат по автодобавлению каждый час/день/месяц новых фотографий/видео/музыки и так далее. Чем нестандартнее подход, тем больше шансов на жизнь.

Генерённый контент = смерть дорвея

Сгенерированный контент больше не прокатывает, т.к. в 99% является нечитабельным и бессмысленным (хотя при желании всё-таки можно сгенерировать неплохой ограниченный по обьёмам уник контент).
Многие перешли на заказ статей у копирайтеров, хотя есть много других путей, также с полной автоматизацией процесса (об этом уже писали неоднократно, но я хочу напомнить) - берёте любой закрытый ресурс, который 100% не может индексироваться поисковиком (в силу того что там нужна авторизация), настраиваете парсер под этот ресурс - и у вас есть прекрасный источник уник контента. Форумы под это дело не очень подходят, здесь лучше будет использовать другие источники, например напарсить по всему миру PDF-файлов по нужной тематике, сконвертить их массово в txt или html, и будет море уникального контента. Также можно сделать и с соц.сетями, зависит от того какой трафик желаете иметь на выходе.

См. также: • Урок 1. Обучение XRumer-а новым текстовым капчамУрок 3. Многообразие возможностей инструмента "Анализатор базы ссылок и отчётов" в XRumer-еУрок 4. Используем сразу два почтовых ящика в проекте, или как избежать бана почтовикаУрок 5. Возможности инструмента "Фильтр базы ссылок"Урок 6. Как рассылать ответы в чужие топикиУрок 9. XRumer 5.0 - выжимаем макс.пробиваемость ПРАВИЛЬНО!Урок 10. Социальная инженерия в ходе рассылкиУрок 11. Постинг в блоги WordPressУрок 12. Пробиваем непробиваемоеУрок 13. Транслируем на весь мирУрок 14. Обучение XRumer-а 7.0 новым текстовым капчамУрок 16. SocPlugin - обходим ограничения соц.сетейУрок 17. Новый XRumer и DrupalУрок 18. Пакетная генерация РасписанияУрок 19. Обучение XRumer-а текстовым капчам на SMFУрок 20. Заполняем пачки аккаунтов в соц.сетях на автомате!Урок 21. Таргетированный сбор анкет в соц.сетяхУрок 22. Раскрываем возможности АвтоответчикаУрок 22 (а). Специфика работы с движками Discuz, DLE, Ucoz
Печать/экспорт
QR Code
QR Code Урок 15. Дорвеестроение - 2012 (generated for current page)
Языки