Связаться с автором блога Карта сайта

Основные ошибки веб-мастеров

Приветствую!

Сегодня я хотел бы рассказать, об основных ошибках веб-мастеров с точки зрения оптимизации.

И так, как вы все знаете одним из моих источников дохода, является фриланс, именно всевозможные прогоны и регистрации.

Прежде чем принять тот или иной сайт на прогон я проверяю его на соответствие определённым нормативам, а именно:

  • Наличие в индексе Яндекса не менее 50 страниц
  • Наличие в индексе Google не менее 30 страниц
  • Наличие правильно оформленного файла Robots.txt
  • Определение главного домена через apache и robots.txt или только через robots.txt
  • Наличие на сайте контента (сайты галерей и тд., не принимаю)
  • Отсутствие дублей (закрытие от индексации через robots.txt)
  • Адекватное соответствие контент/ссылки

В редких случаях я так же проверяю число внешних ссылок на страницах и качество (уникальность) контента.

Ну а теперь по каждому пункту подробнее.

1. Наличие в индексе Яндекса не менее 50 страниц.

Если на сайте, большое число страниц, но в индексе Яндекса страниц мало, то такой сайт, категорически запрещено прогонять. Конечно, все сайты индивидуальны, и для каждого нужно подбирать свои нормативы, и всё же, по опыту скажу, что лучше не рисковать, а подождать пару апдейтов ЯВ.

2. Наличие в индексе Google не менее 30 страниц.

Мне кажется, здесь ничего и говорить не нужно! Мало прогонщиков об этом знают (сложно определить), или просто не хотят говорить своим клиентам (что бы не портить свой бизнес), но молодые сайты крайне сильно подвержены фильтрации со стороны гугла, либо это будет песочница, либо пессимизация контента, либо ещё какой-нибудь фильтр наложат.

В будущих постах я расскажу, как за короткий срок можно выйти из под фильтрации страниц гуглом и держать их на уровне.

Примечание: многие жалуются, что у них сильный разброс с Яндексом, и что в гугле у них значительно меньше страниц… А у меня, напротив, в гугле страниц всегда больше, так как знаю легальные методы обхода и выхода из под фильтра.

3. Наличие правильно оформленного файла Robots.txt.

Скажу серьёзно, многие вебмастера игнорируют этот файл, считая, что он просто-напросто бесполезен, а зря. Грамотно оформленный файл robots способен творить чудеса с сайтом.

4. Определение главного домена через apache и robots.txt или только через robots.txt

Многие веб-мастера, даже не знают о таком понятии как «главный домен», и даже не знают, что, пытаясь продвинуть в поисковых системах свой ресурс, они продвигают сразу два проекта (с www и без), тем самым, теряя половину веса сайта и эффекта продвижения. Потом же, они плачутся, что не поднялся ТИЦ, упали позиции в поисковой выдаче и тд.

5. Наличие на сайте контента

Я считаю, что бы продвигать сайт в поисковых системах, там непременно должен быть контент! Как же без него?! Если на сайте нет контента, то думаю, лучшим и наиболее эффективным для него решением будет социальное продвижение. Пример таких сайтов: фото-галереи, закрытые сообщества и тд.

6. Отсутствие дублей (закрытие от индексации через robots.txt)

Про дубли уже не однократно говорили, что они первопричина фильтра АГС. Вполне возможно, хотя у меня есть не один десяток сателлитов, где присутствуют дубли, и они не попали под АГС. Почему? Ответ очевиден! Как я уже неоднократно говорил и в этом блоге и на форуме, что бы получить санкции от поисковых систем, нужно много негативных факторов (минимум два).

К примеру, дублирующий контент в большом количестве и необдуманная продажа ссылок = 100% фильтр или вовсе бан. В примере 4 негативных фактора, заметили каких?

7. Адекватное соотношение контент/ссылки

Это скорее из области моих рекомендаций исходя из наблюдений. Ну не может на нормальном сайте быть 300 ссылок и 500 символов текста, не может! Я, конечно, не утверждаю, про идеальное соотношение, но считаю, что на 500 символов текста должно быть не более 100 ссылок.

Ну и мои рекомендации по исправлению ошибок каждого пункта:

1. Ждём 1-2 апа ЯВ, что бы число страниц в индексе превысило отметку в 50

2. Ждём пару недель

3. Составьте правильно оформленный файл robots.txt, исходя из рекомендаций Яндекса. Не забудьте, что есть две вариации, большая и корректная, и маленькая не корректная (как у этого блога). Дело в том, что в идеале, нужно составлять директивы под каждую поисковую систему, то есть под Яндекс, под гугл и под другие системы. Я рекомендую делать под Яндекс и под остальные системы (в том числе и гугл).

4. Главный домен нужно обязательно определить в файле robots.txt, а так же во всех панелях веб-мастеров, где это только возможно. В файле robots, за это отвечает следующая директива:

Host: moysait.ru

Host: www.maysait.ru

Рекомендую определиться с главным доменом, ещё перед созданием сайта, и в дальнейшем продвигать его именно под этим доменом. Кроме того, эта директива прописывается только для Яндекса, так как Google её не распознаёт.

5. Добавляем больше контента, в идеале 1500 символов и выше. Если на вашем сайте будут уникальные и грамотно отформатированные статьи размером 2000 и выше символов, то фильтрация страниц в гугле вам практически не страшны.

6. Дубли это один из факторов приводящих к фильтру АГС, что бы этого не бояться, проще всего закрыть от индексации дублирующие страницы через robots.txt. Как будем закрывать? Использую я директиву «Disallow». Пример закрытой страницы:

Disallow: /interesnoe/

В примере закрыт от индексации весь раздел «Интересное» на моём блоге.

7. Про соотношение контента и ссылок, мне пока нечего добавить, более детально я рассмотрю этот фактор в следующих статьях.

Ну, как вам моя статья?

С уважением, Максим Шихаль.

Сегодня Видеом дня является клип снятый на трек Who’s Real, правда без DMX‘а:

 
10.07.2010 | Раздел: Новичкам, Создание сайтов |

VK
OK
MR
GP

Предыдущие посты блога:

  • 5 Дек. 2016 - Заработок на сайтах и новый тест хостинга - РигВЕБ
  • 21 Ноя. 2016 - HyperHost или как получить хостинг с CDN и DDoS-защитой
  • 17 Ноя. 2016 - Как получить MacBook Pro или IPhone 5S от Well-Web.net
  • |
    • Aleesa

      Очень основательная и подробная статья! Много для себя подметила, спасибо.

      Очень хотелось бы почитать про то “как за короткий срок можно выйти из под фильтрации страниц гуглом”

    • Belikov

      Может я несколько не в тему, но вы тут пишите про файл robots, хотя у вашего блога, он не то что не корректен, он не доделан согалсн овашим же рекомендациям по закрытию дублей.

    • Всё верно, создавая новые разделы на форуме, я не всегда сразу прикрываю от индексации лишнее, но в моём случае это не страшно, так как у меня в блоге категории не похожи.

    • Web

      Интересная статья, тоже хотелось бы почитать как можно выйти из под фильтра Google.

    • foxiS

      Спасибо, очень полезная статья. Читая ее подумал: “Хорошо бы еще решения этих ошибок опубликовать в другой статье”, а тут на, и все здесь, только чуток ниже. Спасибо еще раз. Будем исправлять)

    • Anonymous

      Считаю главной ошибкой вебмастера нежелание развиваться дальше и останавливатся на достигнутом

    • Не всегда… но примерно, где-то так.. ошибок то много, главное научиться их видеть, исправлять и не допускать…

    • Anonymous

      Нельзя всегда быть правым, ошибки есть (в меньшем или большем количестве) у каждого человека и с этим ничего не поделаешь.
      Здесь главное другое, извлечешь ты из них урок или нет. Вокруг себя я вижу полным-полно людей, которые все время совершают ошибки, но не делают из этого абсолютно никаких выводов. Я не понимаю, почему так происходит. Один человек один раз наступив на грабли, обходит их десятой дорогой, в то время как второй упорно будет на них ставать, получать по лбу, набивать себе шишки и продолжать и далее делать тоже самое. Например, мой папа (без конкретики, а то мне стыдно такое писать). Почему же так происходит?

    • Сам не знаю, и у самого есть такие знакомые… к примеру моя девушка..(

    • Anonymous

      Так твоя девушка это вообще отдельный разговор))) Она уже стала очень популярной фигурой на блоге. Второй после тебя)))

    • Аахахах)) Ага))) ну и не только в блоге..))) Но и за его пределами я её прославил..)) А на днях будет вообще пост про неё!) конкурсный..))

    • >А на днях будет вообще пост про неё!) конкурсный..))
      Ждем, ждем :) Я вот думаю, может тоже написать пост? Только уже про бывшую свою…

    • Сегодня с ней вместе выбирали фотки которые будут в этом посту.. Старался выбирать такие, где никак не видна грудь, или что-то ещё из того же… я просто одержим некими ревнивыми моментами…

      Ей теперь не терпится прочитать пост – я той ей его не показал!))))))))

    Комментариев в блоге
    39,984
    -----------------------
    Обновлено: 11:42 29.09.2016
    Я в социальных сетях
    Мой твиттер   Мой ВК   Мой фейсбук   Мой G+
    Мои цели
    • 3'000 посетителей в день (до 1.05.17)
    • 40'000 комментариев (до 1.05.17)
    • 20'000 фолловеров в тви (до 1.05.17)
    • 50'000 рублей в месяц (до 1.05.2017)
    • 100'000 руб. на отпуск (до 1.07.2017)
    • Отдохнуть в Таиланде (09.2017)..
    Статистика блога
    Яндекс Каталог  DMOZ

      Яндекс.Метрика

    вся статистика
    Рекомендую
    • Родина Линков - хороший источник вечных ссылок
    • Gogetlinks - хорошая биржа вечных ссылок
    • Pr.Sape - вечные ссылки с гарантией индексации, оплатой в рассрочку и страховкой от снятия вебмастерами