Приветствую вас на своем блоге. Хотя на нем я пишу в основном о сайтостроении, тема поискового продвижения меня тоже интересует. В этой статье я хотел бы вам рассказать о своем взгляде на то, как выполняется seo оптимизация сайта самостоятельно. Пост будет оформлен в виде пошаговой инструкции.
Постоянные ссылки
Кириллица в латиницу
Инструменты вебмастеров
Карта сайта
Файл для роботов
Оптимизация картинок
Оптимизация скорости
Дубли
Оптимизация ссылок на сайте
Улучшение контента
Улучшение шаблона
Итог
Все описанное подходит для сайта на движке WordPress, но некоторые общие принципы применимы для любых сайтов. Здесь я написал далеко не о всем, в основном о тех. настройке, другие полезные советы вы можете найти в этой статье, где я рассказываю, как увеличить трафик с поисковика Яндекс.
Установка SEO-плагина
Да-да, это нужно сделать в первую очередь. Если говорить о WordPress, то тут я вижу два хороших выбора All in One SEO Pack и Yoast SEO. Мой выбор – второй вариант, хотя оба при грамотной настройке существенно улучшат сайт с точки зрения поисковых машин.
Соответственно, плагин мало будет просто найти и установить, его еще нужно правильно настроить. О настройке Yoast SEO я написал здесь. Если интересно, читайте и настраивайте. Работа эта не на одну минуту, но очень важно ее выполнить как можно раньше.
Настройка постоянных ссылок
В WordPress на новом сайте нужно сразу же установить вид постоянных ссылок. Если этого не сделать, то url
адреса записей могут оказаться совсем не оптимизированы. Например, вместо названия страницы там будут произвольные цифры, дата публикации и т.д.
Нужно выбрать вариант – название записи. Только название и ничего больше. Теперь url-адреса записей станут человекопонятными, что тоже очень важно для оптимизации.
Преобразование кириллицы в латиницу
Теперь нужно, чтобы при публикации статей в их url
не было русских букв, а только английские. Такой вариант адреса на страницу считается более правильным на сегодня, хотя я видел в топе и русские url. Все же лучше сделать их английскими.
Делается это установкой плагина Cyr to Lat
. Никаких настроек в нем нет – просто установили и он начинает работать.
Добавление сайта в инструменты для веб-мастеров от Яндекс и Гугл
Если вы все еще не добавили свой веб-ресурс в эти панели, срочно исправляйте ситуацию, потому что вы теряете некоторые возможности, которые бесплатно предоставляют вам поисковики.
С помощью этих инструментов вы сможете анализировать свой сайт, также после его добавления и подтверждения прав поисковые машины хотя бы будут о нем знать, это важно для молодого сайта.
Генерация карты сайта (для людей и для роботов)
Карта сайта может быть разной. Если она в формате xml, то такой файл нужен поисковому роботу, который может получать сведения о новых публикациях на вашем сайте через этот файл.
По умолчанию плагин Yoast SEO
генерирует карту сайта и говорит, что вам ни о чем не нужно беспокоится. Все же многие считают плагин Google XML Sitemaps
наилучшим решением для генерации подобной карты. Я думаю, так и есть.
Карта для людей – это обычная веб-страница, содержащая ссылки на все записи и страницы сайта. Ее тоже очень полезно делать. Во-первых, ею часто пользуются люди (поэтому и называют “для людей”). Во-вторых, на этой странице появляются ссылки на новые статьи, что тоже улучшает их значимость и видимость, пусть и на чуть-чуть.
О создании такой карты я писал в этой статье. Там я советую плагин DS Blog Map для этого дела.
Кстати, внешний вид такой странице вы можете посмотреть и на моем блоге.
Конечно, вы можете создать такую карту и вручную, в нее придется самостоятельно добавлять ссылки после выхода новых статей на вашем блоге или написать скрипт для автоматизации этого, если вы не хотите использовать плагин.
Составление Robots.txt
Тут нет каких-то явных советов, потому что все веб-мастера и оптимизаторы имеют разные мнения, а разобраться кто прав очень тяжело на самом деле. Решение проблемы я вижу в том, чтобы закрыть в robots.txt доступ к различным ненужным url-адресам на сайте. Однако этого недостаточно. Например, если вы закроете url с отростками replytocom, то от дублей это вас не спасет, нужно принимать дополнительные меры. Можете посмотреть мою статью о составлении robots.txt, но я не буду говорить, что там представлен идеальный вариант этого файла.
Оптимизация картинок
Это еще один шаг на пути к улучшению позиций в ПС, хотя далеко не самый важный. Самое главное, это позаботиться о том, сколько весят изображения. Лучше не использовать те, что больше 60 килобайт.
Для сжатия фотографий используйте онлайн-сервис или программу Adobe PhotoShop, где можно сохранить картинку для Web и выбрать степень сжатия. Перейдите по этой ссылке, и вы попадете на страницу, где можно сжать картинки до нужного размера.
Ну а что делать с теми картинками, которые уже на сервере и не оптимизированы? Есть отличный плагин, который все их сжимает, а также он может сжать изображения в папках шаблонов, различные иконки – это все тоже может улучшить скорость. Это EWWW Image Optimizer
. В нем все предельно понятно, так что вы 100% разберетесь.
После оптимизации плагин лучше отключить и самостоятельно производить сжатие, хотя если лень, то можно его оставить.
Улучшение скорости сайта – воспользуйтесь советами от Google Page Insights
Я не буду в этой статье описывать кучу способов увеличения скорости вашего веб-ресурса, я просто скажу, что в большинстве случаев достаточно следовать рекомендациям от Гугла.
Например, настроить кэширование и сделать сжатие всех файлов с кодом. Можно установить плагин, который будет автоматически делать всевозможные действия, способствующие увеличению скорости. Например, это сжатие файлов, их объединение в один, кэширование страниц и т.д.
Пока мой выбор – WP Fastest Cache
. Хотя кроме этого плагина есть и другие: WP Super Cache, Hyper Cache. В общем, можете протестировать и выбрать для себя наилучший.
А можно вообще обойтись без плагина. Например, самостоятельно прописать в файле
htaccess
кэширование картинок (об этом здесь), сжать самостоятельно код в онлайн-сервисах, использовать картинки-спрайты и т.д. Вариантов много и этого зачастую хватит, чтобы подтянуть скорость до нормального уровня.
А стремиться к совершенству в этом вопросе можно, но это не так уж и обязательно. Дело в том, что скорость загрузки является фактором ранжирования, но далеко не самым главным. Если у вас плохая статья и быстрый сайт, вы все равно проиграете сайту, на котором хорошая статья, пусть он и открывается на 1 секунду дольше.
Борьба с дублями. Страшный сон веб-мастера
До недавних пор и сам не знал, что это такое. Но оказывается все дело в особенностях движка WordPress. Например, если в нем включить древовидные комментарии, то появляется кнопка ответа на любой комментарий. Если присмотреться к url-адресу, то там можно увидеть вот такой отросток – replytocom
.
Так вот, это страшное слово. Если эти отростки не убрать, то со временем на сайте начнут обрзовываться дубли страниц, и чем больше будет комментариев, тем больше дублей. Это грозит серьезным понижением в первую очередь в поисковой системе Google
.
К счастью, если вы правильно настроите плагин Yoast SEO
, то можно забыть про них. Там в дополнительных настройках есть пункт (убрать переменные replycotom, обязательно поставьте галку). Тут важно осуществить такую настройку в самом начале развития сайта, иначе дубли уже могут появится и с ними придется бороться.
К сожалению, помимо replycotom
есть и другие дубли, хотя они могут быть не так многочисленны и опасны. Все же лучше их не игнорировать, потому что они тоже могут нанести вред сайту рано или поздно, в виде кучи мусорных страниц в выдаче.
Оптимизация ссылок на сайте
Под оптимизацией ссылок я понимаю все – и тех, которые ведут на другие сайты и тех, что идут на страницы этого же сайта.
В каждой статье полезно делать 2-3 ссылки на другие страницы вашего же сайта, чтобы пользователи могли по ним переходить и читать другой материал. Это позволяет улучшить глубину просмотра.
Ссылки должны размещаться с умом, а не просто ради размещения. То есть если вы писали о заработке в интернете, не стоит просто так лепить ссылку на статью о настройке сайта, например. Если и делать это, то с логическим переходом.
Теперь о ссылках на другие ресурсы. Иногда и вправду может возникнуть необходимость сослаться на другой сайт. Если это и делать, то лучше закрыть ссылку от индексации. Иногда разумно будет закрыть ссылки скриптом чтобы они вообще считались за текст (но при этом клик и переход возможен).
Мое мнение в этом вопросе таково – нужно выбирать золотую середину. Много открытых ссылок на другие ресурсы – это плохо, так как много веса от ваших страниц переходит к ним. С другой стороны, полное отсутствие ссылок – подозрительно. Поисковики любят естественность.
Естественность естественностью, но определенные ссылки нужно все же закрыть. Например, ссылки на сайты комментаторов, потому что если они открыты, это провал для вашего блога. Вернее, возможно и не провал, но если комментариев будет много, то провал. Представьте, к статье 70 комментариев, из них, допустим, 30 человек указали свои сайты. Тогда это 30 внешних ссылок на одной только странице, что достаточно плохо.
Улучшение текста
Текст является основным оружием, благодаря которому достигаются хорошие позиции в поисковиках. Соответственно, вы должны позаботиться о максимальном качестве текста.
Если вам незнакомы такие понятия, как уникальность, академическая тошнота, тошнота по слову, релевантность, то придется со всем этим ознакомиться.
Я думаю, идеал, к которому нужно стремиться, это уникальный текст, который интересен читателю, оптимизирован под нужный запрос (но не переоптимизирован), с небольшим значением тошноты, легко читаемый материал. Отлично, когда автор пытается общаться через свои статьи, а не подает сухо (вот честно, надеюсь не сухо написано)
Улучшения на уровне шаблона/дизайна сайта
Для начала я скажу об адаптивности. Алаптивный шаблон – необходимость в наши дни. Если его не будет, то вы серьезно недоберете трафика. Незнаю как насчет серьезно, но недоберете точно.
Соответственно, если у вас фиксированный шаблон – нужно срочно исправлять. Каким путем? Можно заказать фрилансеру реализацию адаптивности, можно попытаться сделать самому (если есть знания о медиа-запросах), можно просто поменять шаблон на адаптивный а потом переделать под свои нужды. Если у вас молодой сайт, то вы еще можете позволить себе эксперименты с внешним видом.
Как ни странно, но создание логотипа и иконки сайта (favicon) тоже может чуть улучшить положение вещей. Тут дело даже не столько в оптимизации, сколько в логичности такого дела. Например, если ваш сайт в выдаче Яндекса будет на первом месте но у него нет иконки, то пользователь может кликнуть не по нему, а по другому сайту. Мы люди, визуальное восприятие для нас важно.
Итог что ли
Опять же, это ни в коем случае не полный список того, что можно сделать для поисковой оптимизации. SEO — огромная наука, по ней лучше уже писать книгу, а не статью. Впрочем, этот пост я написал отчасти и для себя, чтобы обновлять в уме основные моменты, но и вы, конечно, можете почерпнуть из нее что-то полезное, я надеюсь.
Я думаю, статья обязательно будет обновляться, так как в нее я решил собрать побольше различных способов оптимизации. Все-таки у меня не SEO-блог и я не буду писать об этом в других статьях, скорее всего, так что этот пост выступает в роли «все в одном».
Как видите, seo оптимизация сайта самостоятельно — это не так уж и сложно. В целом, за неделю разобраться можно. Поэтому если вы не хотите вкладывать в то, чтобы нанять специалиста, попробуйте пройтись по указанным в статье пунктам и выполнить их. В любом случае, эффект будет намного круче, чем если бы вы вообще ничего не делали.
Юез йоаста никак. Всем рекомендую. С ним улучшить SEO статьи намного легче и быстрее.
Неужели еще остались СЕО-шники, которые оптимизируют картинки)))
Я иногда оптимизирую. Но я не сеошник, я просто веб-мастер, который не хочет грузить 3-мегабайтные картинки на web-страницы
Михаил, здравствуйте!
Во время я наткнулась на вашу статью, пару недель назад создала свой блог, сейчас активно им занимаюсь. Отправляю ваш сайт в закладки, т.к. нашла много полезного)) Из этой статьи вроде все у меня правильно, но нужно установить плагин Yoast SEO (не устанавливала такой) и про дубли страниц напугали, ведь для решения этой проблемы одного плагина будет достаточно пока что для молодого блога?
И еще вопрос не по теме статьи, как вы добавили нижу комментариев строку «Получать новые комментарии по электронной почте. Вы можете подписаться без комментирования.»? Хорошо даже если бы сбросили ссылочку на вашу статью на блоге, если она имеется))
Здравствуйте. Если что о Yoast SEO написано здесь. Неплохо также проблему внешних ссылок в комментариях + дублей replytocom решает плагин Arkhidecommentslinks.
Здесь лучшая статья о избавлении от других wordpress дублей (не мой сайт).
Могу сказать, что лучше всего сайт оптимизируется связкой двух плагинов — Yoast SEO и Clearfy. Но последний платный, стоит 1000 рублей на 1 сайт. О нем я тоже писал статью.
А галочка под комментариями добавляется с помощью плагина Subscribe to Comments Reloaded. Я про него не писал, введите его в поисковик и вам выбьет десятки статей других блоггеров.
Спасибо за оперативный ответ! Пойду дальше изучать и устанавливать плагины))
Хорошая подробная статья Михаил, Спасибо. Я одно время устанавливала плагин Yoast SEO, потом удалила его. Правильная настройка многое дает. Но я очень много экспериментов провела на своем блоге, о чем нисколько не сожалею — ведь не испытав на своем блоге опыта, не поймешь НИЧЕГО. Однажды я по одной статье прописала вместо wp в файлах и потеряла блог.
В инете появился новый сайт — мой: без изображений, без статей — нулевый. Хостинг восстановил за 5 часов. Я написала тому товарищу: Как вы можете предлагать такой опыт, вы сами хоть делали эти телодвижения. Ответ оказался самым… смешным — не то слово. Он мне ответил: Контент нужен на сайте, я отрерайтил немного и поставил статью. Самим нужно думать как и что. Верх идиотизма) Сказать, что меня разочаровал такой ответ — нет, я самостоятельно начала изучать файлы движка. Через некоторое время зашла на эту умную статью, а там все плюются — многие потеряли сайты как и я. Спустя долгое время снова зашла на этот сайт — статьи нет — удалена.
А еще попозже увидела, что сайт в АГС: видимо много копипаста или еще что — то нашли наши ПС. Все, что нас не убивает, делает сильнее. Спасибо Михаил и удачи Вам!
Да, в этом плане опасно писать статьи на технические темы, потому что можно людям насоветовать всякого, а потом могут быть проблемы. Многое зависит от владельца сайта. Если нет уверенности, что после изменений что-то не сломается, то лучше не делать. Сейчас эпоха информации, причем как качественной, так и некачественной.
Ну и постоянно делать резервное копирование сайта. Я вот базу данных регулярно копирую, потому что там вся информация с сайта лежит.
Мне Михаил ребята вычистили блог, настроили (нашли вируса как ни странно), те старые бэкапы удалила, сейчас делаю обязательно резервное копирование на всякий случай. Но когда все ровно, стоит ли нарушать счастливый ход движения? Ведь и так все хорошо. Спасибо Вам за обратную связь.
Если все хорошо функционирует, то лучше скачать сайт полностью в такой конфигурации, как он есть, чтобы в случае чего откатить изменения назад. У меня так было раз. Я разбираюсь в коде, но все равно что-то случайно не там вставил и поломал шаблон.
Я руководствуюсь следующими шагами:
1) Затачиваю статью под один ключ
2) Пишу много и интересно по своей технологии, описанной в своей книге
3) Пишу исключительно от себя, если это авторские статьи
4) Стараюсь завлечь пользователя посредством других интересных статей.
Пока результат первый вполне себе приятный
Вот «много» у меня не всегда получается, большинство статей короткие.
Возможно, у тебя просто тема требует более чётких рамок, более обозначенной постановки мыслей… Я могу где-то зачесаться языком, но чисто технические статьи такого не терпят. Так что это вполне нормально — другое дело, их можно разбавлять материалами из жизни, так сказать, одушевлять блог!
Гугл вообще на валидацию не обращает внимания, в яндексе, я думаю, ситуация не сильно отличается.
Я бы еще добавил валидацию кода
Не сказал бы, что это вообще может играть какую-то роль. Валидный код это неплохо, но мне кажется, это уже для перфекционистов, реальной пользы в продвижении либо мизер, либо вообще нет.
А разве валидный код не влияет на скорость загрузки страниц
А скорость загрузки, на сколько я знаю, влияет на ранжирование. Конечно, это далеко не главный критерий, но всё же
Да может немного и влияет, но это очень мало. Все правильно, минимальная польза может быть, именно минимальная. Например, тот же тег noindex невалиден, но не использовать же его в угоду валидности? Иногда он очень нужен, закрыть неуникальные фрагменты в коде. Мне кажется, если уже валидатор находит 100+ ошибок, стоит что-то предпринять, в ином случае можно быть относительно спокойным.
Мой блог в основном настроен именно по этим принципам.
Но есть одно отличие. Я в урл статей включаю рубрику.
Я думаю, что оба варианты правильные
Да я думаю разницы особой нет. Длина url играет ничтожную роль в поисковых алгоритмах
Хороший список, в принципе его можно было бы еще дополнить, но и этого хватит для серьезного улучшения сайта с точки зрения поисковых систем.
Да, забыл еще написать о микроразметке, это тоже достаточно полезная вещь. Думаю, статья еще будет дорабатываться, потому что очень много факторов есть, которые способствуют оптимизации.