Profile cover photo
Profile photo
SEO Gorod
3 followers
3 followers
About
Posts

Post has attachment
Пагинация и SEO

Пагинация – деление контента по страницам, одна из важнейших тем для каждого вебмастера. При наличии немалого количества контента, без разбиения его на страницы практически не обойтись. К тому же, благодаря пагинации контентом удобнее пользоваться, да и есть много моментов SEO, о которых нельзя забывать.

Пронумеровать страницы – это не ракету построить. Но, если рассматривать это со стороны поисковой оптимизации, то следует упомянуть о некоторых нюансах, которые нельзя упускать. Перед тем, как начать разбираться во всех мелочах, стоит уяснить, какие бывают виды пагинации страниц и проблемы, которые могут при этом возникать.

Типы пагинации

Многие, задумываясь над пагинацией страниц, представляют всего один-два ее типа, однако на самом деле есть намного больше таких методик. По многим критериям они напоминают друг друга, но при этом есть и большая разница между ними, проявляющаяся в удобстве использования и функциональности.

1. Разбивка статей

Один из наиболее популярных типов пагинации. Если у вас имеется довольно длинная статья, которую не хотелось бы выводить на одной страничке, вы можете разбить ее на несколько страниц. Реализовать это очень просто: разбиваете статью на части, публикуете их на разных страницах, а затем внутри каждой из них устанавливаете кнопки «Следующая» и «Предыдущая».

seo-pagination

Соответственно, у каждой страницы будет свой URL-адрес, к примеру:

vashsite.com/vasha_statya-1.html.
vashsite.com/vasha_statya-2.html.
vashsite.com/vasha_statya-2.html.
К каждой части вашей статьи может быть применено свое имя. Таким образом, к примеру, вместо vasha_statya-1.html вы легко можете использовать chast_name.html, в котором chast_name будет являться наименованием раздела. Однако, учтите, что это может вызвать некоторые трудности при поисковой оптимизации, поэтому, лучше всего, использовать метод 1,2,3.

1. Пагинация галерей

Для реализации пагинации галереи с картинками нужно, чтобы у каждого изображения в этой галереи была своя страничка. Тут так же, как и с разбивкой статей, вы можете указывать номер изображения после названия серии (1, 2, 3…). Опять же, можно дать каждой странице с изображением свое наименование, но, в таком случае, поисковик не будет видеть, что все иллюстрации принадлежат к одной галерее.

Чтобы организовать навигацию, можно снова использовать кнопки «Следующая» и «Предыдущая».

2. Пагинация категорий

Для сайтов, которым характерно наличие большого количества категорий с подразделами, для просмотра полного перечня которых необходимо несколько раз пролистывать страницу, довольно часто применяется пагинация категорий. Работать с ресурсом, таким образом, значительно легче.

3. Деление на страницы комментариев в блогах или тем на форумах

На форумах очень часто используют пагинацию, поскольку тема может быть очень длинной, и если все это будет тянуться на одной страничке, то пользоваться будет очень неудобно. То же самое и с записями в блогах, если комментариев много, их нужно разделять на разные страницы и соединять кнопками «Следующая», «Предыдущая».

4. Пагинация бесконечного прокручивания

Это последний и также один из самых популярных способов пагинации. Суть в том, что когда пользователь листает страничку вниз, следующая часть автоматически присоединяется к текущей.
Поскольку все происходить в автоматическом режиме, использовать кнопки «Следующая» и «Предыдущая» тут не нужно. Они заменяются специальным скриптом.

Проблемы, которые могут возникнуть

Тут, как и с любой полезной «фишкой», если вы не разбираетесь во всех нюансах и тонкостях реализации пагинации, у вас могут возникнуть различные неприятности.

• Глубина сканирования

Все ссылки пагинации должны быть корректно сформированы, в ином случае, Google-ом в данной серии будут проиндексированы не все страницы. Кроме того, у Google есть лимит сканирования страниц с одного сайта, а это значит, что сканирование может получиться недостаточно глубоким.

Поэтому, лучше создать отдельную страничку «Просмотреть все» и указать поисковому роботу, что индексировать нужно только ее, а остальные страницы из пагинации трогать не нужно. Это мы разберем далее.

• Повторение контента

На поисковой оптимизации очень негативно сказывается дублированный контент. А при пагинации, такое явление может возникнуть, если вы применяете разбивку контента по отдельным страничкам и страницу «Просмотреть все». Поэтому, при реализации разбивки страниц рекомендуется применять rel=”nofollow”.

Это позволит вам без опасений использовать страницу «Просмотреть все».

• Бедный контент

Когда-то Google нравились сайты, на которых было лишь несколько страничек с одним-двумя изображениями или небольшим кусочком текста. Однако, на данный момент все совсем по-другому. Бедный контент может вызвать немало серьезных проблем.

Наибольшее количество проблем от бедного контента стоит ожидать от пагинации галерей, поскольку в других ее типах на ваших страницах будет хотя бы по несколько абзацев текста.

Если же вы запретите Google проводить индексирование отдельных страниц с изображениями, а обслуживать их будете с помощью одной главной страницы, то таких проблем у вас не возникнет.

К томе же, чтобы ваш контент получился более насыщенным и нравился Google, можно добавлять на странички с изображениями больше информации, к примеру, в виде ссылок на подобные галереи, связанные элементы и прочее. Недостаток такого подхода в том, что может понизиться плотность ключевых слов и соответственно упадет рейтинг.

Рекомендации по правильной организации пагинации

На практике правильная реализация пагинации не вызывает почти никаких трудностей. Однако, если вы сделаете ее некорректно, то вскоре ощутите все проблемы, к которым это может принести. Если будете следовать данным рекомендациям, сможете их избежать.

В каком месте применять пагинацию

Тут нет каких-либо универсальных норм, однако, можно привести общие советы, которые подойдут в подавляющем большинстве случаев.

При реализации пагинации статьи, можно провести линию в конкретной точке, на ресурсе в целом или в конце главы вашей статьи. Более логичным местом считается именно конец раздела, однако, такой подход чреват тем, что тексты на страницах могут получиться слишком разной длины.

Что касается комментариев в блогах и тем на форумах, то, лучше всего, будет выделять на одну страницу порядка 10-20 сообщений (комментариев). Естественно, сообщения могут быть длинными, в таком случае, если их будет 20, на одном экране они не уместятся. Страшного в этом ничего нет.

Есть пользователи, которые больше предпочитают постоянное прокручивание страницы, нежели кликание по кнопке «Следующая». Поэтому, главное придерживаться правила – не больше 20 сообщений на странице, но и не меньше 10.
В случае с пагинацией категорий, лучше всего, будет создавать новую страницу, когда наберется порядка 50-70 ссылок. Можно также найти рекомендации по использованию 100 ссылок, однако это будет уже перебор. А если еще и с мобильного устройства просматривать, то и подавно.

Для разбитых на страницы статей нужно всегда создавать содержание

Казалось бы, что данный момент все и так понимают, однако, исходя из того, что можно встретить в интернете, это не так. Поэтому, разберем и данный нюанс, когда разбиваете статьи на страницы, не забывайте создавать содержания.
Не все читатели и не всегда будут читать ваши статьи в том порядке, в котором они расположены.

Зачастую посетитель читает вводный материал, а затем сразу же переходит к месту, которое ему наиболее интересно, остальной контент при этом во внимание не берется.

Поэтому, вы должны предоставлять такую возможность, то есть создавать содержание для разделов, чтобы пользователи сразу могли к ним переходить. Если вы этого не сделаете, то, скорее всего, посетитель просто уйдет с вашего сайта.
Содержание должно находиться на видном месте, обычно его размещают сразу же за заголовком либо в поле, недалеко от первого пункта.

Кроме того, содержание должно быть и на каждый страничке вашей статьи, чтобы посетители без проблем могли по ней перемещаться из любого места.

Помните о страничке «Просмотреть все»

Выше мы уже говорили о том, что, благодаря странице «Просмотреть все», можно избежать многих проблем с оптимизацией, связанных с пагинацией страниц.

Есть пользователи, которым не нравится постоянно кликать по кнопке «Следующая», поэтому они предпочитают страницу «Просмотреть все». К тому же, она избавит вас от проблем при поисковой оптимизации.

Но, данное правило не касается форумов, потому как на них нет смысла в создании страницы «Просмотреть все». На форуме вы просто должны разбивать темы на страницы и все, пока нет никаких методов обхода этой ситуации.

При создании страницы «Просмотреть все», вы должны указать Google, что индексировать нужно исключительно ее, а другие страницы нет. Это единственный способ избежать санкций за дублирование контента. Чтобы реализовать его, для отдельных страниц применяйте «noindex».

После того, как поисковой робот посетит ваш сайт, вам, вероятнее всего, нужно будет проверить индексацию, чтобы удостовериться, что «Google» сканирует именно общую страницу, а отдельные не трогает.

Не думайте, что это очень хлопотно, да, придется потратить немного сил и времени, но это ничто, по сравнению с наказанием за повторение контента.

При необходимости применяйте rel=“next” и rel=“prev”

Бывает, что условия конкретного проекта не позволяют создать страницу «Просмотреть все». Это также попросту может не допускать используемый вами тип пагинации. В таком случае, чтобы заставить «Google» индексировать полностью все странички из данной серии, вы можете прибегать к использованию rel=“next” и rel=“prev”.

С помощью этих HTML-атрибутов вы сможете указывать «Google» на последовательность индексирования ваших страниц.

Однако, помните, что это указание может быть взято во внимание «Google», а может, и нет. Поэтому, нельзя быть уверенным, что будут проиндексированы все страницы.

Заключение

Пагинация неразрывно связана с определенными проблемами в удобстве использования и оптимизации, однако все из них можно решить. Пагинацию нужно применять правильно, иначе вы рискуете получить серьезные проблемы.
Но, достаточно следовать названным рекомендациям и вы будете получать от пагинации, исключительно, положительный эффект. Не нужно будет переживать, что у сайта станет плохое юзабилити, или упадет рейтинг в поисковиках.
Photo
Add a comment...

Post has attachment
Что для сайта важнее: дизайн или SEO?

Недавно беседовал с контент-стратегом о том, что отечественный рынок SEO находится в кризисе. Естественно, трафик уходит на второстепенный план, оставляя почетное место контенту. Сделайте оценку любого магазина — все удачные проекты придают дополнительную ценность пользователям.

В таком деле SEO почти бессильно.

Хотя подождите. SEO ≠ трафик! Еще SEO является и внутренней оптимизацией ресурса: корректный кодинг, юзабилити, хорошие метатеги, эргономика и множественные правки, которые мы делаем для того, чтобы контент имел вполне качественный вид на внешних площадках: не только при поисковой выдаче рекомендательных сервисов, но и в социальных сетях, парсерах.

SEO очищает дорогу для нужного контента. И создание сервиса только с позиции стиля станет дорогой в никуда. Редизайн или разработка эффективного сайта должна начинаться с SEO.

Десять роковых ошибок при редизайне портала:

1.Вы не задумываетесь о SEO с начала процесса.

2.Отказываетесь от проведения качественного SEO-аудита, а сразу приступаете к разработке новой платформы.

3.Не придаете значения топовым ключевым словам с предыдущего ресурса (следовательно, создаете изначально ослабленную структуру площадки).

4.Забываете про 301-й редирект.

5.Не уделяете необходимого внимания структуре URL.

6.Не обращаете внимания на «плохие» обратные ссылки, что переносятся со старого сайта.

7.Считаете, что адаптивный дизайн является лишним.

8.Не открыли рабочие страницы портала для индексации поисковыми роботами.

9.Не проверили, правильно ли на новом сайте работают коды Яндекс.Метрики и Google Analytics.

10.Разучились смотреть на ресурс глазами обычных пользователей.

Создаем сайт с чистого листа

Алгоритм необходимых действий является практически одинаковым для редизайна и создания портала с нуля. Давайте рассмотрим важные пункты на сложном пути к созданию продающей веб-площадки.

Сделайте ресурс любимчиком Google

Сегодня мы вступили в новейшую эпоху SEO, и одни только ключевые слова практически не работают. В том случае, когда копирайтеры перестарались с вхождениями, то можете получить санкции.

Если оптимизаторы спрятали ключи, чтобы тихонько отдать их поисковому роботу , то получите санкции.

В ситуации, если вы выполняете все, что хочет Google: создаете контент хорошего качества, то ключевые слова будут достаточно эффективными, обязательными и полезными. Для определения идеального семантического ядра вашему новому (либо обновленному) сайту, нужно сделать полный SEO-аудит прошлой площадки и проанализировать конкурентскую стратегию.

Сам Google говорит, что при создании полезного информационного сайта, создайте страницы с четким и подробным описанием тематики. Хорошо подумайте, по каким именно ключевым словам пользователь будет искать ваши страницы, и вставьте такие слова в текст. Не используйте целые списки ключевых слов и не старайтесь публиковать различное содержание для поисковых систем. Не нужно создавать такие страницы, которые предназначены только для сканеров. Если портал содержит страницы, тексты и ссылки, что не предназначены для посетителей, Google часто рассматривает такие ситуации в качестве способа ввести в заблуждение, и может даже игнорировать подобный сайт.

При аудите обратите особое внимание на такие показатели:

- среднее количество посещаемости уникальных пользователей за один месяц;

топовые слова-ключи, влияющие на ранжирование, генерацию лидов и трафик;

число и качество входящих ссылок;

общая численность индексированных страниц;

количество страниц с максимальным трафиком.

Эти данные дадут возможность нарисовать точный портрет будущего сайта: какие необходимы страницы, от чего лучше отказаться, возле каких ключей построить рекламные кампании, каким образом сделать навигацию по ресурсу, чтобы предоставить удобство пользователям и Гуглботу.

Оптимальная структура URL

Представим, что вы решили запустить интернет-магазин с огромным ассортиментом продукции. Существует вероятность того, что со старта завалите портал длинными и странными URL-адресами. Приоритетом номер один должно быть создание правильной структуры URL. Подумаете, а причем тогда SEO? Поисковые роботы предпочитают короткие и простые URL, отвечающие содержанию страницы.

Цитата Google:

Структура URL портала должна быть предельно понятной. Попытайтесь сделать контент таким образом, чтобы URL имел логическую структуру и был понятным человеку (используйте слова, а не идентификаторы, которые состоят из множества цифр). Чересчур сложные URL, особенно состоящие с нескольких параметров, могут усложнить работу сканеров. Вследствие чего, робот Googlebot может использовать намного больше ресурсов с целью передачи данных. Существует вероятность, что он не сумеет полностью сканировать все содержание сайта.
Обязательны ЧПУ (веб-адреса, которые легко воспринимаются человеком).

Резиновые ресурсы без ГМО

Google одобряет адаптивный дизайн, поэтому «резиновый сайт» будет вашим лучшим выбором из всех доступных вариантов:

Адаптивный дизайн обозначает, что на всех устройствах постоянно открываются одни и те же URL. При этом код HTML не меняется, а адаптация страницы к конкретной платформе происходит за счет разметки CSS. В своих рекомендациях Google предлагает использовать такую конфигурацию.

Важным аргументом в пользу responsive design: в таком случае Google может индексировать больше контента на портале, чтобы использовать наиболее актуальные данные о содержании.

Еще единый URL для страницы на различных платформах обозначает, что трафик не будет делиться между десктопным и мобильным сайтами. Независимо от их устройства посетители смогут делиться одной и той же ссылкой. Таким образом, страница получит абсолютно весь трафик, который заслужила. А адаптивный дизайн повысит скорость загрузки страниц (отсутствуют редиректы), а пользователи постоянно видят одно и то же содержание.

Вы с самого начала должны работать над SEO

Дизайн сайта является не только эстетикой. Естественно, стильные визуальные элементы привлекут внимание, но нужно помнить одно правило: главное, что под капотом. А там работает новое поколение сеошников, и только они смогут обеспечить надежную работоспособность всего механизма.

Если у людей не получается вас отыскать через поиск, а навигация на сайте состоит из сложных ссылок, то совершенно неважно, насколько прекрасна обертка.

Знаете, в чем заключается секрет огромных бюджетов для продвижения и постоянных трудностей с вашим проектом? Оказывается, что все нужно делать вовремя. Работа по оптимизации сайта начинается задолго до того, как его соберут. Программирование, дизайн и SEO не является вопросом приоритетов или собственных предпочтений.

Это сумма вашего потенциального заработка на готовом сайте.

Итак, закрыв глаза на оптимизацию в самом начале проекта, вы серьезно рискуете потерять то, что делали с большим трудом в течении многих месяцев. Все очень важно, начиная с самой структуры портала и завершая мета-описанием страниц. Если вы решили заняться данной работой серьезно, пожалуйста, берите во внимание перспективу и не доверяйте абсолютно никому, кроме мастеров.
Photo
Add a comment...

Post has attachment
Что изменилось в SEO в 2014 году

Известный ученый Альберт Эйнштейн придерживался того мнения, что чистейшим безумием является то, когда от одного и того же действия человек ожидает другого результата. Может в других отраслях это и является правдой, только в SEO данное утверждение имеет обратный эффект. Если в SEO не использовать новых подходов, при этом учитывать постоянные изменения систем поиска, то ни о каких топовых позициях не может быть и речи.

И если взять изменения поисковых систем в 2014 году, проанализировать их, то можно увидеть и перспективу для развития SEO на будущее.

Итак, давайте вспомним, какие же изменения в работе поисковых систем произошло на протяжении 2014 года! Для начала хочется вспомнить неудачный проект от Google под названием Authorship. По своей сути идея самого проекта была довольно простой, но на практике он претерпел неудачу. Мы надеемся, что проект, разрабатываем Google в течение трех лет все-таки реанимируют и он будет существовать.

Давайте вспомним, ранее изображение автора блога или статьи выводилось в сниппете в SERP. Концепция Authorrank заключалась в том, чтобы определить рейтинг изображения и затем его использовать в ранжировании. Вся операция должна была проходить через связку Google+. Вроде бы все понятно и предполагалось успешно данную концепцию ввести в жизнь. Google+ находится под полным контролем поисковика, следовательно, есть возможность получать полную информацию об авторе, узнавать о его интересах, истории, уровне знаний, с кем он предпочитает общаться, какого рода контент создает он, нравится ли то, что он делает пользователям или нет.

Но в конечном итоге специалисты Google приняли решение остановить разработку проекта, в основном ссылаясь на низкую имплементацию.

Также причиной отмены Authorship стало то, что данный сервис привязали к профилям пользователей, при этом накручивая авторитет ссылки в выдаче системы поиска.

Кроме того, после того как было введено Reach Snippets с фото авторов выдача CTR контекстных объявлений AdWords существенно снизилась. Соответственно, это повлияло на снижение прибыли самого Google.

Ну, а как всем известно, Google является первым делом коммерческим предприятием, а уж потом системой поиска.

Компания Google заявила в августе, что сайты, сертифицированные HTTPS/SSL, получат дополнительные преимущества в ранжировании. Согласитесь, что подобное действие могло бы значительно обезопасить интернет-пользователей. Хотя не стоит надеяться, что наличие подобного сертификата принесет значимые улучшения позиций ресурса.

Данный фактор был бы одним из многих, которые система поиска учитывает при ранжировании сайтов.

В 2013 году было принято решение, что информация о КС теперь не будет отправляться в сервисы аналитики. После принятия такого решения велись довольно оживленные обсуждения: некоторые приветствовали подобное решение, а другие наоборот не хотели его принимать. Тем не менее, к окончанию 2014 года практически 90 процентов КС стали иметь статус not provided. Многие согласятся, что это значительно усложнило работу, кроме того процесс анализа трафика переместился на уровень страниц входа. Но не нужно забывать о возможности получения информации о КС из сервисов анализа конкурентов SimilarWeb, Prodvigator, SemRush, а также из Google Webmaster Tools.

Переход от ключевиков к семантическим конструкциям

Внедрение алгоритма Колибри в системе поиска Google привело к тому, что ключевые слова стали восприниматься поисковиком с пониманием концепции вопроса. Можно сказать, что на данный момент еще имеются недоработки в данном алгоритме, особенно если говорить о русскоязычной версии, но, тем не менее, результат на лицо. За 2014 год произошли значительные улучшения в данном направлении, что не может не радовать.

Согласитесь, что вводить в поиск фразы типа «мебель купить казань» изрядно поднадоело.

Давайте более подробно попытаемся рассмотреть концептуальную подборку ключевых слов! Многие уже удостоверились в том, что сегодня просто размещения на странице ключевых слов уже недостаточно. Страница, или же сайт в целом должен по максимуму отвечать запросу пользователя. Лучше сказать, что они полностью должны отвечать цели поиска.

За 2014 год изменились подходы к самому определению релевантности Google. Сомневаюсь, что многие положительно ответят на вопрос: «А учли ли, SEO-специалисты, эти изменения на своих ресурсах?».

Одним из нововведений 2014 года в SEO была новость, что Page Rank больше не будет обновляться. Многие тогда обрадовались данному факту. Ну и если рассуждать здраво то, действительно, то, что было разработано еще в 1998 году, сегодня попросту устарело, и зачем его еще и обновлять. Тем более что данный показатель несущественен в общей картине ранжирования.

В противовес все-таки скажем, что система Google до сих пор рассчитывает данный показатель, более того, система делает его вседоступным. Отметим, что современные SEO-специалисты давно перестали обращать внимание на PR-показатель.

Теперь поговорим о работе Google Panda в этом году. Ну что можно сказать? Критерии относительно качества контента только ожесточились, в результате чего множество крупных сайтов попали под санкции. Среди таких титанов можно отметить Ebay, Yellow Pages. В то же время данный алгоритм начал более мягко относиться к небольшим ресурсам, что со стороны владельцев таких сайтов рассматривается положительно.

Google Pinguin 3.0

Новое обновление данного алгоритма произошло в октябре, ровно через год от предыдущего. Такое обновление заставило многих специалистов изрядно понервничать. Оказалось, что выйти из-под фильтра невозможно без апдейта.

Если рассмотреть апдейт Пингвина в этом году, то он вроде выглядит классическим. В это же время стоит отметить, что пессимизации поддались сайты, которые имели прямые вхождения поисковых запросов в анкорах, а также ссылочной массе спамного характера. И получилось, что те сайты, которые оптимизируются при помощи арендных ссылок, не утратили своих позиций и продолжают активно развиваться.

Отметим также, что апдейт Пингвина не закончен. Уже более двух месяцев он продолжает обновляться, при этом изменения тестируются прямо «на ходу».

Совсем недавно Мэтт Каттс объявил получение ссылок путем гостевых постов вне закона. В то же время он не отрицает того факта, что гостевой постинг является хорошим источником контента высокого качества. Все дело в спаммерах, которые дискредитировали данный подход. В доказательство своих намерений система Google пессимизировала крупнейшую площадку интернета MyBlogGuest.

По мнению многих SEO-специалистов это было лишь показательным выступлением от Google.

В настоящее время нельзя точно сказать, насколько эффективно поисковая система будет определять гостевые посты, и бороться с ними. Заметим лишь только то, что подобное заявление Каттс сделал не на официальной странице поддержки Google, а только у себя в личном блоге. Насколько серьезно подобное заявление, покажет только время.

В 2015 году Seo-специалисты должны устремить свои силы на оптимизацию сайтов под мобильные устройства. Не будем приводить в пример цифры, но всем известно, насколько стремительно развивается уровень использования планшетов и смартфонов. Если взять, например США, то тут уже около 40 процентов поисковых запросов совершаются с мобильных устройств.

Безусловно, что нашей стране далеко до таких цифр, но тем не менее.

Очень важным на сегодня показателем сайта является скорость его загрузки. Дело состоит не в том, рассматривает ли Google данный показатель в ранжировании. Пользователь просто не будет ждать, пока сайт загрузится те же пять секунд, вроде немного, но это все-таки время, и как показывает практика, медленные сайты не отличаются высокой посещаемостью.

Если верить исследованиям компании Relentless, то около 30-ти % пользователей уходят с сайта уже после трех секунд ожидания.

Довольно внушительный аргумент для того, чтобы владельцу сайта заняться внутренней оптимизацией. Прежде чем предпринимать любые шаги по устранению проблем с собственным сайтом, можно воспользоваться Google Page Speed Insights. Этот сервис поможет протестировать ресурс на наличие ошибок.

Сколько про это не говорилось, но важнейшее место на сайте отводится контенту. Если владелец сайта сумеет выбрать эффективную контент-стратегию, то это может в короткие сроки привести к значительному успеху. Вы можете работать над технической оптимизацией ресурса, но она только выравнивает шансы сайта по отношению к конкурентам.

Как бы хорошо не проводилась техническая оптимизация, она никогда не прибавит Вашему ресурсу ссылок и покупателей. К этому может привести только контент высокого качества.

В наши дни игнорировать социальные сети будет только человек не совсем здравомыслящий. Вы можете обижаться, но сегодня после системы поиска Google стоит Youtube. Ежедневно люди используют Facebook и Twitter для поиска нужной им информации.

Подобный потенциал не стоит игнорировать, а надо, как говорится, брать быка за рога.

На 2015 год необходимо выбирать для себя стратегию развития своего ресурса в социальных сетях. Отметим, что здесь необходимо быть постоянно активным, размещать полезную для потенциального пользователя информацию, общаться со своими подписчиками, то есть, делать все для успешного сотрудничества с пользователем.

Не стоит забывать о негативном SEO, которое может принести вред сайту.

К сожалению, алгоритм борьбы со спамом настроен таким образом, что ему не под силу определять, кто размещает спамные ссылки на сайте. Зачастую такие действия предпринимают конкуренты, но это неважно для системы поиска. Поэтому будьте внимательны, и хотя бы один раз в полмесяца проверяйте ссылочный профиль собственного сайта.
Photo
Add a comment...

Post has attachment
Ошибки веб-дизайна, которые вредят SEO

Разработка веб-сайта считается комплексной задачей, которая включает в себя основные принципы раскрутки бренда, хороший дизайн и практичность. Это перечислены только некоторые из них. Иногда разработчики и дизайнеры в гонке за новыми технологиями при создании очередного сайта забывают о том, как использование этих технологий повлияет на ранжировании портала в поисковых системах.

Проводя анализ некоторых новых разработок с точки зрения SEO, мы можем заметить, что аналогичные проблемы возникают систематически.

А ведь подобных оплошностей еще на этапе проектирования можно было бы избежать, соблюдая некоторые базовые принципы.

Ниже приведено описание самых распространенных трудностей и дано несколько рекомендаций, которые технически должны помочь их решить или свести к минимуму потери.

1. Не применяйте технологии сайтостроения, которые устарели

В наши дни уже довольно редко можно встретить порталы, созданные полностью на флеше или с помощью фрэймов для фона веб-страницы. Все же часто попадаются ресурсы, в которых данные методы использованы для вывода отдельных элементов контента. Например, когда дизайнер планирует применить анимацию или какие-либо другие визуальные эффекты для реализации сложных концепций.

В большинстве случаев с помощью HTML5 в сочетании с JavaScript можно сделать аналогичное. И такой код страниц будет наиболее приемлемым для поисковых систем. Можете попробовать применить другие технологии, рекомендованные WWC, и наверняка убедитесь, что все содержимое портала доступно для сканирования роботам поисковиков.

2. Ваш контент сохраняйте на AJAX

AJAX просто великолепен. Является отличной технологией для усовершенствования user experience (опыт взаимосвязи) пользователя и минимизации затрат времени при открытии страницы. Так как с сервера происходит загрузка только запрошенной информации без необходимости просмотра целой страницы. Тем не менее, необходимо быть довольно осторожным при использовании данного метода для того, чтобы избежать ситуации, при которой часть страницы становится незаметной для поискового робота.

Официальное мнение Google на счет AJAX заключается в том, что поисковые машины могут обрабатывать Javascript и AJAX.

И они, естественно, прогрессируют в данном направлении. Но сегодня объективная ситуация выглядит таким образом — никто наверняка не знает, как роботы Google взаимосвязаны с таким функционалом. Желательно, чтобы AJAX использовался лишь в том случае, когда на то есть достаточно веские аргументы с точки зрения user experience.

Хорошим вариантом проверки того, как Google воспринимает конкретный ресурс, является использование функции в «Инструментах для веб-мастеров».

Сделайте анализ исходного кода и удостоверьтесь, что текст, который вы планируете сделать видимым для поисковика, распознается на вашем портале. Для написания различных URL-адресов используйте метод PushState, чтобы Google имел возможность просканировать всевозможные варианты страницы, созданные скриптами AJAX.

3. Главное содержание страницы не размещайте ниже первого сгиба

Можно встретить еще одну распространенную ошибку, когда сайты, в особенности те, для которых реклама стала основным источником для получения доходов, размещают чересчур много изображений или рекламных баннеров вверху страницы.

Это может дать неплохой результат в плане большого числа кликов по объявлениям, но одновременно с тем может негативно повлиять на user experience.

Google сделал официальное признание того, что отображение главного содержания страницы ниже первого сгиба может нанести вред SEO. По этой причине важно обеспечить свободный доступ к основной текстовой части, не используя полосу прокрутки.

4.Чересчур тяжелые страницы по причине большого числа изображений

Все прекрасно понимают, что картинки и другая графика являются важнейшими составляющими любого веб-проекта. Сегодня это намного актуальней, чем было раньше. Новейшие достижения открывают неограниченные возможности для всего того, что относится к графике.

Но использование довольно большого числа визуальных элементов или изображений в рамках одного портала может сделать страницу довольно «тяжелой». При этом скорость загрузки уменьшится до черепашьей.

Одним из лучших вариантов не допустить или хотя бы минимизировать ущерб от указанного препятствия является использование Google Page Speed. Это довольно полезный инструмент, который разработал Google, чтобы помочь вебмастерам в оптимизации загрузки веб-страниц по времени. В том случае, если открытие страницы начинает занимать очень много времени, значит нужно проверить и проанализировать насыщенность размещенных на ней визуальных элементов.

Существуют и другие доступные способы для оптимизации картинок под веб, в том числе и оптимизация средствами Photoshop или при помощи сервиса Yahoo — Smush.it, предлагающие сжатие изображений без ухудшения качества, а также дают возможность убрать из файлов лишние байты.

5. Уделяйте достаточно внимания внутренней перелинковке страниц

Внутреннее взаимодействие вашего ресурса имеет существенное влияние на его ранжирование. Взаимосвязь между страницами определяется ссылками. Высокое качество системы навигации помогает поисковикам разобраться, какие именно из страниц веб-сайта являются наиболее важными, и тогда именно они с большей вероятность будут ранжированы более высоко.

Основным моментом в данном вопросе является установка и поддержка определенного баланса в распределении ссылок, которые необходимы для нормальной навигации по ресурсу и теми ссылками, которые должны сделать упор на более важные страницы.

Одним из примеров могут быть домашние страницы или splash-страницы. На них довольно часто размещают много графики, но зато слишком мало ссылок, которые свободно имели бы возможность передавать статическую массу другим страницам.

Постарайтесь создать прозрачную навигацию для пользователей и удалить все лишние ссылки, чтобы наилучшим образом можно было передавать статический вес именно тем страницам, которые вы хотите продвигать в первую очередь.

6. Думайте и действуйте интерактивно

Насколько только это реально портал должен подстраиваться под запросы с разных категорий устройств. Со стороны SEO это может объясняться некоторыми причинами. Google хорошо воспринимает структуру мобильного варианта портала (так как она является практически аналогичной версией для настольных устройств).

Навыки пользователя во время работы с мобильной версией тоже очень схожи. Ко всему прочему, сохраняя те ссылки, что и в стационарной версии, вы еще больше можете увеличить ссылочную массу, и имеете возможность добиться, таким образом, лучшей позиции ресурса при поисковой выдаче.

7. И в завершении …

Не забывайте инспектировать фундаментальные элементы поисковой раскрутки сайта. Проверьте его видимость в поисковиках (Screaming Frog – наилучший инструмент), не пользуйтесь изображениями для представления текста.

Удостоверьтесь, что у вас правильно прописаны тайтлы, заголовки и описания, а также ключевики для самых ценных страниц портала, которые вы планируете продвигать.

Часто случается так, что применяя передовые методики SEO, агентства не уделяют должного внимания таким простым основополагающим вопросам. Владельцы должны понимать — довольно важно при создании ресурса еще перед этапом распределения задач для разработки всевозможных графических элементов необходимо тщательно продумывать ключевые моменты SEO.

И уже только после этого будет правильным начать работу над визуальной частью.
Photo
Add a comment...

Post has attachment
Поисковое продвижение адаптивных сайтов

После того, как в июне 2012 года компания «Google» заявила о том, что отныне система поиска будет отдавать предпочтение удобным и простым адаптивным сайтам, сразу же в сети появилось множество сообщений о том, что наряду с поисковой оптимизацией важной становится и адаптивный дизайн ресурса.

Многие специалисты сразу же отметили, что подобный подход не очень то и хорош, поскольку некоторые адаптивные сайты имеют действительно отменную оптимизацию, а вот есть такие, что и вовсе не развиваются в данном направлении.

В этом году мною уже была написана статья на тему самых распространенных ошибок, которые приводят к серьезным проблемам адаптивных веб-сайтов в том, чтобы получить хорошие результаты в выдаче поисковиков. Сейчас же, хочется вновь затронуть эту тему, но сделать более глубокий анализ адаптивных сайтов.

Имеется множество мнений относительно понятия SEO. Те, кто не знаком с моими материалами, уточню, что я вижу решение большинства вопросов, которые связаны с SEO, в том, чтобы все действия, которые разработчик сайта производит, вели к тому, чтобы улучшить опыт взаимодействия пользователей.

Отмечу также, что я, как и многие другие, более опытные SEO-специалисты, не верю в то, что можно манипулировать алгоритмами поисковиков, чтобы повысить рейтинг собственного ресурса в выдачах систем поиска.

Хотелось бы в этой статье провести аудит на примере американской версии сайта «Disney Junior». Почему именно этот сайт? Во-первых, данный ресурс не является собственностью ни одного из моих партнеров или клиентов, во-вторых, этот ресурс прекрасно подойдет в качестве примера различных спорных вопросов по SEO адаптивных сайтов, в-третьих, мои дети увлечены этим брендом, и нередко используют наши семейные устройства, чтобы посещать представленный портал.

В свою же очередь, хоть это и весьма заносчиво с моей стороны, могу только надеяться, что компания «Disney» учтет мою, так сказать консультацию, и улучшит свой ресурс для своих пользователей.

Может, конечно, мои советы по оптимизации адаптивных сайтов и не пригодятся «Disney», но смею надеяться, что они пригодятся другим веб-мастерам, которые желают в своей работе использовать передовые методы SEO в работе с адаптивными сайтами.

Отмечу сразу, что мобильная оптимизация ресурса не должна закончиться после того, как его сделали адаптивным.

Мой аудит может помочь ресурсу сделать его более доступным и удобным для поисковиков.

Для начала давайте посмотрим индексируется ли ресурс? На первый взгляд, сайт не имеет никаких проблем с индексацией, многие странички данного ресурса успешным образом проиндексированы системой «Google». Если Вы желаете проверить, насколько это является правдой, то проверьте ресурс через domain.com. Также это сделать можно, воспользовавшись сервисом «Google Webmaster Tools».

Проведя проверку, мы видим, что «Google» проиндексировал более 1630 страниц сайта «Disney Junior». В это же время, по описаниям некоторых страниц в выдаче можно увидеть, что существуют определенные проблемы с паритетностью контента.

Очевидно, что ресурс, который не индексируется поисковиками, будет невидим для пользователей, которые ищут данный ресурс. Данное обстоятельство справедливо для сайтов, которые применяют динамические сервисы, или же специальные мобильные URL-адреса, также как и для адаптивных сайтов.

Неоднократно говорилось о том, что результатом таких действий являются проблемы с мобильными URL-адресами.

Зачастую это происходит из-за того, что мобильные веб-сайты намеренно не используют файл robots.txt с целью предотвратить конкуренцию страниц, которые специально разрабатывались для мобильных устройств, со ссылками обычных веб-страниц.

Сразу скажу, что подобная практика ошибочна. Если брать обычные сайты, то для них двунаправленные аннотации могут действительно помочь оптимально распределить ссылки и вывести мобильные URL-адреса в выдачу. Но, если речь будет идти об адаптивных сайтах, то теги «switchboard» не помогут Вам достичь, ни одной из этих целей.

Если взять для примера сайт «Idis», то ему не так повезло с индексацией, как «Disney Junior». «Idis» можно отнести к инновационному и адаптивному типу сайтов, однако стоит отметить, что система «Google» проиндексировала лишь одну страницу этого ресурса.
В работе с сайтом используются динамические сервисы, одновременно с этим «escaped_fragment» не используется.

Следовательно, получается, что URL-адреса не меняются, притом, что пользователь перемещается по различным элементам сайта.

Подобное обстоятельство не обеспечивает глубокую связь, чтобы поисковики смогли включить веб-страницы в индексы. Если кому-то захочется найти фрагмент текста с данного сайта, то ему этого не удастся, поскольку данный сайт, который кстати был удостоен не одной премией, просто не найти через поиск.

Это может, безусловно, случиться абсолютно с любым ресурсом, который не владеет статическими URL-адресами. И тут я уже повторюсь, что оптимизация сайта для мобильных устройств не должна заканчиваться только тем, что сайт стал адаптивным, или же для его работы используют динамические сервисы.

Давайте посмотрим, доступен ли рассматриваемый нами сайт для сканирования поисковиками. Не знаю, известно ли всем, или нет, то, что всякий ресурс, вне зависимости от того, является он адаптивным или нет, должен хорошо индексироваться «Google». Для этого система должна иметь возможность просканировать ресурс. Объясню, к каждой уникальной частичке контента должна вести отдельная ссылка, которая вносится в базу, как новый URL-адрес.

Чтобы проверить наш сайт в этом направлении, имеется несколько хороших сервисов, которыми мы можем воспользоваться. Для этого подойдет «Screaming Frog» или же «Xenu». Для аудита мобильного SEO я предпочитаю пользоваться сервисом Роба Хаммонда SEO «Crawler».

Такой инструмент позволит нам установить «Googlebot», рассчитанный для работы со смартфонами.

Отмечу сразу, что количество доступных для анализа адресов здесь ограничено, но на данный момент нам этого вполне достаточно, чтобы получить картину сканируемости ресурса. Если Вы являетесь владельцем ресурса, то отмечу, что его верификация в «Bing» и «Google» обязательна.

Обе указанные системы поиска имеют в своем арсенале прекрасные инструменты, предназначенные для разработчиков.

Работа таких инструментов направлена на выявление ошибок в ходе сканирования. Система «Google» шагнула дальше, она указывает на те параметры, которые можно просто проигнорировать. Даже, если у Вас и нет собственного сайта, то Вы можете проверить любой ресурс описанным только что способом.

Пройдясь по «Disney Junior», могу сказать, что данный ресурс использует лишь несколько URL-адресов для размещения своего контента. Это может стать причиной того, что поисковая система не сможет правильно определять приоритетность страниц.

Это происходит из-за того, что паук поисковика имеет ограничения по количеству обходов на одном ресурсе, при этом основывается на «PageRank» сайта.

Вы должны иметь в виду, что при распределении своего «PageRank» между четырьмя URL-адресами, ну и еще тремя областями, система «Google» не считает подобную архитектуру сайта оптимальной. Более подробно об этом мы поговорим позже.

URL-адреса «Disney Junior» вроде не имеют серьезных проблем со сканируемостью поисковиками. Это получилось за счет того, что сайт использует статические URL-ы. Отмечу, что их поисковики лучше воспринимают.

Тем не менее, нужно подумать разработчикам сайта над улучшением и доработкой карты сайта.

Еще несколько лет назад поисковые системы совместными усилиями разработали «Sitemaps», которую можно назвать конвенцией по вопросам, касающихся поиска для индексации контента на ресурсах интернета. На сайте «DisneyJunior.Disney.com» имеется карта сайта, но она имеет кое-какие проблемы.

И самой существенной, на мой взгляд, является то, что в подразделе с видео содержаться не только видео-файлы.

Карта сайта является одним из способом, при помощи которых владелец сайта может общаться с поисковиками. Следовательно, информация карты сайта должна быть максимально достоверной, что будет работать на положительное сотрудничество с поисковиками, а не запутывать их.

Система «Google» владеет несколькими разновидностями карт сайта, в зависимости от его контента.

Так что создание отдельных карт для видео, изображений, html-документов и прочего должно быть преимущественным.

Отмечу, что сканируемость не выступает проблемой лишь для мобильных сайтов. Неправильная оптимизация данного направления может нанести вред и самому обычному сайту. Поэтому я рекомендую улучшать данный аспект, несмотря на вид своего ресурса.

Ну и в принципе хотелось бы все сказанное подытожить своими рекомендациями «Диснею».

По моему мнению, компания должна весь свой контент разместить на одном и том же поддомене. Это необходимо для того, чтобы поисковики могли правильно определять приоритетность страниц. Кроме того, следует провести работы, чтобы URL-адреса эффективно сканировались.

Также Диснею нужно обратить внимание на то, что карта их сайта, а, именно, подраздел для видео-контента содержит контенты не только с содержанием видео-файлов.

Весь контент оптимально распределять по соответствующим подразделам: html-документы, изображения, видео и т.д.

Теперь давайте посмотрим, читается ли сайт, если мы не будем учитывать изображения, «JavaScript» или «Флэш». Отмечу, что поисковик не сможет учесть страницу, если не сможет определить её полную релевантность. Одновременно с тем, что такие сервисы «Google» как «Glass», «Drive» и «Goggles» прекрасно распознают оптически символы, то сам «Google» считывает исключительно только текст для выдачи в поиске.

Сейчас мы приведем рекомендации, взятые у самого «Google», рассчитанные на веб-мастеров. Итак, «Google» советует создавать полезный, богатый информацией сайт, а также веб-страницы, которые бы точно и четко передавали бы содержащийся на них контент.

Специалисты компании «Google» рекомендуют разработчикам сайтов думать над тем, какие ключевые слова пользователь будет использовать, чтобы попасть на Ваш сайт. Соответственно следует проверить, имеются ли такие ключевики на страницах Вашего сайта.

Для вывода важной информации «Google» рекомендует использовать текст, а не изображения. Сканеры системы поиска не рассчитаны на распознавание текста, который содержится на картинках, поэтому стоит позаботиться о возможности дополнительного текстового описания к картинке через атрибут «ALT».

Теперь давайте посмотрим, насколько сайт «Disney» отвечает требованиям системы «Google».

Использует ли данный ресурс текст, насколько он является информативным? Как оказалось, нет. Если мы воспользуемся текстовым браузером «SEO-Browser.com», и посмотрим на рассматриваемый нами сайт, то это даст нам возможность увидеть его в таком виде, в каком его видит поисковая система. Отмечу, что то, что перед нами будет, будет значительно отличаться от того, к чему мы привыкли в обычном браузере.

Системы поиска видят лишь часть информации, которая содержится на изображении. То есть, поисковик распознает лишь долю необходимой ему информации. В результате веб-сайт становится недоступным для просмотра, поскольку на нем отсутствует текст, который бы смогла прочесть поисковая система.
Photo
Add a comment...

Post has attachment
Что входит в оптимизацию сайта

Эта статья сделана для того, чтобы ответить новичкам на все их вопросы и спланировать раскрутку ихнего сайта, а также помочь понять, к какому алгоритму им лучше следовать, чтобы добиться продвижения своего ресурса во всех поисковых системах. Как такового и определенного типа раскрутки не существует.

Практически каждый оптимизатор старается придерживаться только своих пунктов, а так как новые люди в этом деле еще не сталкивались с таким, то предлагаю вам такой план, который используют SEO-компании для продвижения своего сайта. Несколько из этих пунктов мы описали для вас вкратце, но при необходимости мы вам советуем более глубоко изучить некоторые разделы. С чего же мы начнем?

С того, что входит, в оптимизацию сайта. Буду надеяться, что затронутая мной тема будет вам полезна и пригодится в последующем.

Самым первым для вас должно быть определение цели. Когда мы говорим о SEO, то понятно, что вы тоже хотите и стремитесь, чтобы ваш сайт находился в поисковых системах. А задайте себе вопрос, зачем он обязан там быть? Как вы хотите себя раскручивать, и будете ли вы проверять свои результаты и достижения, или просто теряете годы, сидя за компьютером?

Вашими целями в этом вопросе должны стать:

простое наличие сайта в поисковиках;
должны быть немалые позиции, на ваш взгляд, для интересных запросов;
по некоторым запросам постарайтесь обойти своих конкурентов;
постарайтесь увеличить посещаемость траффика;
ищите целевую аудиторию, которая будет постоянно заинтересована вами;
повышение заработка от рекламы;
вы можете позволить себе быть модным, да-да.
В зависимости от того, какую цель вы поставите перед собой, так и сформируется план продвижения, методы формирования отчета и анализов вашей раскрутки. Возьмем такой пример, вы хотите, чтобы ваш сайт находился в поиске, но так, чтобы он был выше конкурентов.

Во-вторых, нужно сформировать ядро запросов и их группировку.

Для некоторых этот шаг называется составлением сематнического ядра. Заключается это в том, что вам необходимо найти группу запросов, которая подходит, именно, к вашему сайту наиболее максимально. Вы должны на этом этапе прекрасно понимать свою аудиторию, какие у нее интересы, ее возраст и пол. Поставьте себя на их место и представьте, какие вопросы были бы наиболее релевантны к вашему сайту. Если вы мастер своего дела, тогда сможете быстро написать ряд высокочастотных поисковых фраз, по которым вас смогут найти даже офлайн.

Если же вы захотите посвятить свой сайт такому приятному занятию, как продажа букетов и цветов, то вероятнее всего, что главным спросом будет пользоваться услуга по доставке букетов. Статистика по этому запросу в Яндексе, что вместе с ним люди ищут: такое, как покупка цветов, заказ цветов, бизнес букеты. Когда же вы определились с ВЧ, то переходите к определениям СЧ и НЧ запросов, при этом сразу анализируя левую колонку по статистике Яндекса. Для наиболее детального анализа, можете использовать статистику рамблера.

Группируйте запросы по их принадлежности к определенному ВЧ, чтобы фразы были из одной групы:

такое, как доставка букетов;
доставка букетов цветов;
доставка букетов по городам;
букеты, которые можно заказать и доставить на дом.
В-третьих, анализ вашей конкуренции в каждом из вопросов.

Когда вы уже готовы и определились с ядром запросов, вы должны будете, как следует проанализировать ваш рынок и точно знать своих главных конкурентов, следить за методами их раскрутки, позициями и тенденциями. Это очень хорошо потому, что при анализе конкурентов вы открываете много нового и вам приходиться корректировать некоторые пункты плана продвижения по сайту.

Старайтесь сперва ввести свои высокочастотные запросы, и вы увидите, какие из этих сайтов, будут на первом месте, и есть ли реклама по вашим запросам. Чтобы более детально узнать и рассмотреть конкурентов, найдите соответствующие темы в форуме, а пока действуйте интуитивно по каждому вопросу вашего ядра.

В-четвертых, познакомившись со своим конкурентом, вы должны провести аудит сайта. На это уйдет довольно много времени и внимания. Его должен проводить человек, который имеет знания и опыт в SEO. По мере идущего процесса, вы извлечете все достижения и недостатки своего сайта, и сможете провести внутренний аудит с программой xenu.
В-пятых, этот этап раскрутки сайта называется внутренней оптимизацией. Тут вы продвигаете сайт, и он становится видимым в поисковых системах.

Делаете выбор под каждую группу, и занимаетесь оптимизацией контента, в нее входят основные пункты:

редактировка текста;
редактирование заголовка, alt атрибутов и изображений;
оптимизация текста.
Photo
Add a comment...

Post has attachment
Факторы, влияющие на поисковую выдачу

Чем выше сайт в поисковой выдаче, тем больше у него посетителей и лучше конверсия. Правильное продвижение способно вывести ресурс в ТОП по определенным запросам. А чтобы грамотно его осуществить, нужно знать факторы, влияющие на поисковую выдачу.

Тег <title> и ключевые слова

«Тайтл» очень важен для поисковиков. Он должен состоять максимум из 60 символов. Чем меньше в нем будет ключевых слов, тем ценнее каждое из них. Кроме того, этот тег является еще и заголовком в выдаче. Поэтому, не стоит только перечислять запросы. Заголовок должен быть понятным, содержать суть страницы, и в то же время, вмещать ключи. Таким же образом следует поступать с тегами <h1>,<h2>.

Ключевые слова в адресе страницы

URL странички также должен содержать ключевые слова. Писать их можно на английском или русском языке, самый распространенный вариант – транслит.

Ключевые слова в тексте

Статья обязательно должна содержать ключевые фразы, но их насыщенность должна быть в пределах нормы, порядка 4-5%. От этого можно отходить, но ключи следует располагать гармонично, не портить читабельность текста. Причем первый запрос должен находиться ближе к началу текста.

Ключевые фразы в мета-теге «keywords»

Нет единого мнения по этому поводу, но все же, большинство склоняется к тому, что они должны быть.

КС в тегах <strong>

Оптимизаторы считают, что эффективность использования ключей в этом теге небольшая, но все же, она есть.

Размер страницы

Слишком объемные страницы, ровно, как и маленькие использовать не стоит. Нужно найти золотую середину. Если документ чрезмерно большой, он может быть полностью не проиндексирован. А маленький могут не оценить должным образом. Считается, что страница должна «весить» порядка 20-50 Кб, но опять же, это примерные данные, в каждом конкретном случае они могут быть другими, поэтому нужно экспериментировать.

И еще несколько важных факторов:

• Лучше, чтобы ссылающиеся на вас сайты подходили по тематике, чем их больше, тем лучше.
• Более старые страницы и сайты ценятся выше.
• Нужно регулярно обновлять ресурс.
• Быстрее индексируются доменные зоны .com и .ru.
• Структура и навигация должны быть удобными, нужно создать карту сайта.
• Внешних ссылок должно быть минимум, особенно нетематических.
• Текст нельзя переспамливать ключевыми словами.
• Не делайте текст с большим количеством ключей невидимым, поисковик так не удастся обмануть, скорее всего, ваш сайт забанят.

Влияние тиц на поисковую выдачу

Каждый поисковик пользуется своими алгоритмами определения популярности сайта. К примеру, существует подсчет указанных ключевых фраз на конкретной странице и ранжирование по индексу цитирования, ИЦ. Тематические запросы соотносятся с тематическими ресурсами, это будет ТИЦ. Данный индекс определяется для любого ресурса на Яндекс.
Чем больше показатель ТИЦ, тем выше будет позиция ресурса в Яндекс.Каталоге. Рассмотрим, влияет ли он на поисковую выдачу.

Возьмем для примера два сайта – А и Б. У А ТИЦ 10, а у Б – 150. На Б будет больше тематических ссылок, нежели на А. Но, это не говорит о том, что сайт Б считается более релевантным. По определенному запросу ресурс А может неплохо обгонять Б. Поэтому, можно сказать, что ТИЦ не влияет на выдачу. Яндексу важно, чтобы на ваш ресурс ссылалось больше качественных сайтов. Такие ссылки очень ценны.

Даже если у сайта высокий ТИЦ, без правильной оптимизации он не будет на лидирующих позициях. Поэтому, большинство вебмастеров изначально занимаются не повышением ТИЦ, а настройкой самого сайта, работают над его структурой, размещают контент под определенные запросы. Именно продвижение дает результат, и только потом идет очередь ТИЦ.
Photo
Add a comment...

Post has attachment
Новый принцип ранжирования коммерческих сайтов

Коммерческими запросами принято среди сео-экспертов называть поисковые запросы. Не путайте коммерческие запросы с геозависимыми. Запрос может быть и коммерческим, и, одновременно, геонезависимым.

Главным новшеством, использующимся Yandex, являются принципы ранжирования сайтов, с помощью которых асессоры оценивают документы, имеющие коммерческие запросы.

Релевантность каждого документа в выдаче по запросам асессорами оценивались по шкале:

Витальный.

Релевантный +.

Полезный.

Релевантный — .

Спам.

Нерелевантный.

Не про то (когда выдан документ на запрос совсем с другим смыслом).

Что позволяло одинаково оценивать по коммерческим запросам все сайты в ТОПе:

Сейчас добавили новые критерии:

• Доверие пользователей к сайту (доверит ли пользователь деньги или персональные данные, например.)
• Возможность выбора пользователем товаров или услуг (в случае, если пользователь не определился с выбором).
• Качество услуг (пользователь определился с выбором, и дает оценку качеству услуги).
• Дизайн сайта (оценивание дизайна сайта).

Вот как сейчас формируется ассесорами новая оценка по коммерческим запросам:

Новая оценка = F (Качество, Старая оценка, Дизайн, Доверие, Удобство, Что-то еще).
Таким образом, ранжирование коммерческих сайтов осуществляется следующим образом: теперь, коммерческие интернет-ресурсы в ТОПе будут оцениваться по-разному, а значит, будет возможность более детально настроить MatrixNet по коммерческим запросам.

В соответствии с новшествами среди критериев, прибавились также новые факторы для процесса ранжирования.

Стоит обратить внимание, именно на то, что факторов про «Удобство» и про «Качество» не добавилось. Можно смело заявлять об этом, так как нет смысла скрывать. Скорее всего, данные факторы уже зашиты в MatrixNet.
Photo
Add a comment...

Post has attachment
Новый алгоритм Яндекса в 2014 году: ранжирование сайтов без ссылок

Компания Яндекс приняла решение изменить систему ранжирования сайтов в выдаче, исключив учет ссылок на ресурсы. Это коснулось коммерческих запросов, как сообщили представители поисковика, в данном сегменте ссылки уже давно не играют важную роль.

Планировалось запустить новый механизм в начале 2014 года, но пока так и не заметили его полноценную работу. Как же будет происходить ранжирование сайтов в Яндексе 2014 без ссылок, как это скажется на продвижении?

Все ссылочные факторы теперь не эффективны?

Известны два вида ссылочных факторов – зависимые от запросов и независимые. Как сообщил глава поисковых сервисов Яндекса, Александр Садовский, отключаться будет влияние по 50 факторов, которые зависят от запроса. Всего же их 130. Скорее всего, отключению подвергнется «релевантность по запросу».
Кроме того, у нас остаются еще и независимые от запросов факторы – тИЦ, вИЦ, качество и количество ссылок, история их образования и прочие. Поэтому, ссылочные факторы все же будут влиять на выдачу.

Что учесть в продвижении?

Особо сильно ничего не изменится. И так, уже давно, нужно работать, именно, над ресурсом, чтобы повысить его позиции.

Поэтому нам нужно:

• Подтягивать техническую сторону – устранять ошибки, работать с robots.txt, пользоваться семантической разметкой и т.д.
• Повышать качество контента.
• Делать сайт более удобным и комфортным для посетителя.
• Постоянно анализировать коммерческий сектор (цены конкурентов, доставка и т.д.).

А как же покупка ссылок, регистрация в каталогах? Это теперь неактуально?

Регистрацию в каталогах нельзя отбрасывать, она делается дешевле, чем закупка ссылок, считается более легальной, дает нам естественные ссылки. На счет покупки ссылок на биржах пока ничего не ясно, поэтому не стоит сразу их снимать. Нужно подождать и посмотреть результат, а после уже принимать решение.
Photo
Add a comment...

Post has attachment
Правильное составление анкор-листа

Анкор – активный элемент ссылки. Принимает участие в анкорном ранжировании.
Может быть точным и разбавленным, случается, что в них попадают непродвигаемые ключевые запросы, такие как «здесь», «тут».

Они делают ссылочную массу более естественной. Для этого же применяются и картинки. Совокупность анкоров, используемых для продвижения ресурса, формирует анкор-лист. Он принимает участие в текстовом ранжировании, что не допускает переспамленности ключевыми словами.

Для придания естественности, применяют разбавленные анкоры и указательные местоимения.

Правильное составление анкоров подразумевает применение нескольких их типов, в зависимости от ссылочной массы, типа ключа, группы запросов, которые продвигают страницу, вида самой ссылки и других деталей. Как правило, анкоров с точным вхождением наиболее высокочастотного запроса применяется в пределах 30%. Нужно использовать 10% естественных анкоров, а остальную массу отдавать под разбавленные.

Для разбавления стоит пользоваться простыми словами, это сделает ключевую фразу более приоритетной для поисковиков.

К примеру, ссылка имеет такой анкор – «телефон Samsung», в этом случае слово «телефон» является легким, оно может применяться в разных значениях (телефонный номер, сотовый телефон, домашний телефон), а «Samsung» — слово потяжелее, оно более конкретизированное. А если взять анкор — «купить телефон», то слово «телефон» будет уже более тяжелым, нежели «купить».

Как правило, оптимизаторы не пользуются специальными инструментами для определения легкости слова. Но, если случай не самый простой, можно проверить, какое из слов используется чаще, делается это в Яндекс.Вордстат, включив показ статистики по каждому слову (как на картинке выше). Для этого нужно зайти в «личные настройки Яндекса», перейти в «Остальное» и настроить результаты поиска.
Photo
Add a comment...
Wait while more posts are being loaded