Мы строим сайты

Наша студия профессионально занимается разработкой веб сайтов, поддержкой, и поисковым продвижением. Мы оказываем комплексные услуги по написанию специфических веб-приложений, дизайну,
3D-моделированию, изготовлению CD-визиток

Для реализации проектов мы используем новейшие достижения в области технологий разработки программного обеспечения и мультимедиа. Портфолио компании имеет ряд успешно выполненных работ

Студиявеб-дизайнаPrime
 
 

Оптимизация сайта и его продвижение. Как не ошибиться при выборе студии для продвижения сайта!

Вверх на один уровень

Основы "белой", "черной" и "серой" оптимизации. Как продвигать свой ресурс, решать вам, но залог успеха - разумный подход к проблеме и знание главных подводных камней.

Число сайтов в Интернете уже давно превысило количество жителей на Земле, поэтому найти нужную информацию без поисковиков почти невозможно и с каждым годом роль таких систем только растет. Их используют для поиска товаров и услуг, для совершения покупок онлайн, для установления контактов с партнерами и т. д. Если сайт, а следовательно и компания, хочет получать заинтересованных посетителей и прибыль, он должен присутствовать в результатах поиска по целевым запросам. И не просто присутствовать, а находиться на первой, второй, третьей... странице результатов поиска, потому что большинство пользователей, опять же согласно статистике, не идут дальше определенного числа странице результатами поиска. И если ваш сайт находится, к примеру, на 1025 месте, то шансы найти его - практически нулевые. Конечно, в некоторых ситуациях пользователь готов искать до победного конца, но это лишь в том случае, если информация на вашем сайте уникальна и по-другому ее просто не найти. Чаще же всего пользователь просматривает первые две – три - пять страниц и меняет свой запрос в надежде быстрее приблизиться к искомой цели.

Основная проблема рынка оптимизации - нет заранее известных цен на
продвижение. Каждый проект индивидуален, а тематика выбранных ключевых
слов может быть более или менее конкурентна. Если желающих получить первые
места по конкретному ключевому слову много, то и цена продвижения по нему
будет выше. Большое значение играет компоновка сайта и размещенный на нем контент.

Спрос рождает предложение, и сейчас в Интернете можно найти массу предложений от оптимизаторов и маркетинговых агентств, для которых рынок оптимизации и поискового продвижения - основной источник дохода. Объем этого рынка эксперты оценивают по-разному, в силу его непрозрачности, но очевидно одно - это десятки миллионов долларов в год. Но прежде чем обращаться к конкретному оптимизатору или агентству, стоит разобраться в основополагающих принципах оптимизации и продвижения. Главное отличие оптимизаторов их методы, которые они используют при продвижении сайтов. Условно их делят на две категории: «белые» и «черные» оптимизаторы. Первые используют легальные методы продвижения (разрешенные к применению поисковыми системами), вторые - запрещенные методы продвижения. Эта разница принципиальна и может повлечь удаление вашего сайта из результатов поиска вовсе, в случае если над продвижением поработал «черный» оптимизатор. Хотя все чаще подобные инциденты - исключение из правил или вызваны действиями начинающих оптимизаторов, которые берутся за продвижение, до конца еще не разобравшись во всех нюансах оптимизации и продвижения и не отработав их на практике. Их привлекает возможность быстрой наживы, а клиенты становятся своеобразным полигоном для испытаний, от чего страдает доверие ко всем оптимизаторам. Оптимизаторы со стажем дорожат своей репутацией и отношениями с клиентами, ведь основная идея продвижения - сопровождать клиента в течение длительного времени и получать свои дивиденды ежемесячно. Нет смысла браться за продвижение сайта на 1-2 месяца, так как самые затратные по ресурсам операции выполняются на первоначальном этапе подготовки к продвижению: непосредственная оптимизация кода сайта, регистрация в каталогах, обмен ссылками/статьями и т. д. Поэтому стоит скептически относиться к предложениям достижения быстрого результата без последующего сопровождения.

Основа «черной» оптимизации - так называемые «дорвейные» схемы. Оптимизаторы генерируют (сейчас чаще всего автоматически десятки и сотни псевдосайтов («псевдо», так как делаются для поисковых систем, а не для пользователей), которые преследуют вполне осмысленную цель – генерируют трафик. Дальше с этим трафиком можно поступать по-разному: продать его другим реальным ресурсам, перенаправить на сайты клиентов или разместить блоки контекстной рекламы, зарабатывая на переходах на сайты рекламодателей,

 

«Белая оптимизация» подразумевает более комплексный подход:

  1. Оптимизация кода сайта для облегчения поиска, в том числе по ключевым словам;
  2. Насыщение ресурса тематическими статьями, которые могут интересовать потенциальных клиентов;
  3. Регистрация в каталогах и размещение информации о сайте на различных тематических ресурсах;
  4. Взаимный обмен ссылками с тематически близкими сайтами;
  5. Распространение пресс-релизов среди новостных проектов;
  6. Обмен тематическими статьями, с уже включенными ключевыми словами в виде ссылок на продвигаемый ресурс;
  7. Распространение информации о ресурсе через социальные сети, в основном через блоги;
  8. Целевая рассылка новостной информации по базе потенциальных клиентов.

Золотая середина

Чаще всего оптимальное лежит на грани между запрещенным и разрешенным, отсюда пошло понятие «серой» оптимизации, к которой можно отнести наиболее опытных и активных оптимизаторов сегодня. Они держат руку на пульсе и по опыту знают, что поисковые серверы не запрещают официально (точнее сказать, догадываются, так как поисковые серверы не афишируют принципы ранжирования, чтобы не допустить возможности обмана робота, который к тому же постоянно совершенствуется), хотя и не приветствуют. С одной стороны, они не компрометируют ресурсы клиентов явно, что исключает их удаление из поисковой выдачи: с другой - в перспективе они не могут гарантировать, что те или иные запреты не будут наложены на ранее использованные уловки. Но активно совмещая «белую» и «серую» оптимизацию, они как бы размывают признаки последней, обеспечивая более результативное продвижение. К «серым» методам можно отнести сети сайтов - спутников (их еще называют сайтами  - сателлитами), рекламные сообщения в гостевых книгах, форумах и на немодерируемых ресурсах и размещение платных ссылок на внутренних и главных страницах авторитетных ресурсов (наиболее актуально в последнее время).

Как продвигать свой ресурс, решать вам, но залог успеха - разумный подход к проблеме и знание главных подводных камней. Если и работать с оптимизатором, то с тем, который отличает «белое» от «черного», заинтересован в долгосрочном сотрудничестве и может аргументировано объяснить свои действия.

___________________________________________

Александр Садовский руководитель отдела веб поиска компании Яндекс

С1994 по 2002 годы работал в сфере рекламы. В сентябре 2002-го возглавлял
аналитический отдел компании ADLABS. В сентябре 2003-го был приглашен в
компанию «Яндекс» для работы над проектами, связанными с поиском. Кроме
работы над веб-поиском с его участием были запущены сервисы «поиск по блогам»,
«яндекс.хм1» и др.

Наглядный и повседневный пример - компания решила создать свой собственный
сайт для привлечения потенциальных клиентов. Что необходимо учесть уже на
этапе создания сайта, чтобы он был интересен поисковым системам, в частности
«Яндексу»?

 

Робот поисковой системы — программа, которая заходит на сайт на тех же правах, что и случайный, но очень любопытный пользователь. Он узнает о сайте по ссылкам на других сайтах или когда ему скажут о существовании сайта прямо (с помощью http://webmaster.yandex.ru/). Анализируя страницу, на которую где-то сослались, робот пытается обнаружить, какие еще документы есть на сайте, скачать их, проиндексировать, найти следующие документы, другой сайт... и так до бесконечности.

 

Некоторые сайты боятся слишком активной индексации. Во-первых, она может создать большой трафик, за который владелец сайта платит. Во-вторых, если у сайта ненадежный хостинг, а скрипты небрежно написаны, интенсивное скачивание страниц роботом может перегрузить сайт и пользователи не смогут к нему «достучаться», пока его обходит робот. В-третьих, тексты пишут люди, поэтому сайтов, где есть миллионы полезных и осмысленных страниц, крайне мало. И если сайт готов отдать, скажем, миллиард документов, значит, они генерируются скриптом и не всегда приемлемы для людей. В результате роботу приходится выбирать, какие сайты обходить чаще, какие реже. Он пытается избегать индексации техногенного мусора, старается отличать «еще один сайт» от «уникального полезного сайта».

 

Чтобы ускорить появление страниц сайта в индексе, необходимо, во-первых, исключить из индексации ненужную информацию, во-вторых, помочь роботу узнавать о новых страницах, в-третьих, улучшать качество сайта (и следовательно, со временем будет расти его авторитетность). Вот некоторые советы, которые могут помочь: 

  1.  Запретить в файле robots.txt индексацию страниц, неинтересных пользователям. Например, формы ответа на форуме, статистику посещений, сайты - зеркала, документы на нераспространенных в Рунете языках;
  2. Создать карту сайта, т.е. страницу или несколько страниц, на которых приведены ссылки на все документы сайта;
  3. Выдавать корректные заголовки ответа сервера. Например, если страница не существует, выдавать ошибку 404, а если поступил запрос «If-Modified-Since», то выдавать код 304, если страница с указанной в запросе даты не изменилась;
  4. Каждой уникальной странице сайта по возможности должен соответствовать только один URL. Распространенная причина появления дубликатов - генерация сайтом URL с незначащим параметром, изменение которого не приводит (или не всегда приводит) к изменению страницы;
  5. Для сайтов, созданных на Flash или AJAX, на фреймах, создавать html- страницы, которые сможет найти и проиндексировать робот, а пользователь, придя на них, поймет, что это за сайт и о чем он.

В Интернете масса статей и порой кардинально разных мнений, что и как влияет на
результаты поиска. И все-таки, что влияет на ранжирование по запросам, если
говорить о «Яндексе» или других поисковых системах?

 

Факторов, влияющих на ранжирование, много, в зависимости от поисковой системы от десятков до сотен. Итоговая формула релевантности довольно часто перенастраивается, отработка каждого класса запросов может идти по другим принципам - это еще одна причина, почему так много суждений, что именно влияет на результаты поиска. Факторы можно условно разделить на несколько групп: «внутренние» (текст страницы, html-форматирова-ние и т. д. - то, что наверняка доступно для правки владельцу сайта), «внешние» (ссылки на страницу, посещаемость и пр.) и «динамические» (распределение каких-либо факторов во времени). Публикация детального описания алгоритма ранжирования приведет к тому, что поисковую систему станет обмануть легче и качество поиска неизбежно снизится. Поэтому ни один поисковик никогда не раскрывает все свои наработки. Про «Яндекс» я могу сказать, что все группы факторов, перечисленные выше, мы активно используем. Кроме того, и список факторов, и вид формулы постоянно эволюционирует. Даже техника подбора непрерывно совершенствуется (не так давно, например, мы использовали для этого алгоритм Differential Evolution). Что касается мнений и даже исследований, посвященных «разгадке» формул поисковой системы, то, несмотря на некоторую наивность и упрощенность, зачастую они довольно правильно называют многие факторы. 

Что можно извлечь из столь часто упоминающихся параметров ТИЦ и PR? Многие
ими оперируют, но мало кто знает их истинное предназначение. Еще меньшее
количество людей могут грамотно и верно расшифровать текущие параметры.
Самое распространенное мнение - чем больше, тем лучше. Так ли это?

 

ТИЦ - тематический индекс цитирования сайта, который используется для сортировки сайтов в Каталоге «Яндекса». ТИЦ зависит исключительно от ссылок на сайт и с него, от темы сайта и не влияет напрямую на поиск.

Заблуждение о его связи с поиском рождается, видимо, потому, что алгоритм ранжирования учитывает ссылки на страницы. Чем больше качественных ссылок ведет на страницу, тем, как правило, она выше находится по запросам, но рост числа ссылок приводит и к росту ТИЦ. Поэтому создается впечатление, что рост ТИЦ способствует успехам в ранжировании. PR в «Яндексе» не используется. «Яндекс» имеет собственный алгоритм, который называется ВИЦ — взвешенный индекс цитирования. ВИЦ учитывает намного больше факторов, чем классический алгоритм определения ссылочного ранга страницы и является одним из факторов алгоритма ранжирования. Значение ВИЦ для страниц не публикуется по упомянутым выше причинам 

Активные накрутки рано или поздно будут определены алгоритмами и приведут к
ухудшению ранга страницы, вместо улучшения. Если стоит задача долговременного
развития сайта, стоит придерживаться нескольких принципов.
 

  1. Создавайте сайты с оригинальным контентом или сервисом. Реклама не может служить основным или уникальным содержанием сайта
  2. Думайте о пользователях, а не о поисковых системах. Задайте себе вопрос: создадите ли вы этот сайт, страницу или ее элемент, если бы не было поисковиков? Приходят ли пользователи на ваш сайт не из поисковых систем?
  3. Ставьте ссылки, интересные пользователям вашего ресурса, помогающие найти связанную информацию или проанализировать предложение. Не ссылайтесь только потому, что вас попросили сослаться.
  4. Дизайн должен помогать пользователям увидеть главную информацию, ради которой сайт создан.
  5. Будьте честны. Привлечь пользователей по запросам, на которые ваш сайт не может достойно ответить, не значит удержать их. Обманутые пользователи уйдут, и, возможно, вместе с ними уйдет с сайта робот поисковой системы. 

Есть ли доступные инструменты для оценки процесса индексации и ее результатов?
Иногда не очевидно, как проиндексирован сайт, какие ошибки были обнаружены и
не позволили нормально проиндексировать ресурс. 
 

Самый простой способ проверить, какие страницы сайта находятся в поиске, - воспользоваться сервисом http://webmaster.yandex.ru/check.xml  Что касается ошибок, которые привели к проблемам в индексации, их все можно увидеть в логах сайта. Как представляется робот «Яндекса», написано здесь: http://webmaster.yandex.ru/faq.xml?id=502499#user-agent 

Когда компании обновляют информацию на своих сайтах, либо публикуют свои
новости, они хотят быстрее донести это до своих клиентов. Есть ли какие-то
доступные способы, позволяющие ускорить индексацию поисковыми серверами
определенной информации или всего сайта целиком? 
 

Кроме основного робота, который обходит миллионы сайтов, в веб-поиске работает робот для индексации оперативной информации, позволяющий уже через несколько часов после обновления информации на сайте обнаружить ее в поиске. Практически все интересные и обновляемые ресурсы попадают в поле зрения этого быстрого робота. Но если владельца сайта не устраивает задержка в 2-3 ч, он может подключиться к сервису "Яндекс. Новости» (http://news.yandex.ru/cooperation.html), результаты поиска по которому показываются при поиске по вебу (если они есть и релевантны).

В «Новостях» обновление информации идет каждые 10 мин.

Можно подключиться к Поиску по блогам, если на сайте компании есть блог или форум в формате RSS, просто добавив его на странице http://blogs.yandex.ru/add.xml  В этом поиске информация также обновляется за считанные минуты. 

В Сети множество оптимизаторов и даже целых студни, предлагающих за деньги вывести любой сайт в ТОП-10 результатов поиска «Яндекса». Есть ли резон обращаться к подобным специалистам? Никто не может гарантировать попадание в результаты поиска Яндекса, так как никто из оптимизаторов не застрахован от смены алгоритма или попадания на радары наших антиспамовых алгоритмов. 

По некоторым особо конкурентным запросам попасть на адекватные места
результатов поиска многие компании без солидных денежных вливаний в
продвижение не могут физически. Как быть интересным или маленьким компаниям,
которые могут предоставить более качественные товары или услуги, но не могут
это донести до своего посетителя? Места «решает» бюджет?
 

Решает не бюджет, а умение измерять конверсию и находить свою нишу. Нужно искать своих клиентов там, где компания сильна. Если разница в качестве услуг или товаров у маленькой компании и больших конкурентов ощутима, то в Интернете, где информация распространяются мгновенно, компания быстро приобретет поклонников и перед ней будет стоять задача не столько привлечь, сколько удержать их - а здесь деньги не так важны. 

Нельзя не спросить отдельно про каталоги, так как они появляются на каждом
втором сайте. Дает ли что-то подобный обмен с другими сайтами и каким
требованиям подобный каталог должен соответствовать, чтобы не дать обратный
эффект и повод «Яндексу» удалить сайт из результатов поиска? 
 

Каталог на сайте, как и любой другой раздел, должен быть удобен и полезен пользователям. Ответьте для себя на несколько простых вопросов, и вам сразу станет ясно, нужен ли каталог на сайте. Стали бы вы создавать каталог, если бы не существовало поисковиков? Как много пользователей вашего сайта заходит в него и переходит по ссылкам? Проверяете ли вы содержание и описание ресурсов, которые добавляют вам в каталог? Как часто проверяется, что ресурсы, на которые поставлены ссылки, не изменились и по-прежнему живы? Если ответ хотя бы на один вопрос «нет», «мало» или «редко», то лучше потратить время не на каталог, а на что-то более интересное пользователям вашего сайта. 

 

Спрос рождает предложение и в последнее время лавинообразно растет количество
сайтов и сайтов-спутников, которые предназначены сугубо для продвижения других
сайтов. Есть ли какие-то ограничения для таких сайтов или требования, при соблюдении
которых их деятельность не будет караться со стороны поисковой машины?
 

Поисковые машины не карают, они иногда исключают из поиска страницы и сайты, которые не могут корректно отранжировать. Сайты-спутники ничем не лучше фирм-однодневок. Если сайт не является ориентированным на пользователя, не содержит оригинальной информации - независимо от того, сайт-спутник это или нет, мы не считаем его ценным для пользователя и стремимся к уменьшению представленности таких сайтов в поисковой выдаче. 

«Непот-фильтры» - о них много слышно, но не все понятно. Что это, для чего и как работает? 

«Непот-фильтр» -жаргонное название. Термин «непотизм» в отношении ссылок появился давно, одно из первых упоминаний было в статье Бриана Дэвисона "Recognizing Nepotistic Links on the Web (2000)»: «nepotistic links — links between pages that are present for reasons other than merit».

Фильтрами оптимизаторы называют любые алгоритмы, противодействующие спаму и накруткам факторов ранжирования. Под «непот-фильтром» в среде веб-мастеров подразумевается алгоритм, который приводит к снижению веса некоторых ссылок или полному их неучету.

Ссылки, поставленные с целью «накрутки», приводят к снижению качества ранжирования. Подавляя «накрутку», мы улучшаем поиск, за которым приходят пользователи на «Яндекс». Борьба с обманом алгоритмов полезна и владельцам сайтов - она помогает им сосредоточиться на улучшении контента, коммуникации с пользователями на сайте, снижает соблазн заняться деятельностью, которая бесполезна для посетителей сайта и замусоривает Рунет. 

Брокеры интернет-рекламы, позволяющие сайтам продавать, а компаниям покупать ссылки на главных и внутренних страницах других сайтов, - удобный инструмент для оптимизаторов при продвижении ресурсов своих клиентов. Какое отношение к их деятельности? 

Отрицательное. Если грамотная оптимизация одного сайта похожа на ловлю рыбы удочкой, где мало кто страдает (кроме рыбы, которую вытеснили из воды), то работа ссылочных брокеров напоминает глушение рыбы динамитом, в результате вся экосистема страдает из-за желания нескольких браконьеров быстро нажиться. 

Какие ближайшие нововведения коснутся результатов поиска в «Яндексе»? Чего ждать компаниям и оптимизаторам, услугами которых эти компании пользуются? 

Мы постоянно совершенствуем алгоритмы ранжирования и обхода робота, но придерживаемся правила не разглашать свои планы заранее. Мы помним, что кроме миллионов пользователей на Яндекс смотрят десятки тысяч веб-мастеров, и думаем, как сделать их жизнь легче. Надеемся, у нас все получится, а ваши сайты получат благодарных пользователей.

Источник: журнал "IT Спец" Июль (#07) 2007

Закажите веб-сайт

Сегодня веб-сайт - необходимый инструмент любой фирмы. Сайт предоставит информацию о Вашей деятельности всем пользователям всемирной сети.

Предлагаем Вам неограниченные возможности - размещайте в сети Интернет информацию о Ваших услугах, продукцию, взаимодействуйте с вашими клиентами, дилерами и удалёнными сотрудниками при помощи всемирной сети Интернет, приобретайте новых клиентов и партнеров!

Используйте интернет

Наша компания может быть полезна везде, где есть Интернет

  • Помочь Вам понять мир интернет-технологий и необходимость создания веб-представительства в сети Интернет
  • Донести самую важную информацию до Вашего рынка, клиента
  • Вызвать спрос на Ваше предложение
  • Донести Вашу индивидуальность, преимущества, полезность
  • Создать удобное в использовании веб-приложение для Ваших нужд
© 2004-2015. Магнитогорская студия веб-дизайна «Prime»