Поисковики и оптимизаторы: кто кого?

pic

Величина рынка оптимизации в Рунете — 100 млн. долларов.
Игорь Ашманов.

Бизнес приходит в Сеть, в Рунете идут оптимизаторские баталии за первые места в выдаче поисковиков. Предлагаю первую статью из предполагаемого цикла, в котором рассмотрим процессы оптимизации и раскрутки сайтов и связь этих процессов с Узнетом.

pic

Часто слышатся голоса, ругающие оптимизаторов. За то, что в результатах поиска мы видим всякую «заоптимизированную ерунду», а не то, что мы ищем. На это возражают, что, во-первых, результаты выдачи все равно надо ранжировать как-то, алгоритм ранжирования в тайне не удержать – все равно будут подлаживаться под него. Во-вторых, если вы не можете найти то, что надо – сформулируйте более грамотно запрос, а не ругайте за это других. На эти аргументы есть контраргументы, и баталии годами не прекращаются. А процессы пока идут своим чередом.

Кто пользовался Интернетом лет десять назад, помнит, что многое в нем было не таким как сейчас. В первую очередь это относится к навигации – мы ходили в основном на сайты, адреса которых узнали от знакомых или из журналов. Я, например, пользовался рубрикой «Веб-навигатор» журнала “Компьютел», в которой Андрей Спивак описывал найденные им интересные сайты. Или по рекомендациям статей из других журналов. Тогда же я как-то спросил своего более продвинутого знакомого – как он узнает, куда надо идти в Сети? Он ответил непонятным словом: «Рамблер» и видя, что я ничего не понял, написал на бумажке этот известный адрес. Зайдя на Рамблер, мы попадаем в каталог, содержавший в себе тогда практически весь Рунет, путешествуя по каталогу можно попасть на любой зарегистрированный в нем сайт. Позже уже, освоившись в Сети, я стал пользоваться и поиском от Рамлера, потом от Апорта и Яндекса.

pic

С точки бизнеса приходится рассматривать не куда и как я хожу, а откуда и как попадают посетители на мой сайт. И. Ашманов и А. Иванов в своей книге «Оптимизация и продвижение сайтов в поисковых системах» источники трафика сайта (то есть, посещения его) делят на три основные группы:

• type-in – ссылка известная, набранная в адресной строке браузера;
• навигационные сервисы – поисковые системы и каталоги;
• ссылающиеся ресурсы.

Ясно, что ссылок, набранных с клавиатуры (или из папки Избранное браузера) не так уж много – это общеизвестные сервисы вроде почтового mail.ru или новости вроде lenta.ru. Ссылающиеся ресурсы – это страницы, давшие ссылки на ваш сайт, обычно сходные с ним по тематике, или если автору чем-то приглянулся ваш ресурс, или просто по договоренности об обмене ссылками.

Остановимся немного на каталогах. Одним из первых способов организации доступа к информационным ресурсам сети стало создание каталогов сайтов, в которых ссылки на ресурсы группировались согласно тематике. Первым таким проектом стал сайт Yahoo, открывшийся в апреле 1994 года. После того, как число сайтов в каталоге Yahoo значительно увеличилось, была добавлена возможность поиска информации по каталогу. Это, конечно же, не было поисковой системой в полном смысле, так как область поиска была ограничена только ресурсами, присутствующими в каталоге, а не всеми ресурсами сети Интернет. (История цитируется с сайта http://tutorial.semonitor.ru/) Каталоги ссылок широко использовались ранее, но практически утратили свою популярность в настоящее время. Причина этого очень проста – даже современные каталоги, содержащие огромное количество ресурсов, представляют информацию лишь об очень малой части сети Интернет. Самый большой каталог сети DMOZ (или Open Directory Project http://dmoz.org) содержит информацию о 5 миллионах ресурсов, в то время как база поисковой системы Google состоит из более чем 8 миллиардов документов.

Первой полноценной поисковой системой стал проект WebCrawler появившийся в 1994 году.
В 1995 году появились поисковые системы Lycos и AltaVista. Последняя долгие годы была лидером в области поиска информации в Интернет. В 1997 году Сергей Брин и Ларри Пейдж создали Google в рамках исследовательского проекта в Стэнфордском университете. В настоящий момент Google самая популярная поисковая система в мире.

23 сентября 1997 года была официально анонсирована поисковая система Yandex, самая популярная в русскоязычной части Интернет.

В настоящее время существует 3 основных международных поисковых системы – Google, Yahoo и MSN Search, имеющих собственные базы и алгоритмы поиска. Большинство остальных поисковых систем (коих можно насчитать очень много) использует в том или ином виде результаты 3 перечисленных. Например, поиск AOL (search.aol.com) и Mail.ru используют базу Google, а AltaVista, Lycos и AllTheWeb – базу Yahoo.

В России основной поисковой системой является Яндекс, за ним идут Rambler, Google.ru, Aport, Mail.ru и KM.ru.

Составление каталогов популярно в Узнете, многие из читателей сразу назовут адреса самых популярных. Это www.uz, http://doda.uz, http://search.uz, http://vse.uz и другие. Все каталоги разбиты на тематические рубрики, в каждом каталога сайты регистрировали посетители или отбирали создатели каталога. Каталоги Узнета все разные, более или менее успешные, к сожалению, почти все содержат адреса давно исчезнувших сайтов, но, тем не менее, пользоваться ими можно, они помогают в работе. Например, если хотите посмотреть все сайты СМИ Узнета или сайты провайдеров – они в большинстве своем присутствуют в каталоге www.uz. Однако, к каталогам еще вернемся в одной из следующих статей. По разным данным более 80% посетителей приходят на сайты с поисковых сервисов по ссылкам с результатов поиска. Именно привлекательность сайта для поисковых машин и стала основной заботой тех, кто занимается продвижением сайта в Сети. Главная цель этих специалистов, называемых оптимизаторами, заключается в обеспечении попадания сайта в первые строки выдачи результатов по профильному запросу. То есть, запросу, совпадающему с тематикой сайта. Для бизнеса вопросы оптимизации равнозначны с вопросами жизни или смерти. Естественно, что заказчики обратятся за покупкой к сайту, найденному на первой странице поиска, а не на двадцатой. Тем более, что по статистике поисковиков, подавляющее большинство пользователей ограничиваются просмотром первой страницы результатов поиска или лишь несколько процентов из них продолжают искать на следующих страницах.

Рассмотрим общие принципы работы поисковых систем. Поисковая система состоит из следующих основных компонентов:

Spider (паук) — браузероподобная программа, которая скачивает веб-страницы.
Crawler (краулер, «путешествующий» паук) – программа, которая автоматически проходит по всем ссылкам, найденным на странице.
Indexer (индексатор) — программа, которая анализирует веб-страницы, скаченные пауками.
Database (база данных) – хранилище скачанных и обработанных страниц.
Search engine results engine (система выдачи результатов) – извлекает результаты поиска из базы данных.
Web server (веб-сервер) – веб-сервер, который осуществляет взаимодействие между пользователем и остальными компонентами поисковой системы.

Детальная реализация поисковых механизмов может отличаться друг от друга (например, связка Spider+Crawler+Indexer может быть выполнена в виде единой программы, которая скачивает известные веб-страницы, анализирует их и ищет по ссылкам новые ресурсы), однако всем поисковым системам присущи описанные общие черты.

Spider. Паук — это программа, которая скачивает веб-страницы тем же способом, что и браузер пользователя. Отличие состоит в том, что браузер отображает информацию, содержащуюся на странице (текстовую, графическую и т.д.), паук же не имеет никаких визуальных компонент и работает напрямую с html-текстом страницы (вы можете сделать «просмотр html-кода» в вашем браузере, чтобы увидеть «сырой» html-текст).

Crawler. Выделяет все ссылки, присутствующие на странице. Его задача — определить, куда дальше должен идти паук, основываясь на ссылках или исходя из заранее заданного списка адресов. Краулер, следуя по найденным ссылкам, осуществляет поиск новых документов, еще неизвестных поисковой системе.

Indexer. Индексатор разбирает страницу на составные части и анализирует их. Выделяются и анализируются различные элементы страницы, такие как текст, заголовки, структурные и стилевые особенности, специальные служебные html-теги и т.д.

Database. База данных — это хранилище всех данных, которые поисковая система скачивает и анализирует. Иногда базу данных называют индексом поисковой системы.

Search Engine Results Engine. Система выдачи результатов занимается ранжированием страниц. Она решает, какие страницы удовлетворяют запросу пользователя, и в каком порядке они должны быть отсортированы. Это происходит согласно алгоритмам ранжирования поисковой системы. Эта информация является наиболее ценной и интересной для нас – именно с этим компонентом поисковой системы взаимодействует оптимизатор, пытаясь улучшить позиции сайта в выдаче, поэтому в дальнейшем мы подробно рассмотрим все факторы, влияющие на ранжирование результатов.

Web server. Как правило, на сервере присутствует html-страница с полем ввода, в котором пользователь может задать интересующий его поисковый термин. Веб-сервер также отвечает за выдачу результатов пользователю в виде html-страницы.

Нас, конечно же больше всего волнует работа Search Engine Results Engine, точнее, алгоритм, заложенный в нее. Он хранится в секрете, и, кроме того, периодически меняется. Но мы знаем основные принципы, на которых этот алгоритм базируется, поэтому можем принимать какие-то действия и давать рекомендации по ним.

Факторы, влияющие на ранжирование поисковиком сайтов в процессе выдачи по поисковому запросу принято делить на внутренние и внешние. Внутренние факторы ранжирования – это те, которые находятся под контролем владельца веб-сайта (текст, оформление и т.д.). Вот перечень внутренних факторов (по материалам сайта http://tutorial.semonitor.ru/):

• Объем текста на странице. Поисковики ценят сайты, богатые информационным содержанием. В общем случае следует стремиться к увеличению текстового наполнения сайта. Оптимальными следует считать страницы, содержащие 500-3000 слов или 2-20 кб. текста (от 2 до 20 тыс. символов).
• Число ключевых слов на странице. Ключевые слова (фразы) должны встречаться в тексте как минимум 3-4 раза. Верхняя граница зависит от общего объема страницы – чем больше общий объем, тем больше повторений можно сделать.
• Плотность ключевых слов. Плотность ключевого слова на странице показывает относительную частоту содержания слова в тексте. Плотность измеряется в процентах. Например, если заданное слово встретилось 5 раз на странице из 100 слов, то плотность этого слова равна 5%. Слишком низкая плотность приведет к тому, что поисковая система не придаст должного значения этому слову. Слишком высокая плотность способна включить спам-фильтр поисковой системы (то есть страница будет искусственно понижена в результатах поиска из-за чрезмерно частого употребления ключевой фразы). Оптимальной считается плотность ключевого текста 5-7%. В случае фраз, состоящих из нескольких слов, следует посчитать суммарную плотность всех ключевых слов, составляющих фразу и убедиться, что она укладывается в указанные пределы. Практика показывает, что плотность ключевого текста более 7-8%, хотя и не ведет к каким-либо отрицательным последствиям, но и смысла особого в большинстве случаев также не имеет.
• Расположение ключевых слов на странице. Очень короткое правило – чем ближе ключевое слово или фраза к началу документа, тем больший вес они получают в глазах поисковой системы.
• Стилистическое оформление текста. Поисковые системы придают особое значение тексту, тем или иным способом выделенному на странице. Например, ключевым словам в заголовках, или выделенными тегом «strong» и так далее.
• Тегу «TITLE» поисковики придают большое значение, поэтому он должен содержать ключевые слова.
• Ну и далее совсем кратко. Поисковики обращают внимание на ключевые слова в тексте ссылок, на теги «ALT» изображений, на мета-тег Desciption и мета-тег Keywords. Влияет также структура сайта, число страниц на сайте, навигационное меню, ключевое слово в названии страницы и еще много крупных и мелких факторов, используемых оптимизаторами.

К внешним факторам ранжирования относится учет внешних ссылок на сайт. Как можно видеть из предыдущего текста, почти все факторы, влияющие на ранжирование, находятся под контролем автора страницы. Таким образом, для поисковой системы становится невозможным отличить действительно качественный документ, от страницы созданной специально под заданную поисковую фразу или даже страницы, сгенерированной роботом и вообще не несущей полезной информации. Поэтому одним из ключевых факторов при ранжировании страниц является анализ внешних ссылок на каждую оцениваемую страницу. Это единственный фактор, который неподконтролен автору сайта.

Логично предположить, что чем больше внешних ссылок имеется на сайт, тем больший интерес этот сайт представляет для посетителей. Если владельцы других сайтов в сети поставили ссылку на оцениваемый ресурс, значит, они считают этот ресурс достаточно качественным. Следуя этому критерию, поисковая система также может решить, какой вес придать тому или иному документу.

Таким образом, существует два основных фактора, по которым страницы, имеющиеся в базе поисковика, будут отсортированы при выдаче. Это релевантность (то есть, насколько рассматриваемая страница связана с темой запроса – факторы, описанные в предыдущем разделе) и число, и качество внешних ссылок. Последний фактор также получил названия ссылочная цитируемость, ссылочная популярность или индекс цитирования.

Для оценки числа и качества внешних ссылок на сайт поисковые системы вводят понятие индекса цитирования. Индекс цитирования или ИЦ — это общее обозначение численных показателей, оценивающих популярность того или иного ресурса, то есть некоторое абсолютное значение важности страницы. Каждая поисковая система использует свои алгоритмы для подсчета собственного индекса цитирования, как правило, эти значения нигде не публикуются

Первыми, кто запатентовал систему учета внешних ссылок стала компания Google. Алгоритм получил название PageRank, он рассчитывается для каждой веб-страницы отдельно, и определяется PageRank’ом (цитируемостью) ссылающихся на нее страниц. В настоящее время PageRank не используется непосредственно в алгоритме Google. Это и понятно – ведь PageRank характеризует лишь количество и качество внешних ссылок на сайт, но совершенно не учитывает ссылочный текст и информационное содержимое ссылающихся страниц – а именно этим факторам придется максимальное значение при ранжировании. Предполагается, что для ранжирования Google использует так называемый тематический PageRank (то есть учитывающий только ссылки с тематически связанных страниц), однако детали этого алгоритма известны лишь разработчикам Google.

Узнать значение PageRank для любой веб-страницы можно с помощью Google ToolBar, который показывает значение PageRank в диапазоне от 0 до 10. Все цифры условны, однако наглядно демонстрируют, что диапазоны PageRank, показываемые в Google ToolBar, не равнозначны друг другу. Например, поднять PageRank c 1 до 2 легко, а с 6 до 7 гораздо сложнее.

pic

На практике PageRank используется в основном в двух целях: Быстрая оценка уровня раскрученности сайта. PageRank не дает точной информации о ссылающихся страницах, но позволяет быстро и просто «прикинуть» уровень развития сайта. Для англоязычных сайтов можно придерживаться следующей градации: PR 4-5 – наиболее типичный PR для большинства сайтов средней раскрученности. PR 6 – очень хорошо раскрученный сайт. PR 7 – величина, практически недостижимая для обычного вебмастера, но иногда встречается. PR 8, 9, 10 – встречаются только у сайтов крупных компаний (Microsoft, Google и т.п.). Знание PageRank можно использовать при обмене ссылками, для того чтобы оценить качество предложенной к обмену страницы и в других подобных ситуациях. Еще одно важное замечание – значения PageRank, показываемые в Google ToolBar пересчитываются достаточно редко (раз в несколько месяцев), поэтому ToolBar показывает в некотором роде устаревшую информацию. То есть сама поисковая система Google учитывает изменения во внешних ссылках гораздо быстрее, чем эти изменения отображаются в Google ToolBar.

В Узнете есть свой, «узнетовский» индекс цитирования Voydod Rank, точнее, индекс ссылок на ваш сайт. Вы можете узнать его на сайте поисковика Voydod.uz, можете установить кнопочку, показывающую значение Voydod Rank. Число на кнопке показывает количество сайтов Узнета, имеющих ссылки на ваш сайт, подробнее об этом сервисе в одной из следующих статей.

ВИЦ – взвешенный индекс цитирования – аналог PageRank, применяемый поисковой системой Яндекс. Значения ВИЦ нигде не публикуются и известны только Яндексу. Поскольку узнать ВИЦ нельзя, следует просто помнить, что у Яндекса есть собственный алгоритм оценки «важности» страниц.

ТИЦ – тематический индекс цитирования – рассчитывается для сайта в целом и показывает авторитетность ресурса относительно других, тематически близких ресурсов (а не всех сайтов Интернета в целом). ТИЦ используется для ранжирования сайтов в каталоге Яндекса и не влияет на результаты поиска в самом Яндексе. Значения ТИЦ показываются в Яндекс.Баре. Следует лишь помнить, что ТИЦ рассчитывается для сайта в целом, а не для каждой конкретной страницы. На практике ТИЦ можно использовать для тех же целей, что и PageRank – оценка раскрученности сайта и оценка уровня конкуренции по заданному поисковому запросу. В силу охвата Интернета поисковой системой Яндекс, ТИЦ очень хорошо подходит для оценки русскоязычных сайтов.

В Узнете есть специалисты, занимающиеся оптимизацией сайтов. Работают они в основном удаленно на аутсорсинг, то есть, не на Узнет. Один из них, мой давний знакомый по общению в одном из форумов, открыл первый в Узнете сайт, посвященный оптимизации http://antares.uz. С его помощью (имя просил не указывать, так как с основной работой эта деятельность связана лишь условно) я провел небольшие изменения в «Письмах о Ташкенте» и по многим профильным запросам этот блог стал появляться в первых строках выдачи Яндекса. Я попросил знакомого ответить на несколько вопросов.

pic

1. Как Вы оцениваете ситуацию с оптимизацией в Узнете? Почти каждая судия предлагает услуги по оптимизации – насколько это серьезно?
Раскрутка и оптимизация появилась тогда в Узбекистане, когда появилась достаточная конкуренция между 15-20 сайтами за самые хлебные поисковые запросы …. по моим расчетам все началось в туристической сфере Узбекистана в период зарождения Интернета как такого в Узбекистане, то есть около 2000 года. Именно там и тогда родился узбекский мальчик по имени SEO.

С 2000-го года существует и остается до сих пор самая жесткая конкурентная борьба между оптимизаторами Узбекистана. Все эти сайты ориентированы на англоязычного пользователя и соответственно первый опыт по раскрутке был в таких поисковиках как Google, Yahoo, MSN и Altavista. На сегодняшний день конкуренция в туристическом сегменте Узнета составляет больше 50 сайтов наших и зарубежных. А количество сайтов по туристической тематике составляет больше двухсот! Это говорит о том, что владельцы туристических сайтов, в первую очередь, нуждающиеся в привлечении партнеров и клиентов из-за рубежа, бросают сайты на произвол судьбы, и работы над сайтом заканчиваются после сдачи его клиенту. Это все равнозначно тому, что трактор купленный вами будет, стоят на заднем дворе и ржаветь, а вы будете удивляться, почему у вас нет урожая. Трактор покупают для того что бы пахать на нем круглые сутки, такая же ситуация и с сайтом, который должен приносить пользу, если не сразу, то в ближайшем будущем обязательно.

Сам факт нужды оптимизации уже существующих сайтов говорит, что люди готовы вкладывать деньги в Интернет и в его развитие. Так как уже далеко не всех владельцев сайтов устраивает «мертвый сайт», который не приносит прибыли или хотя бы не позиционирует свою торговую марку на Интернет просторах. Я уверен, что недалек тот день, когда человек будет получать 95% всей необходимой информации из Интернета. Как говорится, кто владеет информацией, тот владеет миром, а 21 век как всем изве6стно будет веком информации и информационных войн. Собственно SEO это и есть информационная война в ее классическом виде. На данный момент кроме туристического сегмента Узнета наблюдается некоторая конкуренция среди сайтов по недвижимости, студий веб-дизайна и некоторые другие.

Не берусь судить наши веб-студии, их и так мало и людей там и так не хватает, а ведь раскрутка сайтов занимает уйму времени и выделенного специалиста для нее. И на мой чисто субъективный взгляд, многие веб-студии просто для полноты картины приписывают себе услуги по раскрутке сайтов. Подразумевая иной раз под оптимизацией, регистрацию в поисковых машинах и корректировкой в тайтлах и метатегах.

2. Могут ли сайты Узнета на равных с сайтами Рунета конкурировать на первые места в выдаче Яндекса? Например, по туристической или экологической темам.
Конечно, могут, но только никто в Узбекистане не заинтересован в этом, так как стоить это будет недешево и стопроцентных гарантий окупаемости никто не даст. Туристический бизнес делится на въездной и выездной. У нас в Узбекистане развит въездной туризм, в отличие от России, где развит выездной. И тут я не вижу какой-то особенной конкуренции в запросах.

3. Что нужно для построения нормальной конкурентной среды между сайтами в Узнете?
Я думаю, что основное это инвестиции в Интернет-бизнес в целом по Узбекистану. Создавать все новые интересные проекты способные подвигнуть других деловых людей повторить чужой успех.

4. Насколько трудно или трудоемко продвинуть рядовой сайт в лидеры выдачи в поисковых запросах?
Тут вам никто не даст однозначного ответа, так опять же, в поисковой оптимизации есть очень много факторов, которые нужно учесть и сопоставить. В целом, конечно, в узбекском сегменте гораздо легче продвигать сайты, нежели в российском. Здесь вопрос стоит относительно чего труднее? Любая серьезная работа требует усилий и времени. Но ожидаемый и оправданный отличный результат дает вам такой заряд энергии, что хочется снова и снова повторить этот успех.

Участники технологических обсуждений на форумах Узнета знают ник Georgick – к его мнению всегда прислушиваются, так как он пишет толковые сообщения, показывающие знания предмета. Автор сайта
antares.uz также уважительно отозвался о знаниях этого персонажа. Он позволил раскрыть свое имя: Керимов Игорь, эксперт по продвижению сайтов в социальных сетях. Летом еще Игорь дал мне несколько советов по оптимизации Арбуза – при следующем пересчете ТИЦ Яндекса Арбуза возрос на 50 пунктов и мне предложили разместить на нем рекламу на хороших условиях. Это замечание в скобках о знаниях Игоря и о пользе оптимизации вообще. Игорь любезно согласился ответить на мои вопросы.

pic

1. Как Вы оцениваете ситуацию с оптимизацией в Узнете? Почти каждая судия предлагает услуги по оптимизации – насколько это серьезно?
Не серьезно. Насколько я могу судить, студии ограничиваются регистрацией в нескольких платных каталогах, прогоном по прочим каталогам и ссылками с нескольких своих проектов. Бывают также элементы черного сео — спам рассылки или спам-постинги и пр. Но, тем не менее, специалисты есть. В основной массе они работают не в студиях, а конкретно нанимаются под проект или группу схожих проектов от одной компании и в последующем занимаются их сео-поддержкой или совмещая сео с другой работой. (в основном, это группа тревел-проектов, гостиничных проектов и др.)

Специалистов высокого уровня не так много, т.к специалист такого ранга не продвигает чужие проекты, а занимается своими интернет-проектами.

2. Могут ли сайты Узнета на равных с сайтами Рунета конкурировать на первые места в выдаче Яндекса? Например, по туристической или экологической темам.
Могут. В зоне UZ продвигать сайты пока не сложно, поскольку во всех ключевых запросах присутствуют ключевые слова — Ташкент или Узбекистан, что делает такие запросы нч и сч (низкочастотными и средречастотными), а для «окутывания» таких запросов вполне достаточно уникальных, неповторяющихся статей, грамотной внутренней оптимизации сайта и небольшой внешней работы — прогон по каталогам, обмен статьями и пр.

Если говорить об общих запросах без указания региона в запросе, то тут бюджет сео резко возрастает, но особого смысла тут продвигаться по таким запросам нет, т.к нецелевая аудитория будет приходить на сайт.

3. Что нужно для построения нормальной конкурентной среды между сайтами в Узнете?
Конкурентная среда между сайтами пока небольшая. Бюджеты нужны для усиления конкуренции — как онлайн, так и оффлайн

4. Насколько трудно или трудоемко продвинуть рядовой сайт в лидеры выдачи в поисковых запросах? Очень общий вопрос. Нельзя так сразу ответить. Все зависит от сайта, продвигаемых ключевых словах. В целом, в Узбекистане продвинуть почти любой сайт по запросу + с названием региона во фразу не так сложно.

И еще авторитетный эксперт Узнета, хорошо известный своими толковыми замечаниями, позволил указать лишь свой ник – Netklon, несмотря на то, что многие знают его место работы и должность. Netklon, не раз критично отзывался о процессах оптимизации в Узнете, его мнение также важно для формирования отношения к предмету статьи.

1. Почему Вы пессимистично оцениваете ситуацию с оптимизацией в Узнете? Почти каждая судия предлагает услуги по оптимизации – насколько это серьезно?
Это- очень общий вопрос. На самом деле оптимизацией заниматься просто. Оптимизация — это работа над сайтом, чтобы у поисковика не было несварение желудка при индексировании сайта. Банальная расстановка ссылок, оптимизация структуры, чистка HTML. В принципе, если сайтом занимаются грамотные инфоархитекторы, контент-менеджеры и HTML-верстальщики, особой оптимизации и не требуется.

В отличие от оптимизации, продвижение сайта в поисковых системах заключается в активных действиях по увеличению ссылочной массы для страниц сайта — это покупка ссылок, регистрация в каталогах, публикация ссылок на новостных аггрегаторах, ну и банальный спам в форумах и блогах. Продвижение в отличие от оптимизации требует отдельных специалистов в штате студии. Если следите за тенденциями на рынке труда, заметите, что есть средний спрос на дизайнеров, верстальщиков, программистов, но SEO/M-специалисты особенно пока что никого не интересуют.

2. Могут ли сайты Узнета на равных с сайтами Рунета конкурировать на первые места в выдаче Яндекса? Например, по туристической или экологической темам.
По высокочастотным запросам — нет, ибо это потребует таких бюджетов, которые ни один предприниматель в Узбекистане в здравом уме на раскрутку своего сайта тратить не будет.

По средне- и низкочастотным запросам конкурировать вполне можно. Более того, именно такие запросы генерируют больше трафика. Другое дело, что работа с такими запросами очень рутинна и муторна — продвигаться нужно сразу по сотням запросов.

3. Что нужно для построения нормальной конкурентной среды между сайтами в Узнете?
Чтобы была нормальная конкуренция нужно побольше пользователей. Вот и все. Когда два крупных проекта дерутся за горстку потребителей — времени и ресурсов на развитие у них не остается. Ситуация с провайдерами хорошо иллюстрирует к чему может привести высокий уровень конкуренции на рынке с низким спросом.

4. Насколько трудно или трудоемко продвинуть рядовой сайт в лидеры выдачи в поисковых запросах?
Зависит от запроса (тематики, частоты, потенциальной аудитории) и от сайта.

5. Был бы признателен за развернутое пояснение ситуации с СЕО — можно привести в пример деятельность компании, в которой Вы работаете?
Ситуация проста. Заниматься оптимизацией и продвижением для сайтов Узбекистана бессмысленно, поэтому большинство студий, которые работает на местном рынке, ограничиваются оптимизацией сайта. И, разумеется, есть пласт фрилансеров и команд, которые работают на внешних заказчиков. Особенно они не светятся, поскольку пиар на местном рынке им не нужен. Деятельность нашей студии в пример приводить не буду — внутренние производственные процессы в некоторой мере секретны.

Спасибо троим специалистам, нашедшим время для ответов. Их слова помогут молодым оптимизаторам Узнета и владельцам сайтов сориентироваться в своей деятельности.

Orphus system