Интервью с Юрием Титковым

19 августа 2015, 16:51 комментария 2

Титков

Юрий Титков — один из самых интересных и в тоже время загадочных личностей в сфере SEO. Совсем недавно нам удалось встретиться с ним и побеседовать на различные темы. Такой шанс мы не могли упустить и конечно же задали ряд вопросов, затронув одни из самых обсуждаемых тем на популярных форумах, узнали много нового о недавно запущенных алгоритмах, и, конечно же, выведали некоторые полезные фишки.

Буквально недавно был запущен новый алгоритм Google Panda 4.2. Представители компании говорили, что эффект будет ощутим спустя несколько месяцев, и результаты соответственно тоже. Правда многие уже приметили, что у некоторых на 35% процентов больше органического траффика. Твоё мнение по поводу алгоритма и заметил ли ты положительные сдвиги?

Мне очень много времени удаётся проводить на западных форумах, тот же SEOchat — проводил общение с Ann Smarty и совладелицей mybloggest. По их словам — никаких активных изменений не произошло. Обычно, когда идёт обновление алгоритма — это что-то значимое, происходит вакханалия. Но на сегодня, ничего такого не происходит, то есть всё в мерках обычной погрешности изменений поисковой выдачи. Единственное, где удалось приметить нечто — в информационном поле, то есть это информационные запросы, контентное направление, но там и всё так понятно. Почему? Дело в том, что Panda это дублированный контент, поэтому это первое, что пострадало. Тот же about.com, то есть везде, где есть контентные ресурсы, которые так или иначе генерировали выше названный контент мог потенциально пострадать, что и произошло собственно. Отдельные проекты пострадали, а так — тишина.

То есть по твоему алгоритм ещё не полностью запущен, или же результаты просто будут незначительны?

Нет, я не говорю что они будут незначительны, но если посмотреть на все последние апдейты, которые касались Panda и Penguin, то они всегда приводили к значимым изменениям. До пол процента всего интернета, так или иначе, попадали под эти алгоритмы, а это уже значимые результаты. На сегодня мы даже не говорим о каком-либо проценте, ибо это единичный проект, то есть алгоритм ещё не вступил в силу. Что будет дальше? У нас два варианта — либо они запустили какой-то многозначный алгоритм, о чём мы много говорили на западных конференциях с представителями Google, так как мы знаем о запуске KnowledgeGraph. Это та система, которая на основе предыдущей агрегированной информации принимает решение что делать с предыдущим контентом, появившийся в информационном поле. Вполне возможно, что они сейчас используют KnowledgeGraph для того, чтобы запустить Panda. Они запустили алгоритм, который обрабатывает всю статистическую выборку, накопленную за продолжительное время. За счёт этого мы сейчас ничего не видим, потому что происходит расчёт. Количество дата-центров у Google просто колоссально, да и посчитать всё это очень сложно. Вновь вернёмся к вариантам — либо ничего не происходит и они исправляют свою ошибку, тем самым говорят: «Да, мы зафейлили» и откатываются назад, или же произойдут значимые изменения. С Panda обычно всё бывает печально, и как следствие — дублированный контент страдает. Единственное, что могу сказать — огромные опасения у тех, кто занимается синдикацией контента.

Возьмём в пример очень крутой проект на западном рынке — Буффер. Он агрегирует, занимается синдикейшн каунтом, грубо говоря — не генерирует контент, а собирает дублированный из всех источников, и это на данный момент новый тренд в контент-маркетинге. Все ребята, которые пишут контент, они заходят на подобные ресурсы, и тем самым дублируют свою же статью. Почему? Потому что тебе не нужно писать, ты получаешь трафик, но возможно это самые высокие риски, потому что это пока новый тренд. Все начали заниматься синдикацией, одну и ту же статью публиковать везде, да и гугл отошёл от того, чтобы блокировать за дубляж, если ты конечно не спамер. Вот тут и большие риски, те кто агрессивно занимается синдикацией может попасть под этот апдейт. В случае, если этого не будет — значимых изменений в том числе не стоит ждать.

Интернет маркетинг должен работать по всем каналам одновременно, но все же хотелось бы узнать за SEO. Какое обозримое будущее есть у этого инструмента? Что изменится, что будет работать, что уйдёт на второй план?

SEO всегда будет работать, и пока поисковая система не изменит страницу выдачи, имеется ввиду текущая вёрстка, которую мы видим, то всегда и везде, до 80% всего траффика будет уходить на органическую выдачу. Как минимум, по той простой причине, что контекст и платную рекламу мы не всегда видим в поисковой выдаче. Всегда есть много того контента, который мы ищем и Google не даёт возможности по нему рекламироваться из-за различных illegal issues. Например, нельзя рекламировать медицину, всё что связано с house cart, так как это даёт возможность рекламировать некачественный продукт, ту же синтетику. Сюда можно добавить контент связанный с графикой и видео, туда всегда пытается пробиться adult контент, поэтому он закрытый в data account. Так или иначе, органический траффик всегда будет иметь возможность показать тот или иной эффект, чем любое другое направление.

Другая ситуация в том, что когда ты запускаешь контекст — ты запустил и получил результат, или же не получил его. Нажал кнопку и отключил, потратил деньги и всегда можешь отключить его. SEO это всегда работа в долгую перспективу. Фишка в том, что посмотреть абсолютно любой проект до 60% трафика всегда приходится на органику. На примере того же SMM, который является одним из самых мощных каналов по привлечению моментального трафика, когда ты сделаешь классный контент — ты можешь его растиражировать в социальных сетях и получить кучу классного траффика, но это всегда будет взлёт и падение, поэтому всегда нужно работать над контентом, чтобы агрегировать это трафик. Он всегда имеет какую-то амплитуду и потом резкое падение популярности этого контента. Затем, этот траффик начинает конвертироваться в органику: человек запоминает бренд — дальше ищет его в поисковых системах. И всегда мы видим откуда бы ты не запускал свой трафик, это может быть медийная реклама, социальная, наружная — всегда она будет переводиться в органику, органика же в свою очередь будет расти, потому что количество брендовых запросов увеличивается, естественно нужно приводить через органический трафик. Так или иначе, если заходить в Google Analytics, то последней точкой касания в e-commerce в приведении конверсии клиента он может заходить через кучу-кучу источников, но последней точкой касания всегда будет являться органика, к слову — 90% случаев в e-commerce это органика. Когда человек много почитал о тебе, через социальные сети, видео где-то посмотрел, контекстную рекламу увидел, через ремаркетинг зашёл к тебе на сайт — всё равно придёт вечером и откроет свой ПК, сделает покупку. Хотя до этого он смотрел в планшете, на мобильном устройстве.

Пару слов о новом алгоритме Яндекс Минусинск. По личным наблюдениям наших специалистов — это тот же Пингвин гугла. Что думаешь и каковы результаты за 3 месяца?

Я думаю да! (смеётся). На самом деле так и есть, это действительно прототип Panda, то есть что имеется ввиду — это не алгоритм. Минусинск — это ручные санкции, то, с чем к нам пришла Panda в 2009 году. Мы не говорили что она — это алгоритм. Они запустили общий алгоритм, отсеяли ссылки и после этого запустили асессоров, которые вручную начали проверять сайты, все которые прошли через фильтр. Да, так же как мы делаем в обычном экселе — берём данные, потом фильтруем их руками, уже редактируем. Они отфильтровали сайты, получили какой-то список сайтов уже урезанный, который попадает так или иначе под какие-либо параметры. После этого руками начали с помощью асессоров фильтровать ресурсы вручную.

Почему это так? Потому, что когда ты пытаешься снимать санкции — ты связываешься напрямую с поддержкой Yandex, поэтому это ручные санкции. Это не автоматический алгоритм, автоматически тебя не валят. Допустим, ты запустил сайт и выходишь в топ, в таком случае ты не будешь забанен, потому что случайно попал под какой-то алгоритм. То есть ты попадаешь через узкое горлышко, через определённый фильтр, где составляется список, и после этого человек уже ходит и смотрит.

Что это значит? Что мы работаем с человеческим фактором. Если в тупую работать через какие-то автоматические сервисы, то ты можешь спалиться очень легко. Если ты будешь работать в умную, закупать, как это делают россияне, или же наши украинские специалисты, работающие с автозакупщиком на SAPE, или ещё где-то — окей, пусть закупают. Но если и работать в умную, то есть понимать, что это человеческий фактор, то они всё равно смотрят на общую ссылочную массу, то можно и работать с этим человеческим фактором. Хотел сказать обманывать, но так и скажем — работать с человеческим фактором. Набить нормальные ссылки, хоть пусть это будет энкор, пусть это будут нормальные статьи, которые там ссылаются на тебя как бренд, при чём не с агрегаторов каких-то, а реальные хорошие статьи.

Пусть то, о чём говорит Яндекс, реальный и настоящий краунд-маркетинг, когда ты заходишь на форум и реально общаешься там, а не спамишь «зайди к нам и купите», а просто общаешься, даёшь полезный контент, делишься ссылками на свои статьи и другие, и так далее. Они заходят, видят общий ссылочный профиль, говорят всё окей ребята и дальше тебя пропускают. Другая ситуацию, когда ты покупаешь миралинкс. Ротапост и SAPE — везде это одни и те же доноры, они знают что заспамлены — там тебя банят вручную. Да, это факт, но это ручной фильтр, не автоматизированный, то есть то, что стоит понять.

Каким методом ты делаешь внутреннюю перелинковку?

Я достаточно давно говорю об этом, на самом деле метод очень простой — он базируется на теории направленных графов. Это математический метод, где вершиной является страница, а ребром графа — ссылка. Работа идёт от обратного: когда у тебя уже есть сайты, ты загоняешь его в примитиве в эксель. Есть ряд скриптов, которые написаны на Node.js. Ты подключаешь его и строишь направленный граф, где отображается удаление от вершины той страницы, которая тебя интересует. Система достаточно сложная, но если это визуализировать и понять, что у тебя должно быть отдаление максимум на 5 шагов, то направленный граф показывает тебе вес вершины. Да, по сути, когда у тебя уже есть такая здоровенная сетка — ты загоняешь это в эксель и видишь её, она показывает тебе вес. Ты меняешь буквально несколько страниц, которые значимы для тебя, и система для тебя пересчитывает уже вес других страниц. Тем самым, ты можешь уже без определенных алгоритмов вручную построить нормальную сетку перелинковки При этом, ещё раз выгрузить эксель, уже нормальный список страниц, сделать из этого sitemap и загрузить его в любую систему.

В случае, когда у тебя cms, то с помощью обычных блоков построим перелинковку. Если более умно поступать, то ты должен уже использовать алгоритмы математические — когда ты загружаешь в Node.js структуру своего сайта, после это используешь алгоритмы, они не достаточно сложные, это уже построение направленных графов. С помощью него уже построить нормальную структуру сайта. На это требуется месяц работы для какого-то крупного e-commerce. Я не использую такие системы как Колдунчик или ещё проще — потому что если его запустить, сделать перелинковку, выгрузить и закинуть это, построить направленный граф, то вместо того, чтобы увеличивать вес страницы ты наоборот, его размываешь, и даже главная страница имеет низкий вес в структуре сайта. Поэтому я бы не советовал этого делать, для Яндекса — это работает хорошо, потому что они направленны на анкорную составлящею, когда ты передаешь вес внутри сайта. Но ты можешь попасть опять же под ручные санкции, то есть палка о двух концах. Для Google — это же никогда не работает, потому что это теоретическая модель page rank, и соответственно это только направленный граф

Facebook-поиск — насколько это актуально и как с ним работать? Многие компании стараются попасть в поисковую выдачу.

По большому счету Google перенял KnowledgeGraph у Facebook`a, но если последний не смог нормально внедрить эту систему. Она базировалась на человеческих предпочтениях, где он ставит лайки, кого он в основном читает и прочие факторы. На сегодняшний день нормальный KnowledgeGraph до сих пор не запущен на Facebook, хотя они делают неплохие шаги для его реализации. Говорить именно про этот поиск так себе. Единственное, что я часто делаю — ищу свою фамилию, потому что люди не всегда маркируют меня физически в Facebook, поэтому делаю поиск чтобы найти кто мне что-то написал, обратился.

Если говорить о компании и бренды — я опять от себя же говорю, что я не верю в SMM физически, как в канал продаж, но для меня Facebook является основным каналом продаж и привлечения клиентов. Здесь важно понять только то, что я выхожу как эксперт и выражаю своё экспертное мнение. Когда человек приходит и начинает меня читать, естественно когда у него появляется какая-нибудь проблематика — он уже обращается ко мне как к специалисту. Но я не верю в SMM чистой воды, когда там делаются страницы, начинается просто постинг контента, обезличенный. Да, это круто когда ты там большой бренд, тебе пофиг — ты публикуешь контенти тебя начинают лайкать. Когда ты неизвестный бренд, и проделываешь тоже самое, в надежде что к тебе придут — это всё равно что работать с поисковой системой. Когда Google говорит — «делайте классный контент и вас найдут» возникает вопрос, как вас могут найти, если у вас нет ни одной ссылки — сколько бы вы не писали, тебя будет читать твоя жена, твои друзья из чувства сострадания, писать какие-то комментарии, и те люди, которым ты отправишь ссылку.

Есть мнение что тег h2 недооценен, и многие не заморачиваются с его написанием, а обращают внимание только на h1, title, description. Что можете сказать по этому поводу?

Я могу сказать по этому поводу то, что многие недооценивают поисковую систему Google в комплексе. Говорить про какой-то один тег — ни о чём, наверное единственный значимый тег для поисковой системы это, потому что эта та переменная, которую ты передаешь поисковой системе. Несколько раз замечал, что минимальная игра с title меняет выдачу в корне. Когда ты уже накачал страницу, когда у неё есть уже большое количество ссылок и ты меняешь title буквально на одно слово и твоя поисковая выдача просто значительно меняется, потому что эта та переменная, которая объясняет поисковой системе о чём эта страница.

Я пока ещё не смог выстроить какую-то простую концепцию, как это объяснить, вот это чаще всего называют комплексом. На банальном примере просто оценить когда ты заходишь на страницу — там h1 тег главный заголовок страницы, где там написано Casino Online. После этого такое здоровенное полотно текста, которое возможно где-то разбить на параграфы, но тупо полотно текста, и ещё возможно вставлена картинка, которая тоже как всегда оптимизируется casino-online.jpg и alt casino online — всё. Эта страница ни о чём и она никогда не получит ранжирование . Если же из этой страницы сделать, нормально её разметить — да, там будет h1, h2, h3 тег, там будут якоря. Очень неплохо работает, когда ты оптимизируешь свою страницу и понятно, что ты хочешь использовать не один поисковый запрос, а там 5, 10, 20, 30, 50. Очень неплохо работает, когда ты маркируешь h1, h2, h3, h4 с помощью якорей: хештег и допустим название casino online bonuses или free casino oblibe, или там блекджек, слоты. И ты делаешь всё это на одной странице, и тогда поисковая система ранжирует одну и ту же страницу, но уже начинает по якорям определять где находится тот или иной ключ, и уже когда человек нажимает на ссылку и если он искал фри казино онлайнс — он уже попадёт не на самый верх страницы, а по якорю попадёт где-то в середину.

Естественной, на этой странице должны быть не просто полотна текста, а и списки, маркировка и ссылки на другие страницы. То есть если ты пишешь casino onlone, а потом пишешь блекджек, баккара и покер, то должно быть блекджек — ссылка на станицу блекджека, баккара — ссылка на страницу баккара и покер — ссылка на страницу покера и так далее. Это юзабилити, это как раз та перелинковка, и это возможность показать системе что это нормально значимая страница, которая читается пользователю и переходится по ней. Наверное это так объясняется, а не то, что ты не используешь h2 тег, то эта страница не будет ранжироваться. Возможно у тебя страница, которая состоит из 300 слов. Бессмысленно на неё пихать h2, h3 теги, потому что 300 слов это маленький параграф, где должен быть заголовок, большая красивая картинка, потому что 300 слов это недостаточно для понимания в e-commerce о чём продукт, что за продукт, донесения каких-либо значимых вещей. Возможно, видео или какая-нибудь микро-разметка, навигация по сайту. Если это лонгрид — там должно быть изобилие этих заголовков и внутренние перелинковки якорей и так далее. Вот мы наверное об этом говорим, поэтому тут важно понимать что это за страница.

Совершенны фильтры? Столь ли безошибочны алгоритмы? Действительно ли не остается никаких лазеек для продвижения любого проекта в заветный топ?

Естественно же фильтры не совершенны, пока мы работаем с системами — это палка о двух концах. Почему когда появилась поисковая система, то первый специалист который появился после поисковой системы это black hat специалист. Потому что те люди, которые занимаются black hat — они очень хорошо разбираются что за алгоритмы, они разбираются в математике, разбираются что и как использовать. Поэтому пока будет существовать поисковая система — будет существовать и чёрное SEO, ну а также хакеры. Пока информационное пространство существует — будут существовать специалисты, которые занимаются онлайн безопасностью.

Всегда есть лазейки, хотя бы пока поисковая система работает с переменными — у нас будет такая переменная как title, которая задает о чём ранжируются данные страницы. В этом направлении есть куда работать, потому что ты задаешь title, ты убираешь контент, убираешь картинки, больше ничего не используешь. Когда ты открываешь исходный код — у тебя там только тайл и всё. Вот эту страницу, где есть только title гораздо легче вытащить в топ, чем если ты добавишь на страницу контент, картинки, какую-то перелинковку, видео, микро-разметку, социальные факторы и прочее. Потому что тем самым ты усложняешь себе жизнь, тебе приходится работать с многими переменными. И они должны быть все хорошего качества. Как раз таки black hat специалисты это очень хорошо знают и понимают, они всегда используют минимум факторов, которые могут повлиять на ранжирование страницы. И выбирают только те, которые приведут к эффективному топу.

Другая ситуация в том, что эта работа не долгосрочная. Ты попадаешь быстро в топ, потом система уже анализирует долгосрочность, агрегируют данные и понимает что эта страница некачественная и не может находиться в топе. Долгосрочная да, там нужно работать со всеми параметрами, но как раз вот эти лазейки это то, о чём мы говорим.

Назови несколько топовых SEO трендов на 2015 год

Как ни странно их всегда называют, ничего нового не скажу, но это контент-маркетинг, про него все говорят. Это долгосрочная перспектива и возможность выйти на какие-то значимые позиции без каких-нибудь страшных фильтров со стороны поисковой системы, это возможность агрегировать трафик без поисковой системы, потому что даже если ты не будешь в топе это возможность генерировать тот же трафик из того контента. который ты сагрегировал без поисковой системы. К примеру тот же кейс как Ann Smarty обиделась на тот же Google, вообще никак о нём не говорит. Она сейчас говорит о контент-маркетинге с точки зрения генерирования трафика, потому что её проект майблогест, который давал возможность делиться контентом, поисковая система Google расценила как обмен ссылками и забанила весь проект. То есть с тех пор они очень сильно обижены и я её понимаю, так и здесь.

Поэтому из основных трендов я пожалуй выделю тот же тренд, о котором много говорят — мобильное направление. Оно растёт очень сильно и быстро. Это видео-контент. Почему? Потому что в выдачи есть такое правило как один-много или один-множество, то есть когда ты вводишь поисковой запрос — поисковая система отвечает тебе комплексно. Она не знает что ты хочешь найти — ты хочешь найти видео-контент или отзыв, может купить этот продукт или информацию, ты хочешь посмотреть на него вживую, то есть возможно с помощью картинок. На это очень много различных ответов, поэтому в поисковой выдаче всегда есть видео-контент, картинки, как контент информационный и e-commecre. То есть это как минимум четыре составляющие.

Наверное, основным трендом для SEO-специалиста будет понимание что находится в выдаче и направление своих сил в это русло. Я не раз помогал ребятам, когда они заходили в высоко-конкурентную нишу, и я им говорил: «Ребята, вам сейчас не надо продавать, зайдите в выдачу, вы увидите что там нет отзывов, нет обзоров, там нет видео-контента. Направьте свои силы туда и вы получите профит». Это классно работает, потому что ты делаешь видео-контент и если его не существует в природе — он сразу же получает свою позицию в топе, потому что этот сегмент должен быть. И безусловно это безопасность, потому что она многозначна.

Сейчас сайты ломаются всё чаще и чаще, CMS системы более уязвимы и они чаще всего opensource. Возможность посмотреть этот код, увидеть дырку и после этого взломать большое количество ресурсов онлайн. Поэтому безопасность это многозначимо и это то, о чём говорит гугл. Появилась маркировка «This site maybe hacked» в поисковой системе, появилась маркировка у тебя есть https или нет, если у тебя нет https — точно также может повлиять на твой ресурс, если уже в выдаче все перешли на https. Поэтому да, безопасность это то, о чём стоит позаботиться в первую очередь.

SEMPRO.club
Вопросы по поводу интервью

SEMPRO.club #7 во Львове — уже через ДВА дня!

sempro

Ребята, сообщаем что в этоу пятницу во Львове пройдёт одно крутое мероприятие с Юрием Титковым — SEMPRO.club #7. Соберутся многие SEO-специалсты, затронут тему ссылочной массы и расскажут как её агрегировать. Помимо этого, объяснят какими метриками и критериями пользоваться при отборе сайтов, да и ещё много чего крутого! Подробная информация собрана на странице мероприятия: https://www.facebook.com/events/937066659673565/

Также хотим поделиться с нашими читателями двумя промо-кодами (trionika1, trionika2) на скидку в 10%, которые можно ввести на странице регистрации.

Поделиться в соц. сетях

Опубликовать в Google Plus
Tags: , ,

Автор поста: Денис Шергин

  • «Они запустили общий алгоритм, отсеяли ссылки и после этого запустили css`ров, которые вручную начали проверять сайты»

    держите свои css при себе ))

  • Ozz

    Почему всё таки не выделили социальные факторы в число трендов?