Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
42 - Telegram Web
Telegram Web
Прошлый (и первый) randomzoom прошёл отлично. Пообщались с Николаем, обсудили устройство поиска и практические вопросы продвижения сайта. Было взаимно интересно и полезно.

Проведём ещё один на этой неделе!
Вчера темой seo-клуба стали результаты исследования компании "Ашманов и партнёры" про информационные запросы. Взгляд снаружи и обсуждение практик рынка с экспертами всегда помогает увидеть вещи под каким-то новым углом. Спасибо организаторам!
Media is too big
VIEW IN TELEGRAM
SEO-клуб Optimization🔥 Рассказываем, как вчера прошла встреча нашего клуба 👇🏻

На организацию этой встречи клуба нас вдохновило наше же исследование (2 часть совсем скоро 😉)

Вместе с лидерами отрасли обсудили факторы ранжирования информационных запросов в Яндекс и Google и как с помощью блога можно кратно увеличить трафик на сайт магазина, и повысить продажи.

В этот раз спикерами стали:
🎤 Михаил Волович — руководитель Лаборатории поисковой аналитики «Ашманов и партнёры»,
🎤 Юлия Паймикина — руководитель группы SEO депозитных продуктов «Т-Банк» (инвестиции, вклады, дебетовые карты), бывший руководитель команды SEO Бизнес-секреты (медиа о бизнесе от «Т-Банк»).
🎤 Сергей Евдокимов – SEO-специалист Журнала ЦИАН.
🎤 Анастасия Курдюкова – руководитель отдела поисковой оптимизации, «АиП».

На видео делимся атмосферой вечера и впечатлениями Михаила Сливинского – амбассадора интернет-площадок в поиске Яндекса 🖌

Хотите узнать больше про информационные запросы?Тогда ждём вас на Optimization🔥 Там мы обсудим этот и другие вопросы более детально!
Please open Telegram to view this post
VIEW IN TELEGRAM
Мы активно улучшаем поиск по ecom-запросам. Сегодня мы начинаем бета-тестирование Яндекс Товаров. Это новый кабинет для интернет-магазинов. Сейчас в нем можно управлять товарными yml-фидами, а в будущем там будет доступна подробная аналитика, помогающая бизнесу максимизировать продажи через Яндекс.

Мы отправим приглашения первым участникам в ближайшее время. О начале тестирования мы проинформируем в рассылке и личном кабинете Вебмастера, а до конца лета доступ появится у всех пользователей, которые работают с интернет-магазинами. И после того, как вы сможете оценить новый кабинет, прошу вас поделиться своими впечатлениями.
Сравнение side-by-side - простой способ заметить важное.

В своей личке я каждый день отвечаю на множество разных сообщений. Это круто, потому что они помогают лучше видеть картину в Поиске глазами партнёра - бизнеса или контентного проекта. Самый частый вопрос - какие изменения на сайте могли бы помочь ему ранжироваться выше в поиске. Во многих случаях очень полезным оказывается простое сравнение с рынком - продавцами товаров, поставщиками услуг, контентными проектами. И такое сравнение - SBS (т.е. side-by-side) - можно сделать быстро и недорого.

На днях был вопрос про сайт ресторана. Посадочных мало, да и на тех, что есть - минималистичное описание используемых ингредиентов, нет отзывов, видео, условных "лайков" пользователей и кучи фоток. Обидно, ведь готовят на самом деле вкусно, я пробовал. Но сайт - пока не выглядит вкусно, жаль.

Другой пример: сайт аптеки. Так получилось, что тоже знаю их в оффлайне, недалеко живу. Ассортимент широкий, цены хорошие, работают допоздна, на мой вкус - отличная аптека. Но на сайте прямо базовые ошибки, у множества товаров какой-то общий тайтл. В результате - пользователям неудобно, сниппеты так себе. Обидно, тем более, что это легко исправить.

В примерах выше фокус на продуктовых отличиях, но аналогичным образом можно сравниваться и в более технических аспектах, например, скорости загрузки или мобилопригодности.

Несколько советов, чтобы избежать ошибок:

1. Постарайтесь честно занять роль покупателя: не игнорируйте недостатки своего проекта и не принижайте успех конкурентов, иначе просто не получится увидеть зоны роста.

2. Учитывайте контекст, в котором может находиться потенциальный пользователь вашего сайта: его потребность, критерии выбора, ограничения, знание предметной области. Если сомневаетесь - проведите интервью, спросите пользователей непосредственно или сотрудников компании, которые работают с покупателями.

3. Старайтесь смотреть продуктово, содержательно, не формально. Сравнение по длине текста, плотности ключевых слов и пр. не даёт полезной информации, зато сутевое сравнение может проявить отличие в ассортименте, функционале, удобстве, ценах, сервисе, и прочих реально важных для людей моментах.

Сравнивайте, и находите возможности!
Продолжаю проводить randomzoom. Принимайте участие! Обсудим волнующие вас вопросы.
Анализ спроса — интереснейшая область. Каждый раз, когда касаюсь этой части маркетинга, нахожу что-то новое и интересное.

Хочу сегодня приоткрыть детали устройства инструмента «Подбор запросов и анализ рынка» в Вебмастере: в нём удобно подбирать целевые запросы (в т.ч. и без маркёрных слов в самом запросе), учитывая конкурентный ландшафт.

Самый частый вопрос: откуда данные, насколько они точные и в чём отличие от других инструментов.

Мы используем анонимизированные и агрегированные данные из потока запросов пользователей. Важно, что мы почти не делаем нормализации, т.е. не меняем запросы. Соответственно, если запросы отличаются морфологической формой слов, наличием предлогов, порядков слов или даже наличием точки — это всё разные запросы и вы их увидите в сервисе независимо, со своими статистиками. Мы делаем так, чтобы лучше отразить потребности пользователей.

Недавно команда выкатила небольшое обновление — теперь можно использовать восклицательный знак перед словом в запросе. Это фиксирует морфологическую форму слова (сработает и в стоп-словах, т.о. можно тонко исключить ненужное).

В сервисе доступны данные за год (это скользящее окно в 12 полных месяцев). Статистики по запросам — среднемесячные, пересчитываем ежемесячно. Такой подход позволяет находить даже запросы с резко выраженной сезонностью (которые были популярны, например, полгода назад). Иногда спрашивают, почему кликов может быть больше спроса. Тут просто: спрос — это число пользователей, задавших запрос, и один пользователь вполне может сделать несколько кликов.

Мы отфильтровываем часть запросов, заданных роботами (фильтрация не слишком строгая, чтобы не давать обратную связь накрутчикам, но обычно достаточная для задач маркетинга и seo), и запросы с крайне малым числом переходов из поиска. Данных много — сотни миллионов запросов и миллиарды связок [запрос] – [регион] – [устройство]. Дополнительные запросы мы подбираем алгоритмически, по убыванию схожести с основными запросами, подобранными по маске. Это позволяет найти редкие и неочевидные целевые запросы.

Буквально во всех интервью с маркетологами звучало, что приходится тратить много времени на обзор рынка. Поэтому справа мы показываем уже популярные в поиске сайты и страницы по всем подобранным запросам, включая дополнительные (статистики тут — за прошедший месяц).

Пользуйтесь, и предлагайте идеи команде сервиса)
This media is not supported in your browser
VIEW IN TELEGRAM
На прошлой неделе съездил на BalticDigitalDays в Калининграде. После доклада около восьми часов отвечал на вопросы) Конференция - отличный формат, чтобы познакомиться и услышать мнение людей с самой разной экспертизой, от медицины до дайвинга, это ценно.

Спасибо аудитории за содержательную дискуссию и много поднятых тем - как технических (от расчёта поисковых статистик до особенностей поискового робота), так и продуктовых (от способов искать зоны роста для сайта до метрик качества поиска). Мы обязательно их дообсудим.

Было приятной неожиданностью получить премию BDD'2024 "За заслуги в сфере digital". Вообще, я очень редко о таком говорю. Но в этом случае уверен, что это искренне и от души. Спасибо Диме Шахову и команде организаторов за отличное мероприятие!

И, несмотря на загрузку, удалось даже несколько часов провести на море)
Склеивать или запрещать к индексации? Логика решения и особенности методов для работы с ненужными в поиске страницами.

Есть много способов повлиять на поведение поискового робота - noindex, запрет в robots, clean-param и т.д. Часто вижу, что нет уверенного понимания, что и почему лучше использовать в конкретных случаях. Разберёмся вместе)

Во-первых, сразу определимся, что тут речь о каких-то ненужных в поиске страницах: технических дублях, пустых страницах без контента, etc. Если не ограничить индексирование таких страниц, они могут попадать в поиск, что может замедлять индексирование целевых, полезных страниц. Также обход дублей/мусора создаёт нагрузку на сайт, она может быть значительной. Кроме того, дубли могут показываться в поиске, что приведёт к размытию поисковых сигналов между несколькими страницами, что невыгодно ни сайту, ни поиску.

Разделим эти страницы на несколько когорт:

— нежелательные в поиске страницы с чувствительными данными (заказы пользователей, etc): к таким страницам стоит закрыть доступ авторизацией, чтобы ни поисковые роботы, ни случайные пользователи не смогли в принципе получить этот контент
— страницы без контента, какой-то технический мусор и пр. страницы без шансов показаться в поиске: такие лучше просто запретить к индексации
— страницы, являющиеся дублями (например, из-за добавления cgi-меток к урлу в рекламных системах): стоит подклеить их сигналы к основному (каноническому) урлу

Теперь разберёмся с инструментами, запрещающими индексацию.

Запрет через disallow в robots.txt полезен, если закрываемые страницы хорошо группируются какой-то маской на url. Ценная особенность метода в том, что не требуется обход роботом, и директива применится сразу ко всем урлам в поисковой базе.

Метатег или http-заголовок noindex даёт большую гибкость (страницы могут не иметь общего паттерна в url, и нет ограничения на число страниц), но при этом требуется обход роботом, поэтому потребуется больше времени.

Чтобы подклеить сигналы с дублирующих страниц к основным, используйте элемент rel=canonical, директиву clean-param в robots.txt или 301 редирект.

Атрибут rel=canonical или редирект позволяют реализовать гибкую логику, если нужно, но потребует обход страниц роботом. Если дубли порождаются незначащими cgi-параметрами, выгодно использовать clean-param - это подклеит сигналы к каноническому урлу, при этом роботу даже не потребуется обходить страницы заново. Замечу, что и атрибут canonical, и директива clean-param являются рекомендацией для робота и могут не сработать при существенных отличиях страниц.

Резюмируем: непубличные страницы лучше закрыть авторизацией, мусорные страницы и пустышки - запретить к индексации, содержательные дубли - подклеить к каноническим.

Выбирайте оптимальное решение в каждом конкретном случае.
В Яндекс Товарах появились новые аналитические отчёты для магазинов. Следите за обновлениями, у команды большие планы)
Новые возможности для интернет-магазинов

В июле запустили в бета-тестирование Яндекс Товары — новый инструмент для роста продаж через сервисы Яндекса и органического трафика интернет-магазинов из Поиска.

На этапе тестирования в Яндекс Товарах можно было загружать и редактировать товарные YML-фиды. Сейчас возможностей стало ещё больше.

Что нового в кабинете:

— Раздел «Аналитика», где вы сможете отслеживать трафик вашего интернет-магазина в трёх разрезах: поисковом, рекламном и из других источников. Данные можно отфильтровать по периоду и сравнить несколько временных отрезков. Чтобы получить доступ к такой аналитике, нужно подтвердить права на сайт и подключить Метрику с электронной коммерцией.

— Персональные рекомендации, которые помогут вам улучшить показатели интернет-магазина и привлекать больше покупателей из Поиска.

➡️ Читайте подробнее в блоге Вебмастера и переходите пробовать в личный кабинет.
Предлагаю пообщаться в новом randomzoom. Принимайте участие!
Какая версия страницы находится в поисковой базе?

Если вы внесли изменения на страницу и хотите узнать, попали они в поисковый индекс, или ещё нет, можно использовать несколько способов.

Самый надёжный метод - извлечь проиндексированный контент прямо из образа поисковой базы в инструменте "Проверка страницы" в Вебмастере. В сервисе доступны две вкладки: "результат проверки" и "версия страницы в базе" (с датой, когда была выложена текущая поисковая база). На вкладке "версия страницы в базе" вы получите статус страницы в поисковой базе и дату обхода страницы, во время которого был получен контент, который сейчас есть в поиске. И здесь же доступна текстовая версия страницы - это ровно тот контент, который лежит в поисковой базе и участвует в ранжировании.

До появления этого инструмента оптимизаторы часто ориентировались на текст сохранённой копии, доступный через многоточие у сниппета. Учтите, что и тексты сниппетов, и тексты сохранённых копий обновляются асинхронно, и могут не соответствовать тому, что прямо сейчас лежит в поисковой базе (могут отставать, а иногда быть свежее контента, лежащего в поиске). Поэтому, если речь о ваших сайтах, лучше подтвердить их в Вебмастере и ориентироваться на данные инструмента "Проверка страницы".

Что делать, если в поиске не самая актуальная версия страницы? Можно отправить страницы на переобход в Вебмастере или отправить пуш в IndexNow. Обход страницы роботом будет отражён в разделах "статистика обхода", "проверка страницы" и "мониторинг важных страниц" в Вебмастере. Учтите, что обход роботом ещё не гарантирует индексацию страницы, а на прорастание обновлённого контента в поиск обычно уходит несколько дней. Про это отдельно расскажу чуть позже)
В канале уже почти полторы тысячи человек, и мне бы хотелось лучше вас узнать, понимать ваши интересы и ожидания. Пожалуйста, ответьте на 3 простых вопроса)
2025/02/27 21:09:49
Back to Top
HTML Embed Code: