Хотите поспорить, сколько разных сайтов
Похоже, у них есть отдельный домен для каждого штата США.
Почему?
Потому что весь контент создан исключительно для поиска Гугла.
Ведь зачем "
https://www.betmissouri.com/info/hot-chocolate
@MikeBlazerX
Gambling.com Group
нужно, чтобы заспамить Google локализованным контентом от сторонних контент-маркетинг/SEO-компаний?Похоже, у них есть отдельный домен для каждого штата США.
Почему?
Потому что весь контент создан исключительно для поиска Гугла.
Ведь зачем "
Bet Missouri
" писать о шоколаде?:https://www.betmissouri.com/info/hot-chocolate
@MikeBlazerX
Как проводить исследование аудитории в 2025 году
Исследование аудитории включает сбор и анализ данных о поведении, мотивации, болевых точках и языке целевой аудитории для формирования стратегий, кампаний и месседжей.
В отличие от маркетинговых исследований, изучающих макроэкономические тренды и конкурентоспособность, исследование аудитории работает на микроуровне, показывая, как люди взаимодействуют с контентом.
Традиционные методы вроде опросов часто не соответствуют реальному поведению (например, люди утверждают, что читают "
Современные сложности включают достоверность реферальных данных (100% визитов с
5 устойчивых мифов тормозят прогресс:
1. Опора исключительно на данные опросов.
2. Отождествление существующих клиентов с общей аудиторией (упуская криэйторов, венчурных инвесторов).
3. Приоритет источников трафика над центрами принятия решений (40% поисков в Google заканчиваются кликом, половина из которых брендовые/навигационные запросы).
4. Переоценка интервью/фокус-групп для поведенческих данных.
5. Восприятие исследований как разовой задачи.
Согласно "
12 эффективных методов исследования:
1. Социальное прослушивание: Отслеживание упоминаний бренда/конкурентов через инструменты типа
2. Анализ соцсетей: Курирование фидов через
3. Анализ конкурентов: Аудит прямых, аудиторных (например, платформы вебинаров vs CRM) и желаемых конкурентов с помощью SEO-инструментов. Выявляет SEO-пробелы.
4. Комьюнити-менеджмент: Мониторинг сабреддитов (без самопиара) или ведение
5. Опросы/голосования: Сбор предпочтений в масштабе (например, опросы в
6. Интервью с клиентами: Выявление болевых точек через нишевые платформы. Риск несоответствия поведенческой отчетности.
7. Анализ поискового интента: Классификация ключевых слов (информационные, навигационные и т.д.). Отслеживание трендов в таблицах. Сложности с неоднозначными запросами.
8. Веб-аналитика: Показывает эффективность контента, показатели отказов. Переизбыток метрик усложняет приоритизацию.
9. Кросс-платформенное отслеживание: Построение мультиканальных путей. Требует интеграционных усилий.
10. Данные первого лица: Сегментация метрик
11. Сторонние исследования: Цитирование демографических трендов. Недостаточно релевантно для ниш.
12.
Для защиты от будущих изменений диверсифицируйте источники данных и следите за изменениями платформ (например, изменения
Фокусируйтесь на базовых принципах, а не на тактиках типа "Ссылка в комментариях!".
Гибкость зависит от комбинации анализа поискового интента с отслеживанием комьюнити.
https://sparktoro.com/blog/audience-research-the-complete-guide-for-marketers/
@MikeBlazerX
Исследование аудитории включает сбор и анализ данных о поведении, мотивации, болевых точках и языке целевой аудитории для формирования стратегий, кампаний и месседжей.
В отличие от маркетинговых исследований, изучающих макроэкономические тренды и конкурентоспособность, исследование аудитории работает на микроуровне, показывая, как люди взаимодействуют с контентом.
Традиционные методы вроде опросов часто не соответствуют реальному поведению (например, люди утверждают, что читают "
The Wall Street Journal
", хотя на самом деле читают "Morning Brew
").Современные сложности включают достоверность реферальных данных (100% визитов с
TikTok
/Slack
маскируются как "директ", 75% переходов из Facebook Messenger
не имеют реферальных данных) и zero-click
поиски в Google.5 устойчивых мифов тормозят прогресс:
1. Опора исключительно на данные опросов.
2. Отождествление существующих клиентов с общей аудиторией (упуская криэйторов, венчурных инвесторов).
3. Приоритет источников трафика над центрами принятия решений (40% поисков в Google заканчиваются кликом, половина из которых брендовые/навигационные запросы).
4. Переоценка интервью/фокус-групп для поведенческих данных.
5. Восприятие исследований как разовой задачи.
Согласно "
State of (Dis)Content Report 2024
", 41% маркетологов недостаточно используют исследования аудитории, что коррелирует с неудовлетворенностью карьерой.12 эффективных методов исследования:
1. Социальное прослушивание: Отслеживание упоминаний бренда/конкурентов через инструменты типа
Google Alerts
. Масштабируемо, но требует определенной известности.2. Анализ соцсетей: Курирование фидов через
LinkedIn Saved Searches
или Instagram
-финсты. Анализ хештегов/вовлеченности. Требует предварительного знания аудитории.3. Анализ конкурентов: Аудит прямых, аудиторных (например, платформы вебинаров vs CRM) и желаемых конкурентов с помощью SEO-инструментов. Выявляет SEO-пробелы.
4. Комьюнити-менеджмент: Мониторинг сабреддитов (без самопиара) или ведение
Slack
-групп. Трудоемко, но дает честную обратную связь.5. Опросы/голосования: Сбор предпочтений в масштабе (например, опросы в
Instagram Stories
). Подвержены искажениям самоотчетности.6. Интервью с клиентами: Выявление болевых точек через нишевые платформы. Риск несоответствия поведенческой отчетности.
7. Анализ поискового интента: Классификация ключевых слов (информационные, навигационные и т.д.). Отслеживание трендов в таблицах. Сложности с неоднозначными запросами.
8. Веб-аналитика: Показывает эффективность контента, показатели отказов. Переизбыток метрик усложняет приоритизацию.
9. Кросс-платформенное отслеживание: Построение мультиканальных путей. Требует интеграционных усилий.
10. Данные первого лица: Сегментация метрик
CRM
/email
. Ограничено для новых брендов.11. Сторонние исследования: Цитирование демографических трендов. Недостаточно релевантно для ниш.
12.
AI
-аналитика: Прогнозирование трендов, но риск изоляции данных/проблем с GDPR
.Для защиты от будущих изменений диверсифицируйте источники данных и следите за изменениями платформ (например, изменения
API
в X
, Threads
/Bluesky
).Фокусируйтесь на базовых принципах, а не на тактиках типа "Ссылка в комментариях!".
Гибкость зависит от комбинации анализа поискового интента с отслеживанием комьюнити.
https://sparktoro.com/blog/audience-research-the-complete-guide-for-marketers/
@MikeBlazerX
Я покупаю и продаю кучу ссылок, и мне плевать, если это кого-то смущает, пишет Grind Stone.
Пока вы жалуетесь на то, что Google сломан, я активно пытаюсь сломать его еще быстрее.
Давайте начистоту - если ты энтерпрайз-сеошник, тебе лучше прекратить читать прямо сейчас.
После того как потратишь безумные суммы на тысячи ссылок и бесконечные часы на анализ таблиц, точно понимаешь, что работает, а что нет.
Мы еженедельно анализируем сотни доменов, намного больше, чем следовало бы здравомыслящему человеку, отслеживая позиции и паттерны трафика, которые невозможно отфильтровать алгоритмически.
Вот что происходит в траншеях: владельцы сайтов уже не просто фейкят авторитетность - они производят целые профили трафика.
Они используют
Мы делаем аутрич на десятки тысяч сайтов еженедельно и получаем еще тысячи предложений.
Каждый сайт тщательно проверяется, потому что никогда не знаешь, где может скрываться золотая жила.
Но вот вам суровая правда - те сайты с якобы идеальными метриками (хороший авторитет, стабильный трафик, низкий
Можно залить на каждый по 100 ссылок и не увидеть никакого движения в позициях, потому что они не ранжируются по запросам, которые имеют значение в уравнении
Эта троица - Волюм х CPC х Интент - ваш путь к стабильным победам.
Работает со всеми типами ссылок -
Применяйте это к прямым закупкам ссылок, дропам с существующими бэклинками и даже через три рукопожатия...
Единственный способ заметить эти паттерны - самому испачкать руки, потратить серьезные деньги на тысячи ссылок и протестировать все самостоятельно.
Не верьте мне - или кому-либо еще.
Убиваться над таблицами - это жесть, но это единственный способ не слить бюджет на бесполезные ссылки в этой игре фейковых метрик и искусственной авторитетности.
@MikeBlazerX
Пока вы жалуетесь на то, что Google сломан, я активно пытаюсь сломать его еще быстрее.
Давайте начистоту - если ты энтерпрайз-сеошник, тебе лучше прекратить читать прямо сейчас.
После того как потратишь безумные суммы на тысячи ссылок и бесконечные часы на анализ таблиц, точно понимаешь, что работает, а что нет.
Мы еженедельно анализируем сотни доменов, намного больше, чем следовало бы здравомыслящему человеку, отслеживая позиции и паттерны трафика, которые невозможно отфильтровать алгоритмически.
Вот что происходит в траншеях: владельцы сайтов уже не просто фейкят авторитетность - они производят целые профили трафика.
Они используют
CTR
-боты из методички по ранжированию GMB
, чтобы накручивать брендовые запросы, создавать фейковый объем хвостовых запросов и даже запускают PPC
-кампании для накрутки CPC
по бессмысленным ключам.Мы делаем аутрич на десятки тысяч сайтов еженедельно и получаем еще тысячи предложений.
Каждый сайт тщательно проверяется, потому что никогда не знаешь, где может скрываться золотая жила.
Но вот вам суровая правда - те сайты с якобы идеальными метриками (хороший авторитет, стабильный трафик, низкий
AR
) часто оказываются совершенно бесполезными.Можно залить на каждый по 100 ссылок и не увидеть никакого движения в позициях, потому что они не ранжируются по запросам, которые имеют значение в уравнении
Волюм х CPC х Интент
.Эта троица - Волюм х CPC х Интент - ваш путь к стабильным победам.
Работает со всеми типами ссылок -
PR
, гостевые посты, PBN
, нич-эдиты, что бы вы ни выбрали.Применяйте это к прямым закупкам ссылок, дропам с существующими бэклинками и даже через три рукопожатия...
Единственный способ заметить эти паттерны - самому испачкать руки, потратить серьезные деньги на тысячи ссылок и протестировать все самостоятельно.
Не верьте мне - или кому-либо еще.
Убиваться над таблицами - это жесть, но это единственный способ не слить бюджет на бесполезные ссылки в этой игре фейковых метрик и искусственной авторитетности.
@MikeBlazerX
Насколько точны оценки трафика в
Спойлер: не очень😅 Но насколько именно?
Владислав Тришкин подсчитал цифры, сравнив реальный трафик из
Результаты:
📉
📈
📈
Мораль сей басни?
Относитесь к этим показателям трафика с долей скептицизма, когда делаете прогнозы.
https://www.slideshare.net/slideshow/seo-b3c1/272436520
@MikeBlazerX
Ahrefs
, Semrush
или Similarweb
?Спойлер: не очень😅 Но насколько именно?
Владислав Тришкин подсчитал цифры, сравнив реальный трафик из
GSC
со значениями, которые показывали эти инструменты для 184 (!) сайтов.Результаты:
📉
Ahrefs
недооценивает на 49%📈
Similarweb
переоценивает на 57%📈
Semrush
переоценивает на 62%Мораль сей басни?
Относитесь к этим показателям трафика с долей скептицизма, когда делаете прогнозы.
https://www.slideshare.net/slideshow/seo-b3c1/272436520
@MikeBlazerX
Декабрьское обновление ядра Google обрушило 44% наших ключей, рассказывает Эндрю Чарльтон.
Вот почему мы не паникуем...
Алгоритмические апдейты — это известные неизвестные в SEO.
Знаешь, что они придут.
Знаешь, что всё перевернут.
Но никогда точно не знаешь как — и просел ли твой сайт из-за твоих действий или просто попал под раздачу в процессе эволюции поисковой выдачи.
Декабрьский апдейт?
Он обрушил 44% информационных запросов наших клиентов по определённым группам страниц.
Что мы сделали?
Не паниковали.
Провели аудит.
Разбив все типы страниц по категориям в нашем дашборде отчётности, мы моментально определили, где сконцентрировались потери — и соответствовали ли они нашим прогнозам год к году (или сильно отклонялись от них).
Дальше мы разобрали каждый потерянный ключ, чтобы найти закономерности:
Вот что бросилось в глаза:
1️⃣ Многие потерянные ключи были низкокачественными запросами, по которым мы вообще не должны были ранжироваться — типа околотематических тем (или даже спама), которые размывали наш основной фокус.
Апдейт сделал нам одолжение.
2️⃣ В 2024 году мы видели, как категории и карточки товаров ранжировались бок о бок по одним и тем же запросам — Google постепенно избавлялся от этих дублей, но декабрьский апдейт захлопнул дверь окончательно.
Вот что важно:
- Помимо потерянных ключей, более 70% запросов показали улучшение позиций.
- Лидов больше, чем за тот же период прошлого года.
Это не история успеха.
Это напоминание о том, что данные важнее шума.
Когда падает трафик, спроси себя:
- Что конкретно теряется?
- Соответствует ли это бизнес-целям?
- Где надо восстанавливать позиции, а где отпустить?
Не весь трафик — хороший трафик.
Не все потери — провал.
А иногда алгоритмы заставляют сфокусироваться на том, что действительно влияет на результат.
Когда вы в последний раз анализировали свои потери трафика — не только чтобы их исправить, но и чтобы понять, стоило ли их вообще сохранять?
@MikeBlazerX
Вот почему мы не паникуем...
Алгоритмические апдейты — это известные неизвестные в SEO.
Знаешь, что они придут.
Знаешь, что всё перевернут.
Но никогда точно не знаешь как — и просел ли твой сайт из-за твоих действий или просто попал под раздачу в процессе эволюции поисковой выдачи.
Декабрьский апдейт?
Он обрушил 44% информационных запросов наших клиентов по определённым группам страниц.
Что мы сделали?
Не паниковали.
Провели аудит.
Разбив все типы страниц по категориям в нашем дашборде отчётности, мы моментально определили, где сконцентрировались потери — и соответствовали ли они нашим прогнозам год к году (или сильно отклонялись от них).
Дальше мы разобрали каждый потерянный ключ, чтобы найти закономерности:
Вот что бросилось в глаза:
1️⃣ Многие потерянные ключи были низкокачественными запросами, по которым мы вообще не должны были ранжироваться — типа околотематических тем (или даже спама), которые размывали наш основной фокус.
Апдейт сделал нам одолжение.
2️⃣ В 2024 году мы видели, как категории и карточки товаров ранжировались бок о бок по одним и тем же запросам — Google постепенно избавлялся от этих дублей, но декабрьский апдейт захлопнул дверь окончательно.
Вот что важно:
- Помимо потерянных ключей, более 70% запросов показали улучшение позиций.
- Лидов больше, чем за тот же период прошлого года.
Это не история успеха.
Это напоминание о том, что данные важнее шума.
Когда падает трафик, спроси себя:
- Что конкретно теряется?
- Соответствует ли это бизнес-целям?
- Где надо восстанавливать позиции, а где отпустить?
Не весь трафик — хороший трафик.
Не все потери — провал.
А иногда алгоритмы заставляют сфокусироваться на том, что действительно влияет на результат.
Когда вы в последний раз анализировали свои потери трафика — не только чтобы их исправить, но и чтобы понять, стоило ли их вообще сохранять?
@MikeBlazerX
Недавно у меня был созвон с одним
Первое, что бросилось мне в глаза - агентство изменило мега-меню с примерно 100 пунктов до более чем 800+ позиций, что было полным бардаком с точки зрения SEO и юзабилити.
Многие из перечисленных товаров были суперхвостовыми запросами, по которым продавалось не больше 1 товара в месяц, а то и меньше.
Сайт отметил значительное падение - это подтвердилось при отслеживании изменений через
При разработке меню нужно думать о пользователе и включать в список топовые продукты с точки зрения генерации выручки.
Нет смысла включать в список то, что вообще не продается.
Отличный пример меню можно увидеть на сайте
Органическая видимость у
@MikeBlazerX
eCommerce
-брендом, который тратил приличные деньги на SEO с помощью цифрового агентства полного цикла, но в итоге получил падение органического трафика на 80%, пишет Джеймс Норки.Первое, что бросилось мне в глаза - агентство изменило мега-меню с примерно 100 пунктов до более чем 800+ позиций, что было полным бардаком с точки зрения SEO и юзабилити.
Многие из перечисленных товаров были суперхвостовыми запросами, по которым продавалось не больше 1 товара в месяц, а то и меньше.
Сайт отметил значительное падение - это подтвердилось при отслеживании изменений через
Wayback Archive
и сопоставлении падения видимости в Ahrefs
, владелец также подтвердил существенные потери.При разработке меню нужно думать о пользователе и включать в список топовые продукты с точки зрения генерации выручки.
Нет смысла включать в список то, что вообще не продается.
Отличный пример меню можно увидеть на сайте
Koala
(скрин).Органическая видимость у
Koala
выглядит хорошо, и они внесли изменения с учетом пользовательских потребностей, что привело к сильным SEO-результатам.@MikeBlazerX
Токийский университет использовал ключевое слово "Площадь Тяньаньмэнь" для блокировки поступления китайских абитуриентов
В документе, подготовленном студентами Токийского университета, говорится о том, что на одной из магистерских программ использовался
в
(Китай блочит страницы с вхождениями подобных "ключей".)
https://unseen-japan.com/tokyo-university-chinese-students-tiananmen/
@MikeBlazerX
В документе, подготовленном студентами Токийского университета, говорится о том, что на одной из магистерских программ использовался
HTML
-хак, чтобы помешать студентам из материкового Китая подавать документы:в
HTML
-код было вставлена фраза "Площадь Тяньаньмэнь", чтобы страница не загружалась в материковом Китае.(Китай блочит страницы с вхождениями подобных "ключей".)
https://unseen-japan.com/tokyo-university-chinese-students-tiananmen/
@MikeBlazerX
Поисковые системы отдают приоритет сайтам, которые демонстрируют ответственность, надёжность и реальное существование бизнеса, а также на основе его бизнес-модели и связей с реальным миром.
Например, если сайт ранжируется по запросам об оформлении кредитных карт, но не может их выпускать, пользователям приходится переходить на другой сайт для достижения своей цели.
Это увеличивает "дистанцию до удовлетворения запроса" (
Сайты, способные напрямую удовлетворять потребности пользователей (например, банки или интернет-магазины), получают приоритет над агрегаторами и партнерскими сайтами.
Именно поэтому нишевые бренды с реальной ответственностью перед клиентами показывают лучшие результаты, чем нишевые сайты, заточенные только под трафик.
Партнерские сайты сталкиваются с особыми сложностями в текущих реалиях.
Поисковики часто отдают предпочтение прямым бизнесам или авторитетным брендам, а не партнерским сайтам, особенно когда у последних нет четкого УТП.
Контекст источника и релевантность на основе сущностей (
Чтобы конкурировать, партнерским сайтам необходимо выделяться за счет уникальных инсайтов, партнерских отношений или позиционирования себя как экспертов.
Например, если вы пишете о фотоаппаратах, релевантность вашего сайта зависит от того, кто вы — производитель, фотограф, аффилиат или инженер-оптик.
Поисковики оценивают вашу связь с темой, и эта релевантность на основе сущностей определяет ваши шансы на ранжирование.
Корректировки поискового алгоритма Google, такие как
Многие новые сайты пытаются ранжироваться по всему, что приносит доход, часто без логической связи между темами.
Такое отсутствие фокуса может привести к санкциям, поскольку поисковики отдают предпочтение сайтам, которые предоставляют явную ценность и экспертизу в конкретной области.
Проблемы партнёрского маркетинга
Одна из ключевых проблем аффилиатов - отсутствие прочной связи с продвигаемыми товарами или услугами.
Чтобы добиться успеха, аффилиатам нужно позиционировать себя как экспертов или обзорщиков, а не просто промоутеров.
Например, вместо того чтобы представляться аффилиатом, вы можете позиционировать себя как тестировщика продуктов или обзорщика, подчёркивая свою экспертизу в предметной области.
Построение крепких отношений с партнёрами также критически важно.
Получение обратной ссылки от партнёра на странице "
Информационное фуражирование
Поисковые системы постоянно тестируют различные конфигурации поисковой выдачи, чтобы определить, какая схема обеспечивает максимальную удовлетворённость пользователей.
Этот процесс, известный как "Информационное фуражирование", включает эксперименты с размещением агрегаторов, прямых интернет-магазинов и других типов сайтов.
Например, изначально в выдаче могут присутствовать несколько партнёрских сайтов, но если поисковики обнаружат, что пользователи предпочитают прямые интернет-магазины, они могут соответственно скорректировать ранжирование.
В такой конкурентной среде партнёрские сайты соревнуются не только с прямыми продавцами или банками — они конкурируют с самым репрезентативным и полным источником в своей нише.
Если поисковик определяет один партнёрский сайт как наиболее авторитетный и всеобъемлющий, он может снизить видимость других аффилиатов в том же кластере.
Поэтому важно освещать каждый аспект темы лучше конкурентов, если вы хотите заменить текущий репрезентативный источник.
@MikeBlazerX
Например, если сайт ранжируется по запросам об оформлении кредитных карт, но не может их выпускать, пользователям приходится переходить на другой сайт для достижения своей цели.
Это увеличивает "дистанцию до удовлетворения запроса" (
distance to satisfaction
), которую поисковики стремятся минимизировать.Сайты, способные напрямую удовлетворять потребности пользователей (например, банки или интернет-магазины), получают приоритет над агрегаторами и партнерскими сайтами.
Именно поэтому нишевые бренды с реальной ответственностью перед клиентами показывают лучшие результаты, чем нишевые сайты, заточенные только под трафик.
Партнерские сайты сталкиваются с особыми сложностями в текущих реалиях.
Поисковики часто отдают предпочтение прямым бизнесам или авторитетным брендам, а не партнерским сайтам, особенно когда у последних нет четкого УТП.
Контекст источника и релевантность на основе сущностей (
entity-based relevance
) важны для ранжирования.Чтобы конкурировать, партнерским сайтам необходимо выделяться за счет уникальных инсайтов, партнерских отношений или позиционирования себя как экспертов.
Например, если вы пишете о фотоаппаратах, релевантность вашего сайта зависит от того, кто вы — производитель, фотограф, аффилиат или инженер-оптик.
Поисковики оценивают вашу связь с темой, и эта релевантность на основе сущностей определяет ваши шансы на ранжирование.
Корректировки поискового алгоритма Google, такие как
HCU
, существенно повлияли на сайты без чёткой тематической направленности.Многие новые сайты пытаются ранжироваться по всему, что приносит доход, часто без логической связи между темами.
Такое отсутствие фокуса может привести к санкциям, поскольку поисковики отдают предпочтение сайтам, которые предоставляют явную ценность и экспертизу в конкретной области.
Проблемы партнёрского маркетинга
Одна из ключевых проблем аффилиатов - отсутствие прочной связи с продвигаемыми товарами или услугами.
Чтобы добиться успеха, аффилиатам нужно позиционировать себя как экспертов или обзорщиков, а не просто промоутеров.
Например, вместо того чтобы представляться аффилиатом, вы можете позиционировать себя как тестировщика продуктов или обзорщика, подчёркивая свою экспертизу в предметной области.
Построение крепких отношений с партнёрами также критически важно.
Получение обратной ссылки от партнёра на странице "
О нас
" или в другом релевантном разделе может усилить вашу авторитетность.Информационное фуражирование
Поисковые системы постоянно тестируют различные конфигурации поисковой выдачи, чтобы определить, какая схема обеспечивает максимальную удовлетворённость пользователей.
Этот процесс, известный как "Информационное фуражирование", включает эксперименты с размещением агрегаторов, прямых интернет-магазинов и других типов сайтов.
Например, изначально в выдаче могут присутствовать несколько партнёрских сайтов, но если поисковики обнаружат, что пользователи предпочитают прямые интернет-магазины, они могут соответственно скорректировать ранжирование.
В такой конкурентной среде партнёрские сайты соревнуются не только с прямыми продавцами или банками — они конкурируют с самым репрезентативным и полным источником в своей нише.
Если поисковик определяет один партнёрский сайт как наиболее авторитетный и всеобъемлющий, он может снизить видимость других аффилиатов в том же кластере.
Поэтому важно освещать каждый аспект темы лучше конкурентов, если вы хотите заменить текущий репрезентативный источник.
@MikeBlazerX
Если вы получаете трафик с изображений, сгенерированных ИИ, вас может скоро накрыть (если уже не накрыло), пишет Зак Ноутс
График ниже показывает соотношение веб-трафика и трафика с картинок для нашей видеоигры
Мы не вносили никаких изменений на уровне сайта в изображения, у нас нет новых технических проблем, а веб-трафик остается относительно стабильным.
Это наводит на мысль, что Гугл объявил охоту на AI-генеренку.
Если это так, у меня двоякие чувства по этому поводу...
Для некоторых наших СЕРПов это, считаю, хорошо.
Например, если кто-то ищет в
Есть более качественные, не-
Это обеспечивает лучший пользовательский опыт для информационного интента.
Однако, если кто-то ищет "Gorilla vs Grizzly Bear", наши
Так что, если Гугл действительно ударил по
АПДЕЙТ:
Мне написали в личку другие владельцы сайтов с
У них были падения трафика в то же время.
На
Скриншот
@MikeBlazerX
График ниже показывает соотношение веб-трафика и трафика с картинок для нашей видеоигры
Animal Matchup
, и трафик с изображений (который приходит с наших AI
-изображений) резко просел.Мы не вносили никаких изменений на уровне сайта в изображения, у нас нет новых технических проблем, а веб-трафик остается относительно стабильным.
Это наводит на мысль, что Гугл объявил охоту на AI-генеренку.
Если это так, у меня двоякие чувства по этому поводу...
Для некоторых наших СЕРПов это, считаю, хорошо.
Например, если кто-то ищет в
Google Images
"nile croc vs saltwater croc size", то мы не заслуживаем ранжироваться с нашими AI
-картинками.Есть более качественные, не-
AI
изображения, показывающие графики сравнения размеров с реальными данными.Это обеспечивает лучший пользовательский опыт для информационного интента.
Однако, если кто-то ищет "Gorilla vs Grizzly Bear", наши
AI
-картинки (и наша AI
-игра) более уместны, так как такой пользователь скорее хочет развлечься, представляя гипотетическую схватку между двумя видами.Так что, если Гугл действительно ударил по
AI
-генеренке, то да, это, вероятно, улучшает UX
для некоторых СЕРПов, но в других случаях качественные AI
-изображения просто попали под раздачу.АПДЕЙТ:
Мне написали в личку другие владельцы сайтов с
AI
-картинками.У них были падения трафика в то же время.
На
Animal Matchup
трафик с картинок не восстановился, а веб-трафик немного просел, но так сильно, как картиночный.Скриншот
@MikeBlazerX
Использование
Атрибут
В то время как
Фрагменты страниц вроде
Для связей сущностей между страницами нужны оба свойства -
Инструменты тестирования анализируют структурированные данные постранично и пропускают ошибки
Валидатор
Для устранения неоднозначности сущностей требуются связи
Техника
Для имплементации нужны осмысленные фрагменты (
Свойство
Использование
Свойства
https://momenticmarketing.com/blog/id-schema-for-seo-llms-knowledge-graphs
@MikeBlazerX
@id
в Schema.org
для связей между сущностямиАтрибут
@id
создает уникальные идентификаторы для узлов в структурированных данных JSON-LD
, работая иначе, чем свойства url
и identifier
в Schema.org
.В то время как
url
и identifier
передают информацию поисковикам, @id
служит внутренней системой референсов.URL
-форматирование следует шаблону {url для сущности @type}
+ #{schema-type}
.Фрагменты страниц вроде
#organization
резолвятся только относительно URL
текущей страницы, ограничивая ссылки этой страницей.Для связей сущностей между страницами нужны оба свойства -
@id
и url
работающие вместе: @id
обеспечивает уникальную идентификацию, а url
указывает расположение домашней страницы сущности.Инструменты тестирования анализируют структурированные данные постранично и пропускают ошибки
@id
.Валидатор
Schema.org
проверяет больше типов, чем только подходящие для обогащенных результатов, превосходя функционал Google Rich Results Test
.Google Rich Results Test
и краулы Screaming Frog
не отловят проблемы с имплементацией @id
даже с включенными настройками структурированных данных.Для устранения неоднозначности сущностей требуются связи
sameAs
с авторитетными источниками: Wikipedia
, Wikidata
, профили в соцсетях, официальные справочники, отраслевые базы данных.Техника
@graph
организует множественные сущности и @type
на сложных страницах.Для имплементации нужны осмысленные фрагменты (
#organization
, #author-jane-doe
), стабильные идентификаторы без динамических компонентов, полная схема на странице несмотря на референсы, и традиционные HTML
-ссылки в дополнение к связям в структурированных данных.Свойство
sameAs
связывает внутренние сущности с внешними авторитетными источниками для консолидации графа знаний.Использование
JSON-LD
достигает 41% страниц, преимущественно в имплементациях для ecommerce
и локального бизнеса.Свойства
@id
и url
устанавливают связи между сущностями для текущей обработки поисковыми системами и будущих разработок в области обработки связанных данных.https://momenticmarketing.com/blog/id-schema-for-seo-llms-knowledge-graphs
@MikeBlazerX
Старый домен до сих пор индексируется и получает трафик (несмотря на
Прошло уже более 100 дней с момента миграции домена, и после настройки всех
Я перепроверил процесс миграции и редиректы уже миллион раз, но основная проблема в том, что Гугл неэффективно индексирует наш новый домен и страницы, пишет Энес Кайнар.
Вот что мы сделали в процессе миграции, если вам интересно:
- Настроили
- Обновили настройки
- Создали новые сайтмапы для домена.
- Обновили все бэклинки, чтобы они вели на новый домен и страницы.
И мы продолжаем работать над проектом, чтобы улучшить показатели нового домена.
Однако старый домен до сих пор появляется в результатах поиска Google по многим запросам и получает значительный трафик, в то время как клики и показы для нового домена оставляют желать лучшего.
Кроме того, когда мы общаемся с кем-то, кто также проходит через процесс миграции домена, все говорят, что это нормально, мол, Google в последнее время усложнил процесс миграции.
Но нормально ли получать такие результаты спустя более 100 дней?
Может быть, мы что-то упустили?
Как бы вы ускорили этот процесс?
@MikeBlazerX
301
-редиректы)Прошло уже более 100 дней с момента миграции домена, и после настройки всех
301
-редиректов старый домен всё ещё индексируется и получает трафик.Я перепроверил процесс миграции и редиректы уже миллион раз, но основная проблема в том, что Гугл неэффективно индексирует наш новый домен и страницы, пишет Энес Кайнар.
Вот что мы сделали в процессе миграции, если вам интересно:
- Настроили
301
-редиректы со всех URL
и страниц на соответствующие страницы нового домена.- Обновили настройки
GSC
для нового домена и отправили запрос на миграцию в консоль.- Создали новые сайтмапы для домена.
- Обновили все бэклинки, чтобы они вели на новый домен и страницы.
И мы продолжаем работать над проектом, чтобы улучшить показатели нового домена.
Однако старый домен до сих пор появляется в результатах поиска Google по многим запросам и получает значительный трафик, в то время как клики и показы для нового домена оставляют желать лучшего.
Кроме того, когда мы общаемся с кем-то, кто также проходит через процесс миграции домена, все говорят, что это нормально, мол, Google в последнее время усложнил процесс миграции.
Но нормально ли получать такие результаты спустя более 100 дней?
Может быть, мы что-то упустили?
Как бы вы ускорили этот процесс?
@MikeBlazerX
Посторонись - сайт с тонким аффилиатным контентом, бесполезный сервис сравнения и спамный агрегатор товаров...
Google теперь публикует пережёванные характеристики производителей прямо из маркетинговых материалов.
-
Ещё один пример экспериментального
Обратите внимание на выпадающие меню под каждым из этих пунктов сравнения с длинными списками характеристик.
Хз добавляют ли они какую-то дополнительную ценность при клике.
Такой перебор с характеристиками напоминает переоптимизированную продуктовую страницу.
Конечно, эти элементы нужны для того, чтобы удерживать людей в СЕРПе.
Источники указаны, но там столько сопутствующей информации, что мало кто переходит на сайты издателей.
@MikeBlazerX
Google теперь публикует пережёванные характеристики производителей прямо из маркетинговых материалов.
-
Ещё один пример экспериментального
AI
-обзора от Google, который фактически занимает весь СЕРП по ecomm
запросу со словом "vs
", сравнивающему две модели детских велосипедов.Обратите внимание на выпадающие меню под каждым из этих пунктов сравнения с длинными списками характеристик.
Хз добавляют ли они какую-то дополнительную ценность при клике.
Такой перебор с характеристиками напоминает переоптимизированную продуктовую страницу.
Конечно, эти элементы нужны для того, чтобы удерживать людей в СЕРПе.
Источники указаны, но там столько сопутствующей информации, что мало кто переходит на сайты издателей.
@MikeBlazerX
У клиента на сайте был выложен пример файла
Этот пример
Google отметил этот файл и наложил санкции на сайт, посчитав его ресурсом, который "распространяет персональные данные".
Это сопровождалось предупреждением в
🤦🤦🤦
Билл буквально удалил файл через
Спустя несколько дней предупреждение было снято, и
Оказывается, "Джон Доу с 123 Main St." — это персональная информация.
Извините, Джон Доу, что раскрыли ваши персональные данные!
@MikeBlazerX
Microsoft Excel
, который их пользователи могли скачать и использовать для загрузки данных на FTP
, рассказывает Билл Хартцер.Этот пример
Excel
-файла содержал тестовые данные, что-то вроде: "Джон Доу, 123 Main St., 555-555-1212" и т.п.Google отметил этот файл и наложил санкции на сайт, посчитав его ресурсом, который "распространяет персональные данные".
Это сопровождалось предупреждением в
Google Search Console
.🤦🤦🤦
Билл буквально удалил файл через
WordPress
и отправил запрос на пересмотр в GSC
.Спустя несколько дней предупреждение было снято, и
GSC
прислала письмо, что проблема устранена.Оказывается, "Джон Доу с 123 Main St." — это персональная информация.
Извините, Джон Доу, что раскрыли ваши персональные данные!
@MikeBlazerX
Как погоня за данными чуть не уничтожила бренд
Эта катастрофа произошла не из-за политических скандалов, а из-за чрезмерной зависимости от управления на основе данных.
Трансформация началась, когда Джон Донахо, проработавший 23 года в
Бывший маркетинговый директор
Во-первых, компания провела реструктуризацию, уволив сотни экспертов и отказавшись от традиционных продуктовых категорий (бег, баскетбол, футбол) в пользу упрощенной сегментации на мужскую, женскую и детскую линейки.
Это серьезно ударило по продуктовым инновациям и внутренней экспертизе.
Во-вторых,
Хотя изначально это сработало во время бума
В-третьих,
Это создало возможности для конкурентов вроде
Постоянные скидки и растущие складские запасы подорвали ценность бренда, из-за чего стало сложнее оправдывать цену в $200 за кроссовки.
Креативный брендинг строится на ассоциациях и эмпатии — нематериальных активах, которые создают огромную ценность, но с трудом поддаются измерению.
Новое руководство
Разработка продуктов пострадала от чрезмерной опоры на данные вместо инноваций.
Отсутствие вдохновляющих кампаний вроде
Видимость бренда и его значимость в сознании потребителей являются критическими факторами успеха.
Отсутствие у Донахо глубокого понимания культуры кроссовок и ритейла привело к катастрофе.
Его консалтинговый бэкграунд привел к приоритету сокращения расходов, что только усугубило проблемы
Ситуация начала меняться, когда Эллиот Хилл, ветеран
Его понимание организации сразу дало результаты с влиятельной кампанией Олимпиады-2024 в Париже "
Эта история дает четкий урок: будьте осторожны с чрезмерной зависимостью от консультантов.
Их аналитические процессы часто не способны понять важность брендинга, пока это не отражается на продажах.
То, что что-то нельзя точно измерить, не значит, что этого не существует — возможно, это и есть самый важный драйвер роста.
https://www.linkedin.com/pulse/how-consultants-almost-destroyed-nikes-brand-erik-mashkilleyson-eywwf/
@MikeBlazerX
Nike
Nike
пережила историческое падение рыночной стоимости на $25 млрд 28 июня 2024 года, потеряв 32% капитализации за один день.Эта катастрофа произошла не из-за политических скандалов, а из-за чрезмерной зависимости от управления на основе данных.
Трансформация началась, когда Джон Донахо, проработавший 23 года в
Bain & Company
, в 2020 году стал "CEO" второго по стоимости бренда одежды в мире.Бывший маркетинговый директор
Nike
Массимо Джунко выделил три на первый взгляд разумных, но в итоге катастрофических решения.Во-первых, компания провела реструктуризацию, уволив сотни экспертов и отказавшись от традиционных продуктовых категорий (бег, баскетбол, футбол) в пользу упрощенной сегментации на мужскую, женскую и детскую линейки.
Это серьезно ударило по продуктовым инновациям и внутренней экспертизе.
Во-вторых,
Nike
перешла на модель прямых продаж (DTC), разорвав партнерства с крупными ритейлерами вроде Macy's
и Foot Locker
.Хотя изначально это сработало во время бума
e-commerce
в пандемию, позже это обернулось провалом, когда покупатели стали выбирать другие бренды из-за снизившейся доступности Nike
.В-третьих,
Nike
заменила эмоциональные брендовые кампании на диджитал-маркетинг, основанный на данных.Это создало возможности для конкурентов вроде
Tracksmith
лучше установить связь с увлеченными спортсменами.Постоянные скидки и растущие складские запасы подорвали ценность бренда, из-за чего стало сложнее оправдывать цену в $200 за кроссовки.
Креативный брендинг строится на ассоциациях и эмпатии — нематериальных активах, которые создают огромную ценность, но с трудом поддаются измерению.
Новое руководство
Nike
, сфокусированное на краткосрочной прибыли и оптимизации затрат, не смогло это осознать.Разработка продуктов пострадала от чрезмерной опоры на данные вместо инноваций.
Отсутствие вдохновляющих кампаний вроде
Dream Crazy
в течение шести лет привело к тому, что бренд стал восприниматься как устаревший и дешевый.Видимость бренда и его значимость в сознании потребителей являются критическими факторами успеха.
Отсутствие у Донахо глубокого понимания культуры кроссовок и ритейла привело к катастрофе.
Его консалтинговый бэкграунд привел к приоритету сокращения расходов, что только усугубило проблемы
Nike
.Ситуация начала меняться, когда Эллиот Хилл, ветеран
Nike
с 1988 года, стал CEO в октябре.Его понимание организации сразу дало результаты с влиятельной кампанией Олимпиады-2024 в Париже "
Winning Isn't for Everyone
/ Am I a Bad Person
" ("Победа не для всех / Я плохой человек?").Эта история дает четкий урок: будьте осторожны с чрезмерной зависимостью от консультантов.
Их аналитические процессы часто не способны понять важность брендинга, пока это не отражается на продажах.
То, что что-то нельзя точно измерить, не значит, что этого не существует — возможно, это и есть самый важный драйвер роста.
https://www.linkedin.com/pulse/how-consultants-almost-destroyed-nikes-brand-erik-mashkilleyson-eywwf/
@MikeBlazerX
Вот почему нельзя полагаться только на ИИ
Мы создали 1000 статей с помощью ИИ, пишет Ниль Патель.
Половина из них была создана исключительно ИИ, а другая половина - с помощью человека.
Посмотрите на разницу, если оценивать каждую статью по оригинальности, читабельности, SEO, вовлеченности и тону голоса.
ИИ останется здесь, но не забывайте о человеке... по крайней мере, при создании контента.
@MikeBlazerX
Мы создали 1000 статей с помощью ИИ, пишет Ниль Патель.
Половина из них была создана исключительно ИИ, а другая половина - с помощью человека.
Посмотрите на разницу, если оценивать каждую статью по оригинальности, читабельности, SEO, вовлеченности и тону голоса.
ИИ останется здесь, но не забывайте о человеке... по крайней мере, при создании контента.
@MikeBlazerX