Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
4683 - Telegram Web
Telegram Web
Каково это - слушать подкасты

@MikeBlazerX
This media is not supported in your browser
VIEW IN TELEGRAM
Работа сеошника в двух словах

@MikeBlazerX
Гуглер 1: Было бы здорово занять первое место по запросу "AI"?

Гуглер 2: Кажется, у меня есть идея...

@MikeBlazerX
На Flippa продали аккаунт в TikTok.

Как думаете, за сколько продали тикток-аккаунт с 519 000 подписчиков?

За $2500 ☠️ ☠️ ☠️

Аккаунты в TikTok сейчас продаются за гроши.

Немного статистики:

519к подписчиков
457к среднее количество просмотров на пост!
$6к заработано за все время
Ниша: юмор и лайфстайл

Финальная цена продажи - $2.5к

@MikeBlazerX
Почему многие SEO-специалисты останутся без работы через 24 месяца (если не изменятся)

Предложение в SEO превышает спрос.

В результате рынок снизил цены.

Большинство агентств берут столько же, сколько 5-7 лет назад, что фактически означает сокращение выручки более чем на 20%.

Вдобавок к этому, затраты на персонал выше, инфляция кусается, и это тоже влияет на доходы.

Входит AI.

SEO-специалисты делают 1 из 4 вещей.

1. Херачат AI-контент (нажмите сюда, чтобы сгенерить 200 статей).

2. "Усилия первого результата": когда люди просто используют первое, что выдает AI.

3. "Смотрите, какой я умный": множество бесплатных и платных инструментов ИИ, которые не обеспечивают эффективности.

Они просто плохо делают то, что вы уже умеете делать.

4. Продуктивный AI-пользователь.

Именно последний способ имеет значение.

Видите ли, AI — это инструмент, который поставляется без инструкции.

Значит, вам самим нужно во всем разобраться.

И именно этот пробел ставит ваши рабочие места под огромный риск.

Потому что высокопродуктивные SEO-специалисты, вооруженные AI, заберут ваши рабочие места и клиентов.

Но НЕ по тем причинам, о которых вы думаете.

Да, они будут более продуктивными.

Однако дело не в количестве... а в том, куда направлена эта продуктивность.

Некоторые используют её для достижения более быстрых результатов для клиентов, что ведет к росту эффективности и улучшению репутации.

Другие используют её для снижения затрат и, следовательно, получат больший маркетинговый бюджет для роста.

А для некоторых высвобожденное время будет использовано для увеличения собственной маркетинговой активности.

И вы не увидите, как это увеличение происходит поэтапно.

Это будет происходить через удержание клиентов и маркетинговую активность в течение следующих 24 месяцев.

Проблема для вас заключается в том, что на смену вам придут SEO-специалисты, которые используют ИИ для выполнения превосходной работы с большей скоростью.

— Именно эти SEO-специалисты получат работу.
— Именно эти сеошники выиграют больше клиентов.
— Именно этих сеошников будут искать работодатели.

Примите AI или будьте заменены.

Но... это не задача ваших работодателей — учить вас этому.

Вы не можете быть пассажиром в своем AI-путешествии.

Вам нужно научиться улучшать свою роль с помощью AI.

Конечно, агентства должны лидировать в этом.

Но ежедневное использование AI "в окопах" зависит от вас.

— Нет оправданий плохим тайтл-тегам.
— Нет оправданий слабому контенту.
— Нет оправданий небрежной SEO-стратегии.

Жесткая реальность для SEO-специалистов не в том, "использовали ли вы AI?"

А в том, что вы должны уметь рассказать своему руководству, "как вы использовали AI" для улучшения работы.

AI помогает вам делать больше, оставаясь собой.

И рынок будет требовать AI-грамотности.

Не проспите это.

Погружайтесь прямо сейчас.

@MikeBlazerX
Теперь, когда все SEO-отчеты за год уже подведены, хочу поделиться выводами по моей клиентской базе, пишет Мэтью Браун.

СРАБОТАЛО:

— Переработка внутренней перелинковки с фокусом на контентные "солнечные системы" в рамках связанных тематик.

Сокращение общего количества ссылок по сайту в пользу перелинковки внутри этих тематических групп.

— Переработка юзабилити, особенно та, что снижает сложность доступа к основному контенту.

Уменьшение необходимых кликов, скроллинга и всего, что мешает восприятию.

— Скорость выхода контента.

Это всегда работало в новостях, но теперь похоже стало серьезным фактором и в органической выдаче.

Тут надо идти гораздо дальше, чем просто поставить "обновлено в январе 2025" в теге.

Команды по соцсетям и контенту, которые следят за изменениями в первых рядах, очень важны для этого.

— Постоянное улучшение самого эффективного контента.

Сложно убедить команды работать над страницами, которые уже хорошо ранжируются, но опережение конкурентского контента реально приносит дивиденды как в органике, так и в AI-поисковиках.

Никогда не забывайте про ваши лучшие страницы!

— Переработка ALT-текстов и подписей к изображениям.

Это дало более сильный положительный эффект, чем в прошлые годы.

Теория — усилилось внимание к этому для подготовки результатов по картинкам к включению в генеративные движки.


НЕ СРАБОТАЛО:

— Фокус на Core Web Vitals.

Уже который год подряд я экономлю время и деньги клиентов, используя их только как диагностический инструмент для выявления потенциальных проблем с юзабилити, а НЕ как метрики для улучшения.

— Расширение типового контента.

Похоже, времена, когда можно было запускать страницы, которые по сути дублируют уже существующий контент, прошли, даже на очень авторитетных доменах.

Я очень скептически отношусь к заявлениям типа "давайте сделаем свои рецепты/тексты песен/спортивные обзоры".

— Переработка SEO-тегов (с использованием AI-решений или без).

Если теги не в совсем плохом состоянии, небольшие улучшения тайтлов/дескрипшенов/схем и т.д. уже не меняют результат так, как раньше.

БОЛЬШОЕ исключение: Когда нужно добавить локальные сигналы, игнорируйте предыдущие предложения.

— Доработка Schema.org разметки.

Как и с тегами выше — разметка полезна для поддерживаемых поисковых фич, но её улучшение, похоже, ничего не даёт.


НА ЧТО ОБРАТИТЬ ВНИМАНИЕ В 2025:

— Исправьте недружелюбный к пользователям UX, особенно рекламу.

Плохие поведенческие сигналы сейчас важнее практически всего остального в SEO.

У меня есть целая презентация про рекламу, за которую меня, наверное, захотят распять все команды по монетизации в интернете.

— Прекратите пытаться подстроиться под AI-ответы и генеративный поиск.

К тому моменту, как вы создадите контент, копирующий формат того, что показывается сейчас, пользователи и поисковики могут уйти дальше.

Делайте максимально качественно и пусть будет, что будет.

— Не позволяйте техническому SEO выпадать из ключевых компетенций.

Оно уже не даёт такого сильного эффекта, как раньше, поэтому я вижу, как сайты забрасывают его.

Это создаст возможности, если вы не будете одним из них.

@MikeBlazerX
Есть гораздо более эффективный способ изучения ссылочного профиля домена, чем проверка DR/DA/TD/CF!

1. Сделайте копию этой Google таблицы.

Откройте ее, FILE > MAKE A COPY, убедитесь, что скрипты тоже копируются.

2. Зайдите в Ahrefs и введите домен

3. В левом меню кликните на REFERRING DOMAINS

4. Измените SHOW HISTORY на "Don't Show"

5. Экспортируйте все внешние ссылки в Google таблицу

6. Удалите колонку A, затем скопируйте все данные в скопированную выше таблицу во вкладку REFERRING DOMAINS (там оставлена 1 строка для примера)

7. Кликните EXTENSIONS > APPS SCRIPTS

8. В редакторе скриптов убедитесь, что в выпадающем списке выбран "populateReferringDomainsInsights" и нажмите RUN - он запросит разрешения, предоставьте разрешения для запуска

9. Когда выполнение завершится, вернитесь в таблицу и перейдите на вкладку REFERRING DOMAIN INSIGHTS

Теперь у вас будет обзор того, сколько бэклинков попадает в каждую группу по трафику.

Это дает два представления:

1. Внешние ссылки по показателям трафика

2. Внешние ссылки по показателям трафика + группировка по DR

Таким образом, вы получаете наглядное представление о распределении трафика с внешних ссылок.

Это очень общий взгляд, НО это отличный способ увидеть, какая часть ссылочного профиля домена реально обеспечивается доменами с трафиком.

DR сам по себе бесполезен - потому что его легко накрутить.

НО прогнозируемый трафик - гораздо лучший индикатор здоровья домена.

Поэтому если у вас ОГРОМНОЕ количество бэклинков в группах с низким трафиком, то есть:

0-100, 101-1k, 1k-5k, возможно, стоит внимательнее присмотреться к вашей стратегии линкбилдинга.

Есть также другие факторы, такие как спам от внешних ссылок без вашего влияния (с которым сталкиваются некоторые сайты).

ВАЖНО: НИ В КОЕМ СЛУЧАЕ НЕ НУЖНО ДЕЛАТЬ ДЕЗАВУИРОВАНИЕ, если только у вас нет ручных санкций ИЛИ если нет явного спама от внешних ссылок, где есть корреляция между началом/происхождением спама и видимым влиянием на сайт.

@MikeBlazerX
Различия между количеством запросов доступных через GSC API и через BigQuery - где их в 3+ раза больше

@MikeBlazerX
Исследование Тома Каппера выявило сильную корреляцию между авторитетом бренда и успехом в поисковой выдаче Google, причем сайты с высоким авторитетом стабильно показывали лучшие результаты во время обновлений алгоритма.

Развивая эту мысль, неопубликованный анализ брендовых анкоров от Сайруса Шепарда показал, что успешные сайты поддерживали примерно 20% брендовых ключей в своем ссылочном профиле, в то время как сайты с низкими показателями имеют всего 1-2%, независимо от других SEO-факторов.

Это понимание привело к фундаментальному сдвигу в SEO-рекомендациях Сайруса.

Вместо того чтобы концентрироваться исключительно на построении контентных ссылок с оптимизированными анкорами, Шепард теперь советует клиентам отдавать приоритет линкбилдингу, ориентированному на компанию и людей.

Такой подход согласуется с выводами Джейсон Барнарда о способности Google определять связи между сущностями, что указывает на возможности усиления сигналов бренда через стратегические упоминания от авторитетных сайтов и графов знаний.

Важность видимости бренда была проиллюстрирована случаем с клиентом, который изначально отказывался размещать логотип или навигацию на своем сайте, фокусируясь исключительно на помощи пользователям.

Потребовался год убеждений, чтобы продемонстрировать, что видимость бренда критически важна для генерации брендированных поисковых запросов и навигационного трафика — потенциально важных сигналов для Google.

Аналогично, Moz продемонстрировал эффективное построение бренда, последовательно называя свои инструменты (Moz Rank, Moz Top 10, Moz Learning Center), что дало им преимущество перед такими конкурентами, как SEMrush, который изначально испытывал трудности с менее запоминающимся названием.

Хотя некоторые утверждают, что "советовать сайту построить бренд — всё равно что советовать бездомному купить дом", данные показывают, что построение бренда не требует узнаваемости уровня IBM.

Начать можно всего с 10-100 брендовых запросов в месяц, чтобы создать конкурентное преимущество.

Ключевой момент — обеспечить, чтобы ссылки и упоминания фокусировались на самой компании, а не только на её контенте, через такие активности, как участие в подкастах и полную информацию о компании.

@MikeBlazerX
Локальное SEO часто понимают неправильно, особенно в отношении того, как бизнес-профили Google и URL-адреса веб-сайтов взаимодействуют с позициями в поисковой выдаче.

Распространенное заблуждение заключается в том, что Google отдает предпочтение главным страницам в локальной выдаче, но это фундаментальное непонимание причинно-следственной связи.

Дело не в том, что Google предпочитает морды сайтов - это владельцы бизнеса и SEO-специалисты постоянно регистрируют свои главные страницы в Google Business Profile.

Это становится очевидным при анализе типичной локальной выдачи.

Если посмотреть результаты поиска по запросам вроде "Seattle plumber" или "Seattle faucet repair", можно увидеть карточки компаний с разными URL домашних страниц:

— Обычная домашняя страница
— Домашняя страница с UTM-метками
— Домашняя с реферальными кодами
— Домашняя с несколькими параметрами отслеживания

Эти различные вариации URL явно показывают, что это выбор владельцев бизнеса, а не предпочтения Google.

Платформа просто отображает то, что сами компании регистрируют в своих профилях.

Многие упускают из виду важный момент: хотя домашняя страница отображается в GBP, это не обязательно то, что влияет на ранжирование.

На самом деле происходит следующее: краулер Google находит релевантный контент о конкретных услугах (например, о ремонте кранов) где-то на сайте (в блогах или на страницах услуг) и ранжирует профиль компании по этому запросу, даже если в профиле стоит ссылка на главную страницу.

Это создает парадокс, когда ранжируемая страница (главная) отличается от страницы, влияющей на ранжирование (внутренняя страница услуги).

Это недопонимание создает серьезную проблему при анализе SEO-инструментами.

Эти инструменты часто анализируют URL домашних страниц конкурентов из локальной выдачи, предполагая, что они оптимизированы под определенные ключевые слова.

Это приводит к неверным рекомендациям по оптимизации, поскольку ранжирование основано не на контенте главной страницы, а на контенте, найденном в других разделах сайта.

Для правильного анализа и оптимизации под локальный поиск необходимо:

1. Запустить отчет по обычной веб-выдаче (не локальной)
2. Определить лучшую страницу услуги клиента под целевой запрос
3. Сравнить ее с лучшими страницами в веб-выдаче по этой услуге
4. Оптимизировать на основе традиционных SEO-метрик из результатов веб-поиска

Правильный подход к локальному SEO включает два ключевых компонента:

1. Корректная настройка GBP
2. Выполнение традиционной SEO-оптимизации конкретных страниц услуг, сравнивая их с результатами веб-поиска, а не URL главных страниц из локальной выдачи

@MikeBlazerX
Предположим, вы настроили 301 редирект со страницы на другую страницу.

Но ваш сервер был неправильно сконфигурирован.

В том смысле, что X-Robots-Tag устанавливает тег noindex.

Оказывается, Google полностью проигнорирует ваш 301 редирект.

Сигнал noindex имеет приоритет.

Впервые столкнулся с таким странным случаем, когда 301 редиректы не работают для поисковика, пишет Ян Каерелс.

Если бы не Google Search Console, я бы никогда этого не заметил.

PS: Для ясности, X-Robots-Tag:none был установлен на URL, с которого осуществлялся редирект.

То есть, по сути, Гуглобот обрабатывает это похожим образом, как блокировку краулинга в robots.txt.

Он даже не запрашивает конечный адрес 💡

@MikeBlazerX
Хотите расширить тематику?

Делать это на том же сайте или начать новый?

Всё просто: если новая тематика близка к текущей тематике сайта, то делайте на том же сайте.

Но если это совершенно другое направление, то хорошая идея — начать новый сайт.

Даже Дэнни Салливан, представитель Google в SEO-сообществе, выступая на Google Search Central в Цюрихе в декабре 2024 года, сказал: "Для масштабных расширений может потребоваться создание отдельного сайта или домена, чтобы не запутать поисковые системы или пользователей".

У размещения новых тематик на существующем сайте могут быть определенные преимущества, но они работают только если новая тема достаточно релевантна текущей тематике сайта.

В противном случае — нет.

@MikeBlazerX
90% сложностей в SEO возникает из-за того, что у сеошников есть свое мнение.

@MikeBlazerX
Интересно, что "What People Are Saying" показывает не только выдержки из социальных сетей (например, LinkedIn, YouTube и TikTok), но и блог-посты брендов, если у статьи есть связанный автор.

Обратите внимание, что все примеры показывают имя автора в карусели.

@MikeBlazerX
Весной 2024 года Сайрус Шепард провел эксперимент по проверке эффективности инструмента отклонения ссылок (disavow) Google.

В первом тесте были отклонены все ссылки на уровне доменов для тысяч сайтов.

Спустя два месяца трафик немного вырос вместо того, чтобы снизиться, что вызвало скептицизм в SEO-сообществе относительно слишком короткой продолжительности теста.

Это привело к трем дополнительным экспериментам:

1. Отклонение трети всех ссылок на протяжении 3.5 месяцев, предполагая, что Google мог проигнорировать первоначальное массовое отклонение как потенциальную ошибку
2. В октябре 2024 года повторное отклонение всех ссылок
3. В начале 2025 года полное удаление disavow-списка ссылок

Ни один из этих экспериментов не показал значительного влияния на трафик или позиции сайта.

Эксперименты показали, что основная ценность инструмента дезавуирования заключается в снятии ручных санкций.

Это подтверждается случаем с компанией-разработчиком ПО, где месяцы переписки со спам-командой Google потребовали все более агрессивного отклонения ссылок и удаления контента.

Хотя они в итоге добились снятия санкций, в процессе они потеряли большую часть своего первоначального трафика.

Для обычной SEO-работы disavow-инструмент оказался неэффективным, хотя некоторые специалисты продолжают использовать массовое отклонение для проблемных доменов вроде сайтов на blogspot, Firebase-приложений и сайтов-парсеров в качестве превентивной меры.

Существует теория, что инструмент может влиять только на негативные ссылки, не затрагивая позитивные, хотя это остается недоказанным.

@MikeBlazerX
Вы когда-нибудь задумывались, сколько поисковых запросов в Google реальные, а сколько от ботов?

Похоже, теперь у нас есть ответ.

16 января Google выпустил апдейт, который временно заблокировал ботов, парсящих СЕРПы, таких как SEMRush, Ahrefs и тысячи других.

Если проверить количество показов в GSC за этот день и сравнить с предыдущими днями, можно заметить падение.

Я проверил три домена и обнаружил среднее падение показов на 25%, пишет Идрисс Хуадер.

Получается, что 25% показов на самом деле приходится на ботов. 🤯

@MikeBlazerX
Когда речь идет об использовании Schema для главной страницы сайта, я обычно склоняюсь к двум типам разметки и рекомендую их (особенно для интернет-магазинов), пишет Броди Кларк.

Это Schema-разметка Organization и WebSite – теги, в которых я вижу реальную пользу, но которые часто отсутствуют на главных страницах сайтов.

WebSite схема особенно важна, так как влияет на отображение названия сайта в поисковой выдаче – Google часто использует название, указанное в этом теге, для показа в СЕРПах.

Для крупных интернет-магазинов с несколькими региональными доменами часто бывает, что на главной странице основного региона (например, США) тег прописан корректно, но на сайтах других регионов WebSite схема отсутствует.

Это может привести к беспорядку в СЕРПах Google и путанице в сигналах.

Например, недавно я работал с сайтом, у которого не было WebSite схемы на домене AU, из-за чего в качестве названия сайта случайным образом отображался домен NZ (например, Example.co.nz), хотя должно было отображаться просто "Example" или "Example AU".

Что касается Organization схемы – это, по сути, обязательный элемент.

В последние годы я замечаю, что её влияние значительно выросло.

Например, был случай с сайтом, который не отображался как сущность в автодополнении поиска.

После добавления Organization схемы, через неделю после внедрения, в автодополнении начала показываться расширенная карточка бренда.

То же самое можно сказать о панели знаний для брендов/магазинов.

В последнее время на отображение панели знаний для интернет-магазинов сильно влияет Merchant Centre Next, где теперь есть такие функции, как способы оплаты, популярные товары, информация о доставке и возвратах, и даже AI-чат, который показывает бесплатные листинги.

Хотя на стабильное отображение этой панели для вашего бренда влияют различные факторы (известность и размер компании, часто важна статья в Википедии), я заметил, что информация в Organization схеме служит основным резервным сигналом для некоторых включений.

Недавно влияние Organization схемы на панели знаний для магазинов усилилось – теперь Google позволяет указывать в этой разметке политики в отношении товаров, например, условия возврата, что еще раз подтверждает важность размещения этой разметки на главной странице сайта.

На базовом уровне внедрения схемы я рекомендую обязательно разместить и Organization, и WebSite на главной странице вашего сайта.

Очевидные преимущества для SEO игнорировать не стоит.

@MikeBlazerX
Слишком много людей всё ещё спорят о том, можно ли технически что-то продвинуть в топ, вместо того, чтобы задуматься, а нужно ли это пользователям вообще.

Эти же люди потом будут жаловаться на очередной апдейт алгоритма.

@MikeBlazerX
This media is not supported in your browser
VIEW IN TELEGRAM
При сравнении двух временных периодов в аналитике полезно сопоставлять дни недели между собой, так как паттерны в будни и выходные могут сильно различаться.

Google Search Console не предоставляет такой возможности, поэтому вот Chrome-расширение, которое поможет вам рассчитать эти даты:

https://chromewebstore.google.com/detail/same-weekday/ccikonakpamhonnbmmpjnpkbafbomcfh

@MikeBlazerX
2025/02/24 20:58:38
Back to Top
HTML Embed Code: