Telegram Web
Привет информационникам под Google.
С праздником, причастные 🤘
Forwarded from DrMax SEO (DrMax)
🥺 SEO в эпоху AI: Адаптация стратегий под Google AI Overviews и AI Mode

Google опубликовал новые рекомендации (от Дж. Мюллера !!!) по оптимизации контента для своих AI-интерфейсов (AI Overviews, AI Mode). Вот выжимка из оного с комментариями и примерами:

1. Ценный контент для людей

Мюллер заявляет: AI-ответы строятся на контенте, удовлетворяющем сложные, многоэтапные запросы. Это прямой намек на углубление E-E-A-T. AI будет оценивать не просто уникальность текста, а глубину экспертизы, подтвержденную фактами, данными, авторством. Фокусируйтесь на создании контента, который отвечает не на один, а на пул связанных интентов.

Пример: Не просто "как выбрать смартфон", а "сравнительный анализ камер флагманских смартфонов 2025 года в условиях низкой освещенности с примерами фото и ссылками на исходники".

2. Page Experience.

Важность юзабилити, скорости загрузки, адаптивности, четкого выделения основного контента.
Core Web Vitals (особенно INP – Interaction to Next Paint) становятся еще критичнее. AI-системы могут понижать в выдаче страницы с плохим UX, даже если контент релевантен. LCP, FID/INP, CLS – постоянно отслеживаем.

3. Техническая доступность контента.

Отсутствие блокировок для Googlebot, код ответа 200, индексируемый контент. Проверьте корректность директив в robots.txt и мета-тегах robots. Убедитесь, что JS-контент корректно рендерится и доступен Googlebot. Важна чистота HTML-кода и логичная структура заголовков (H1-H6) для лучшего парсинга AI.

4. Управление видимостью через Preview Controls.

Используйте nosnippet, data-nosnippet, max-snippet, noindex. Это ваш инструмент влияния на то, как контент используется в AI Overviews. Стратегически подходите к их использованию. max-snippet:[длина] позволяет дать затравку, но стимулировать клик. data-nosnippet для исключения конкретных частей контента.

Пример: Для статьи с уникальным исследованием можно установить max-snippet:180, чтобы дать понять суть, но не раскрыть все выводы, мотивируя переход.

5. Соответствие структурированных данных видимому контенту.

Валидация и соответствие разметки тому, что видит пользователь. Активно используйте релевантные типы Schema.org: Article (с author, datePublished, dateModified), FAQPage, HowTo, Product, Recipe. Чем точнее и полнее разметка, тем легче AI понять суть контента и использовать его. Особое внимание на author и publisher для демонстрации E-E-A-T.

6. Мультимодальность

Качественные изображения, видео, актуальные Merchant Center и Google Business Profile. Оптимизируйте имена файлов изображений, заполняйте alt атрибуты осмысленным текстом. Для видео – транскрипции и субтитры. Изображения и видео должны быть уникальными и дополнять текст. Используйте разметку ImageObject и VideoObject.

Пример: В статье о ремонте двигателя прикрепите не стоковую картинку, а реальные фото процесса с поясняющими alt или диаграмму с разметкой.

7. Понимание полной ценности визитов.

Мюллер говорит: Клики из AI Overviews могут быть более качественными, пользователи – более вовлеченными.

Дополнение: Сместите фокус с количества кликов на качество сессий и конверсии. Анализируйте поведение пользователей, пришедших из AI-блоков: глубина просмотра, время на сайте, достижение микро- и макро-целей. Это может указывать на необходимость доработки контента под более "прогретую" аудиторию.

Пример: Если видите, что трафик из AI Overviews имеет высокий показатель отказов на определенной странице, возможно, она не до конца удовлетворяет сформированный у пользователя AI-ответом интент.

ВСЯКИЕ РАЗНЫЕ МЫСЛИ

1. Семантическое ядро и NLP-оптимизация: Создавайте контент, максимально насыщенный синонимами, связанными терминами и сущностями. Структурируйте текст так, чтобы он был легко понятен алгоритмам обработки естественного языка (NLP). Думайте о "вопрос-ответных" парах. Юзайте софт SEO Релевантность.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DrMax SEO (DrMax)
2. Внутренняя перелинковка: Укрепляйте тематическую релевантность страниц с помощью продуманной внутренней перелинковки. AI-системы это учитывают при оценке авторитетности и полноты раскрытия темы. Ссылайтесь на поддерживающие материалы и основные "хабовые" страницы (коконцы ))) ).

3. Обновление контента (Content Freshness): Для многих запросов AI будет отдавать предпочтение свежей информации. Регулярно пересматривайте и обновляйте ключевые материалы, особенно если они касаются быстро меняющихся тем (см посты про таблицы и прочее, что публиковал ранее).

4. Авторитетность домена и авторов: Продолжайте наращивать общую авторитетность сайта (качественные обратные ссылки, упоминания). Подчеркивайте экспертизу авторов (отдельные страницы, ссылки на профили, упоминания в тексте).

Выводы: Эволюция Google Search с AI – это не отмена старых правил, а их ужесточение и смещение акцентов. Глубокая экспертиза, техническое совершенство и фокус на пользовательском опыте – вот ключи к успеху в новой AI-реальности.
Адаптируйтесь!

#DrMax #SEO #Google #AIOverviews
Forwarded from Логинов Про
Please open Telegram to view this post
VIEW IN TELEGRAM
🆕 Находим "мусор" в семантике через регулярки

Яндекс выкатил небольшое обновление в Мониторинге запросов. А мы — вместе с GPT — уже накидали бетку конструктора, чтобы быстро находить или отсекать накрученные запросы 💡

Как пользоваться:

1. Перейди по ссылке:
🔗 https://seo-drift.ru/tools/sem-regex/
2. Отметь нужные чекбоксы
(наведи, чтобы прочитать описание каждого фильтра)
3. Внизу появится строка с готовым Regex
4. Скопируй и вставь его в фильтр в Вебмастере

Пробуй, тестируй, делись фидбеком!

by @seo_drift
Стата по пинтересту, достаточно не плохо с учетом того, что я 1 раз настроил и уже месяц там ничего не делаю!
Пару слов о том, с чем сейчас балуюсь!

Постепенно осваиваем RAG систему для бота в телеге.

Суть его следующая:

1. На вход, через бота в телеге подается запрос пользователя на естественном, иногда кривом языке.
2. AI'шка (в нашем случае - Deepseek) разбирает этот запрос на сущности - geo, категории и т.д., зависит от задачи.
3. Разобранный запрос ищет по мета данным или векторам в векторной базе (что угодно: база знаний, документы, а в нашем случае база офферов под CPA).
4. Полученные релевантные ответы из векторной БД отдаются в AI, которя формирует красивый ответ обратно в TG бота.

Никакой магии, но получается все очень прикольно!

Сайты - хорошо, но важно осваивать и другие инструменты с учетом всех изменений в поисковой выдаче.
🚨 ⚠️ AI убьёт SEO... ☠️

................................................................................

Не, не думаю! Возможно, пострадают говностатейники, которые пылесосили траф по тоннам инфозапросов типа "к чему снятся какахи", а вот коммерческую выдачу, именно AI не похоронит.

Коммерческая выдача - кормушка для сервисов ПС (гребаные колдунщики), и в ногу стрелять они себе вряд-ли будут.

Если рассматривать перспективу того, в какие ниши заходить со своими проектами, то во-первых - ниши, где ПС еще не засунули свою руку по самые гланды, такие еще есть.

Сейчас пока еще можно заходить в b2b, более сложные продукты/услуги со своей спецификой, где не подходит модель массмаркета и поисковым системам не так просто выстроить воронку, как в b2c.

К слову, поисковики явным образом стараются вытеснить любые прокладки между поставщиком услуг или товаров и клиентом в виде сайтов агрегаторов, но если Google это делает отдавая предпочтение сайтам реального бизнеса (парсил порядка 200к запросов в услугах в бурже, и подавляющее большинство сайтов в выдаче - сайты реального бизнеса), то Yandex вытесняет агрегаторы запуская свои агрегаторы вертикали 🤣

Короче, SEO - живее всех живых. Нужно просто адаптироваться к новым условиям, как это всегда и происходило!

👉 Кравцов Виталий | SEO практика
Вайб-кодинг прикольная штука, но языковым моделям нужно еще год-два, чтобы можно было пилить что-то более или менее серьезное с нуля.
This media is not supported in your browser
VIEW IN TELEGRAM
Идеальный план для любого проекта 😎
Деньги не только в ИИ!
Тот случай, когда ты херовенький таргетолог 🤣
Обычный рабочий процесс 🤗
Так, потыкал я вайб-кодинг, на весь скипт понадобилось 2 не сложных промпта.
Сервис по домену выгружает все данные из вебархива, для удобства можно настроить фильтрацию выгрузки.
На самом деле мне нужно было выгрузить данные, а разрабочик в отпусе и я, как истинный SEOшник, решил запилить свой велосипед.


🚀 Возможности веб-сервиса:

⚙️ Настройки фильтрации:
📅 Диапазон дат - выбор временного периода
📄 Типы файлов (MIME) - HTML, CSS, JS, PDF, изображения и другие
🔍 Коды ответа сервера - 200, 301, 302, 404, 500 и пользовательские
🎯 Фильтр по URL - точное соответствие или частичное вхождение
🖼 Исключение изображений - автоматическое исключение графических файлов
Уникальные URL - удаление дубликатов
📊 Количество результатов - ограничение или все данные


Вот пример того, что сейчас можно сделать с помощью AI буквально за 30 минут.
AIшка написала скрипт, сверстала, упаковала все в архив, я его развернул на сервере и все заработало!

Домен взял первый свободный, чтобы потестить.
Собственно, увидеть можно тут: https://treka.ru/
На больших данных нужно будет немного подождать ))
Вся ситуация в Google на примере 3 разных проектов! Причем, трафик где-то не изменился, где-то вырос за этот период.
Коллеги, вопрос на ночь!
Где сейчас посмотреть актуальные отчеты по среднему CTR в выдаче Yandex и Google?
2025/06/25 12:59:01
Back to Top
HTML Embed Code: