Telegram Web
🟢Оценка структуры и иерархии контента для Semantic SEO: Механизмы внимания позволяют Google понимать, как организован контент на странице. Они могут идентифицировать заголовки, подзаголовки, списки, абзацы и определять, как эти элементы связаны между собой. Это критически важно для Semantic SEO, где важна не просто "начинка" ключевыми словами, а логическая структура и семантическая цельность контента.

🟢Борьба с манипуляциями и "переоптимизацией": Традиционные SEO-методы, основанные на плотности ключевых слов и косинусном сходстве, были относительно легко манипулируемы. Механизмы внимания затрудняют "переоптимизацию", так как они фокусируются на естественном языке, контексте и смысловых связях. Страницы, искусственно "напичканные" ключевыми словами и лишенные смысловой цельности, будут хуже ранжироваться, даже если формально они "похожи" на запрос по косинусному сходству.

#DrMax #Google #SEO #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍64
Механизмы Внимания Google (attention mechanisms) - Часть 2.

Подтверждение использования механизмов внимания:

🟢Публичные заявления Google о BERT, MUM, LaMDA, Gemini: Все эти модели используют архитектуру Transformer, в основе которой лежат механизмы внимания. Google открыто говорит о том, что эти модели улучшают понимание языка и контекста в поиске.

🟢Исследования в области NLP: Огромное количество научных работ подтверждает эффективность механизмов внимания для различных задач NLP, включая машинный перевод, классификацию текста, ответы на вопросы и, конечно, ранжирование. Архитектура Transformer стала стандартом де-факто в современном NLP.

🟢Наблюдения SEO-сообщества: Опытные SEO специалисты давно заметили, что Google все больше ценит качественный, глубокий и структурированный контент, а не просто "оптимизированный" под ключевые слова. Это подтверждает, что Google перешел на более сложные методы анализа контента, чем простые метрики.

🟢Патенты Google: Анализ патентов Google в области ранжирования также часто указывает на использование сложных нейросетевых моделей и методов, которые, вероятно, включают механизмы внимания.

Теоретические выводы:

В эпоху механизмов внимания, SEO-стратегия должна сместиться от "оптимизации под ключевые слова" к созданию контента, который действительно отвечает на вопросы пользователей, является экспертным, авторитетным и легко воспринимаемым.

🟢Фокусируйтесь на Semantic SEO и создании тематически исчерпывающего контента: Не ограничивайтесь поверхностным освещением темы. Создавайте глубокий, структурированный контент, который охватывает все аспекты запроса пользователя.

🟢Улучшайте структуру и иерархию контента: Используйте заголовки, подзаголовки, списки, таблицы, чтобы сделать контент более читаемым и понятным для пользователей и поисковых систем. Думайте о логической организации информации.

🟢Оптимизируйте под контекст и намерение пользователя, а не только под ключевые слова: Понимайте, что именно ищет пользователь, и создавайте контент, который максимально полно отвечает на его запрос. Используйте естественный язык и избегайте "переоптимизации".

🟢Работайте над E-E-A-T (Мюллер на днях сказал, что EEAT это не то, что есть на странице. То есть добавление авторов и BIO - это не EEAT)

🟢Инвестируйте в качество контента и UX: Страницы, которые нравятся пользователям, которые легко читать и которые предоставляют ценную информацию, будут лучше ранжироваться в эпоху механизмов внимания.

#DrMax #Google #SEO #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24🔥52
Стратегия SEO.pdf
583 KB
🔥 Практическая оптимизация сайта/бизнеса/контента под механизмы внимания.

Существует стратегия оптимизации под механизмы внимания. Если приводить подробно, то очень обширно выходит. Сократил до основных пунктов:

1. Определение онтологической области бизнеса или сайта
Фундаментальное определение сути бизнеса/сайта. На этом этапе мы определяем ключевую область экспертизы. Механизмы внимания Google лучше "понимают", о чем сайт, когда есть четко очерченная тематическая область. Это помогает Google идентифицировать сайт как экспертный в определенной нише.

2. Определение сущностей, связанных с онтологической областью (Entity Definition).
Определение сущностей помогает Google понять семантическую сеть, окружающую ключевую тему.

3. Сбор поисковых запросов с использованием Google как инструмента (Query Harvesting).
Инструментами служат: Фильтры тем (Topic Filters), блок "Люди также спрашивают", блок "Люди также ищут" (People Also Search For - PASF), теги изображений в Google Картинках, автозаполнение. Инструменты для сбора поисковых подсказок: Ahrefs, Semrush, Serpstat, AnswerThePublic и т.д.

4. Анализ извлечения именованных сущностей (Named Entity Recognition - NER).
После сбора запросов, проводим NER-анализ, чтобы уточнить и расширить список сущностей. Инструменты NER (Google Cloud Natural Language API, spaCy, NLTK) автоматически идентифицируют и классифицируют именованные сущности в тексте запросов. Ручная верификация и дополнение результатов NER критически важны.

5. Определение таксономии на основе поиска сущностей (Entity-Based Taxonomy).
На основе собранных и проанализированных сущностей, мы разрабатываем таксономию – иерархическую структуру категорий и подкатегорий контента.

6. Анализ поисковых путей целевой аудитории (Search Journey Analysis).
Анализируем поисковые пути целевой аудитории, разделяя их на этапы

7. Кластеризация фаз поисковых путей через внутреннюю перелинковку (Internal Linking for Topical Authority).

8. Анализ векторных представлений (embeddings) и косинусной близости (cosine vicinity) для выявления пробелов в контенте.
Хоть и малость устарело - но пока нет иных доступных механизмов

9. Обновление существующего и создание нового контента с учетом салиентности сущностей и ясности языка (Content Creation & Optimization).

10. Форматы контента и анализ SERP (Content Formats & SERP Analysis).
Анализируйте SERP для целевых запросов, чтобы определить форматы контента, которые Google предпочитает ранжировать (статьи-руководства, списки "Топ-10”, Видео и т.д.)

Скормил стратегию Гугл АИ Студии и попросил на её основе написать стратегию для популярного веломагазина velobike.by )) опираясь только на открытые данные. Как заготовка - пойдет )))

Стратегия во вложении.

#DrMax #Google #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
👍33🤔8🔥52
Стратегия механизмов внимания.docx
32 KB
📔 Стратегия SEO-Оптимизации под Механизмы Внимания Google

на примере спец кофейни.

#DrMax #entity #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥6🗿4😁2
📈 Про стратегию механизмов внимания из предыдущего поста

Собственно говоря, в чистом виде мне эта стратегия не нужна. Переделал её под анализ одиночных страниц сайта. Ну и для переписывания оных.

Разбил всю работу промпта на 4 этапа.
На первом - сбор информации (первоначальные данные подсовываю). Это пункты 1-6 стратегии, переделанные под одиночную страницу.

На втором этапе происходит эмуляция анализа векторных представлений (embeddings) и косинусной близости (cosine vicinity) для выявления пробелов в контенте (пункт 8). Работа ИИ в этом пункте вызывает настоящий душевный трепет. Он препарирует что там все насобирал и предлагает кучу нового. И поясняет все в реальном времени.

Третий этап - пункты 9 и частично 10. Генерация результат по установленным правилам ( у меня там список из 30+ пунктов).

Четвертый этап - проверка и зачистка результатов 3 этапа.

Для работы использую Vertex AI - демку на 90 дней. По сути это тот же Google AI Studio, только более профессиональная и платная.

Модель Gemeni 2.5 Pro

Крайне рекомендую всеж присмотреться к выложенной в прошлом посте модели внимания и прикрутить её хотя бы к одиночным страницам контента.

Контент выходит потрясающий. Точно пока сказать не могу - но плюсует в ТОПе однозначно ( с 7-8 места, например на 4-5), что для внутренней оптимизации весьма хорошо.

Забыл добавить, на основе исследования я тут же многоуровневую микроразметку делаю с полным описанием сущностей и связей. И вкрячиваю для страниц. Никогда не видел таких мега объемных микроразметок.

Затратно по времени выходит правда )))
Но буду тестировать дальше.

#DrMax #attention_mechanisms #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍33🔥6😁3🗿2💯1
Переписывание сниппетов в Гугле и косинусное сходство

Итак, как известно Google игнорирует заданные вручную мета-описания и генерирует свои собственные в большинстве случаев. Исследования (Ahrefs, Portent) показывают, что это происходит примерно в 60-70% случаев. Google делает это, чтобы предоставить пользователю наиболее релевантный фрагмент контента в ответ на его конкретный поисковый запрос.

Помимо поиска лучшего соответствия запросу, Google может переписать description, если он отсутствует, слишком короткий, неинформативный, спамный или дублируется на других страницах.

Уже устаревшее, но все еще бодрое "косинусное сходство" из за легкости его расчетов стали пихать куда угодно. Вышла статья, где оное сходство предлагают для реализации предсказания из какого куска контента Гугл перепишет статью.

Итак, источник - контент страницы: Google формирует эти автоматические описания (сниппеты), используя предложения и фрагменты текста, уже находящиеся на самой веб-странице.

Статья выдвигает технически обоснованную гипотезу (устаревшую лет на 5 ), что Google использует современные AI/NLP технологии. Предполагается, что текст на странице и поисковый запрос переводятся в векторные представления (embeddings) - числовые векторы, отражающие семантический смысл. Затем вычисляется косинусное сходство (cosine similarity) между вектором запроса и векторами предложений на странице. Предложение с максимальным сходством (т.е. наиболее семантически близкое к запросу) выбирается для формирования сниппета.

Метод прогнозирования таков:

🟢Анализируются популярные запросы для страницы (из Google Search Console).

🟢Текст страницы разбивается на предложения.

🟢С помощью инструментов (в их случае - собственного скрипта на базе Google Apps Script и Google text embedding engine) рассчитывается косинусное сходство между каждым запросом и каждым предложением.

🟢Предложение с наивысшим баллом сходства идентифицируется как наиболее вероятный кандидат в мета-описание для данного запроса.

Заявленная стратегическая ценность подхода:

🟢Оптимизация под CTR: Выявив и улучшив "кандидатов" в сниппеты, можно повысить их релевантность и привлекательность, что ведет к росту кликабельности (CTR).

🟢Улучшение релевантности контента: Анализ помогает понять, как Google интерпретирует содержание страницы относительно ключевых запросов, и направить усилия по оптимизации контента в нужное русло.

🟢Новые идеи для контента: Понимание соответствия "запрос-предложение" может дать идеи для создания нового контента или доработки существующего.

Статья выложена вот тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19😁3
Переписывание сниппетов в Гугле и косинусное сходство (часть 2)

Несмотря на частые перезаписи, качественное, уникальное и релевантное мета-описание все еще крайне важно. Оно используется примерно в 30-40% случаев (особенно для "главных" запросов), отображается при репостах в соцсетях (если нет og:description) и задает основное сообщение страницы.

Собственно говоря, реализовать платную хреновину авторов статьи весьма просто. Метод, описанный в статье (вычисление косинусного сходства), может быть воспроизведен с использованием общедоступных NLP-библиотек (например, на Python) и моделей для генерации эмбеддингов (Sentence Transformers, OpenAI API, Google AI API и т.д.), не ограничиваясь их жутко пропиаренным проприетарным скриптом для гугл шитсов.

Ежели кому надо - могу переделать скрипт по вычислению косинусного сходства, который выкладывал ранее, под эту задачу. Уведомляйте в комментариях.

#DrMax #SEO
👍396👀3😁2
Софт для расчета релевантности контента косинусным методом.

Встроена поддержка русского и английского

Встроены 4 модели (первая в конфигурации - английская, 2-4 - мультиязычные)

Как работать.

После запуска доооооолго ждем подгрузки модели (гиг в среднем каждая) и всяческого прочего. Не паникуем. Загружается только 1 раз все. После загрузки:

1. Идем в конфигурацию и выбираем язык и модель

2. Добавляем URL для анализа

3. Добавляем ключи

4. Жмем Старт

Смотрим, какой из URL вылезает в ТОПы за счет контента (макс косинусность и гибрид)

Если желаем посмотреть за счет каких фраз вылезает -

1. жмем "Расчет фраз"

2. Долго ждем

3. По завершению - жмем Сохранить и выгружаем в эксель

Там на первом листе собраны все важные фразы (верхняя строчка настройки )

На последующих лежат n-грамы (нижняя строчка настройки) - отсортированы в порядке уменьшения косинусности

Забираем n-граммы и встраиваем релевантно в текст, после чего радуемся

ОГРАНИЧЕНИЯ ДЕМО: в русской версии n-граммы выводятся в стемированном виде (не восстановлены до текста)

Качать софт тут (5 дней доступно)
Пароль: 123

Все обсуждения - только в комментариях!!!!!!


#DrMax #Софт
👍50🔥11😁2
☄️ FREE: SEO Релевантность 2 v.2.1.

"SEO Релевантность 2" представляет собой мощный инструмент для анализа текстового контента с целью оценки его соответствия заданным ключевым словам.

Основная цель программы
- помочь SEO-специалистам и владельцам сайтов в оптимизации контента для повышения его видимости в поисковых системах. Она позволяет не только оценить семантическую и статистическую релевантность текста, но и выделить ключевые фразы, которые наиболее близки к заданным запросам.

Задачи программы включают загрузку и очистку текстового контента с веб-страниц или пользовательского ввода, вычисление релевантности с использованием гибридного подхода (TF-IDF и семантические модели), а также генерацию длинных фраз и n-грамм. Программа анализирует как основной контент, так и мета-теги (title и h1), предоставляя комплексную картину соответствия текста ключевым словам.

Одной из ключевых особенностей программы является использование современных семантических моделей, таких как SentenceTransformer, что позволяет учитывать не только точные вхождения слов, но и их смысловые связи. Гибридный подход, сочетающий TF-IDF и семантический анализ, делает оценку релевантности более точной и адаптивной. Пользователь может настроить веса этих методов, выбирая баланс между статистической точностью и семантической глубиной.

Дополнительной особенностью является поддержка многопоточности для ускорения обработки больших объемов текста, а также кэширование результатов для повторных вычислений. Программа автоматически определяет язык текста (например, русский или английский) и адаптируется к нему, что делает её универсальной для работы с многоязычным контентом.

Преимущества программы заключаются в её гибкости и удобстве. Пользователь может задавать параметры, такие как порог сходства, количество фраз и разделители, что позволяет адаптировать анализ под конкретные задачи. Результаты можно сохранить в Excel, включая частотный анализ n-грамм, что упрощает дальнейшую работу с данными. Программа также отличается высокой точностью очистки текста от ненужных элементов (скриптов, рекламы), благодаря настраиваемому уровню очистки - "усиленный" или "легкий". Ещё одно преимущество - это возможность работы как с веб-страницами, так и с произвольным текстом, что делает инструмент универсальным.

В целом, "SEO Релевантность 2" - это инструмент, который сочетает в себе передовые технологии анализа текста, интуитивно понятный интерфейс и практическую направленность, помогая создавать контент, который лучше ранжируется в поисковых системах и отвечает потребностям аудитории.

1. Скачать программу [доступно 14 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe

Донаты: Сказать спасибо.

Завтра запишу видео как правильно настраивать и работать с софтом.

#DrMax #SEO #Софт
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56👍98🆒5💯1
Media is too big
VIEW IN TELEGRAM
🎞 Видео обзор программы SEO Релевантность 2 v.2.1. [Часть 1]

В первой части рассказываю как проводить разведку конкурентов, семантическую оценку их контента в плане соответствия продвигаемым ключам и как оптимизировать собственный контент под недооптимизированные ключи.

Описание программы: ознакомиться здесь

Установка софта:
1. Скачать программу [доступно 7 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe

Донаты: Сказать спасибо.

Завтра (возможно) запишу видео как правильно работать с фразами и покажу несколько интересных приемов. Все будет зависить от того, нужна ли вообще вам эта софтинка и не зря ли я тут трачу время.

#DrMax #video #soft
Please open Telegram to view this post
VIEW IN TELEGRAM
👍103🔥3316👏3😁1
🧩 SEO Релевантность 2.1 и генерация сниппетов

Помните, неделю назад рассказывал про ловкачей, которые находят своим софтом места в контенте, из которых генерируется сниппет в Гугле. За большие деньги, между прочим. Так в нашей софтине это все есть из коробки.

1. Добавляем URL страницы своего сайта для анализа
2. Из GSC (консоли гугла) выдираем список ключей по которым ранжируется эта страница
3. Снижаем кол-во фраз до 3 ( больше и не надо)
4. Идем в конфигурацию и снимаем все галки с n-грамм (не нужны они для расчета)
5. Жмем кнопку "Расчет фраз"
6. В поле "Длинные фразы" получаем предполагаемые куски контента, из которых Гугл будет генерировать сниппет при переписывании оного.

Как и куда вы это будете использовать - дело ваше. Но, видимо штука нужная, раз пользуется спросом в буржунете.

А как вы используете софтинку? Пишите в комментариях.

Описание программы: ознакомиться здесь

Установка софта:
1. Скачать программу [доступно 7 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe

Донаты: Сказать спасибо.

#DrMax #софт #Google
🔥39👍104💯1🆒1
📕 Рост качества контента (прием нумер 2)

Недавно я рассказывал как нарастить "качество" контента таблицами и приводил примеры. Вообще суть в методы - в создании аналитики, которую так любит (по словам Мюллера) Гугл. И страницы со всякой такой аналитикой гугл не сразу признает генеренкой или там некачественным контентом, а даст шансы поранжироваться. Вообще, чем больше всякого - разного есть в контенте, тем больше усилий (якобы) вы затратили на его создание и тем больше возможностей для ранжирования предоставит Гугл (якобы).

Нынче мы будем создавать, так любимую гуглом инфографику.

Для этого берем чат бота поумней (я юзаю Vertex AI с последней моделью Гемени 2.5.), скармливаем ему контент и просим нарисовать диаграмму для Mermaid (написать код). В приложенном скрине такая диаграмма получилась из вот этого текста, попросил сделать код в стиле MindMap.

Потом оный код закидываем в Mermaid и тут же выгружаем картинку с нужными разрешениями /размерами.

Стилей диаграмм там немало. Есть из чего выбирать. При настройке процесса обновление контента занимает пару -тройку минут.

Да, заодно в промпте для ИИ просим сгенерачить название картинки, SEO оптимизированный alt-текст ну и Подпись для картинки.

Собственно все очень просто, быстро и результативно.

Пользуйтесь

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🔥127😁1
📈 Как оптимизировать контент с помощью софта SEO Релевантность 2.1

Тут в комментариях задают вопросы - а чего это софтина не считает мне, сколь нужно фраз воткнуть в контент, дабы оно стало семантически релевантным конкурентам. Мол непонятно, 5 надо фраз воткнуть или там 12.

Нет, друзья, семантическая релевантность так не работает. Она не зависит прямо от числа вхождений фраз. Косинусная схожесть контента и ключа зависит от того, где и как расположена фраза, кто её соседи по контенту, как она встроена.

Давайте проведем простейший эксперимент. Нашел по ключу "кирпичный завод" статью в Комсомолке и запихал её кусок в текстовое поле программы. А теперь возьмем ключ "кирпичный завод" и начнем его пихать в разные места контента, не меняя контент.

Как мы видим от места пихания и того как мы встроили в контент оный ключ, семантическая релевантность ощутимо меняется. При этом, если посмотреть на количественный параметр релевантности (TFIDF), то он неизменен при однократном пихании ключа в контент.

Таким образом, нельзя уверенно сказать, сколько близких фраз, полученных в результате расчета программы, надо запихать в текст. Это не количественная оценка, а скорее качественная. Поэтому, добавляйте в контент фразы (встраивайте правильно, не спамно и органично) и пересчитывайте заново семантическую релевантность, используя текстовое поле программы.

Экспериментируйте. У вас есть все для этого.

Описание программы: ознакомиться здесь

Установка софта:
1. Скачать программу [доступно 2 дня для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe

Донаты: Сказать спасибо.

ЗЫ.
Отменил запись 2 части обзора софта, из за крайне низкого интереса к софту. Собственно и обновлять более не планирую, ибо функционал для меня избыточен, мне хватало и первой версии скрипта, исходный код коего я выкладывал ранее.

ЗЗЫ.
На все требования о создании обширной документации (кои есть в комментах) и прочей поддержки - ничего такого не будет. Используйте как есть.

#DrMax #SEO #софт
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
34👍14😁6🔥1🆒1
Как вы думаете, влияют ли структурированные данные (микроразметка) на ранжирование в Гугле? 🤓
Final Results
75%
Думаю ДА
25%
Однозначно НЕТ
🤔2
Рост качества контента (прием нумер 3)

Недавно рассказывал вам про таблицы и диаграммы, добавляемые в контент, кои могут помочь с ростом его качества. Следующим приемом является генерация ИИ FAQ по контенту страницы.

Скармливаем страницу ( или ссылку страницы, если ИИ имеет доступ к интернету) и просим его сгенерировать FAQ. Но и тут есть небольшая хитрость. В раздел вопросов и ответов необходимо добавить несколько перефразированных, но семантически близких вопросов (и ответов) из блока PAA (люди также спрашивают / вопросы по теме), который судя по Семраш сенсору выводится в половине всех запросов.

В итоге получаем промпт типа:
"Напиши FAQ раздел (8 вопросов и ответов) на английском. Вопросы должны быть уникальными, полезными, интересными и неожиданными и касаться проанализированного контента, а ответы должны быть лаконичными и достоверными. Среди них сделай 3 типичных вопроса и ответа, что обычно выводятся в блоках PPA в выдаче Google.

Можно попросить сгенерировать и микроразметку под этот FAQ.

Итак, помимо того, что мы набиваем контент дополнительными ключами, мы можем с некоторой долей вероятности попасть в блок "люди тоже спрашивают", что повысит яркость продвигаемого сайта в органической выдаче. Прием простейший, но довольно полезный.

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥42👍128😁1🆒1
🔥 Про ChatGPT и нехитрые методы получения трафика

Вышла новая статистика о том, что:
Поиск OpenAI ChatGPT имел 41,3 млн среднемесячных пользователей по всему ЕС с октября по март. Это почти в 4 раза больше, чем за предыдущий шестимесячный период, когда сообщалось о 11,2 млн пользователей.

Таким образом мы наблюдаем четырехкратный рост за этот период, что весьма хорошо. Действительно, если пару месяцев назад я наблюдал единичные заходы с оного чата, то теперь их несколько больше (см скрин).

Да, это не батюшка - Гугл, и даже не прямые заходы по бренду и даже не Бинг с иными чудоковатыми ПС типа яшки или дюкдюка. Но тем не менее, тенденция роста наблюдается и глупо не попытаться увеличить этот поток поиска. Кроме того там и Grok и Перплексити на подходе.

Теперь про оптимизацию.

Тут в комментариях носы начали морщить на совет внедрять FAQ разметку. Мол не комильфло, устарело да и никто не читает. Так вот, судя по всему ко мне большая часть этих кренделей с ЧатГПТ пришла именно из за нормального FAQ. На данный момент принципами оптимизации под него я для себя вывел:

🟢Более разговорная тональность текста

🟢Внедрение FAQ, покрывающее семантически не только контент, но и имеющая на борту 3-4 PAA вопроса/ответа (естественно переписанных)

Собственно ничего иного и не нужно.

#DrMax #ChatGPT #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44👏3😁21
2025/07/13 21:22:32
Back to Top
HTML Embed Code: