Telegram Web
Салон свадебных платьев.docx
52.8 KB
👀 Опять про Reddit

Засилие Reddita в органике позволяет нам более высоко оценивать оную платформу для линкбилдинга. Используя ссылки с Reddit можно довольно просто добить практически любой СЧ ключ до ТОП10 и потом дожимать его более дорогими и классическими способами. Эффективность ссылок с Reddit зависит от многих факторов, включая тематику сайта, конкуренцию в нише и качество контента. Чем хороши такие ссылки - результат виден практически мгновенно (по сравнению с иными линкбилдинг стратегиями).

Не буду говорить о том, что явный спам будет сразу снесен. Модерация там лютая. И Reddit крайне негативно относится к спаму и саморекламе. Но аккуратные и качественные посты приветствуются.

Интересно, что большинство ссылок с Reddit являются nofollow, но тем не менее они отлично выстреливают. Если вам захотелось дофоллов ссылок с Reddit - то есть пара не особо публичных приемов.

1️⃣ Текстовые виджеты в сайдбаре сабреддита: Этот метод требует наличия прав модератора в релевантном сабреддите. Создайте или станьте модератором сабреддита, представляющего интерес для вашей ниши. В настройках сабреддита добавьте текстовый виджет в сайдбар и разместите в нем ссылку на свой сайт в формате простого текста (например, https://www.site.com). Важно, чтобы сабреддит был активным и генерировал трафик, тогда ссылка будет передавать вес.

2️⃣ Размещение нескольких изображений в посте: Этот метод менее известен, но может быть эффективным. При создании поста выбираете тип "Images & Videos", загружаете минимум два изображения. Редактируя второе изображение, добавляете подпись (которая будет служить анкорным текстом) и ссылку в соответствующее поле. Этот способ позволяет получить dofollow ссылку с произвольным анкором.

Встречал упоминания о размещении QR кодов или Урл акцептора в виде "водяных знаков". Ну или в углу картинки зафигачить URL акцептора. То что Гугл это распознает - 100 процентов. Но будет ли такое упоминание участвовать в ранжировании - не знаю. Нужны тесты.

В залючении скажу, прямо здесь и сейчас надо активно юзать Reddit. Завтра, вполне возможно, Гугл отключит такую фишку. Так что поспешайте.

ЗЫ.
С интентами я закончил - там разные тонкости остались - но публиковать не буду. Смысла особого нет. В комментариях разобрал еще 3 примера анализа интентов различных сайтов. Особо крупным получился разбор интентов и методов оптимизации сайта для свадебного салона ( его прилагаю). Остальные скачайте в комментариях.

#DrMax #SEO #Reddit
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥30👍9🤔31
🔠🔠🔠🔠🔠 Оптимизация бюджета сканирования

После того, как Гугл прикрыл лавочку с переиндексацией через API и наказал миллионы сайтов за этот по сути "спам", перед оптимизаторами стала проблема массовой индексации (или переиндексации) страниц сайта в условиях ограниченного бюджета сканирования.

Действительно, какой смысл создавать страницы сайта, если они не будут просканированы, проиндексированы и не попадут в выдачу. Или попадут в выдачу тогда, когда контент станет уже не актуальным.

Публикую выжимки из очередной главы книги по SEO, которую выбрасывать жалко, но книгу доделывать нет возможности.

Итак, ознакомьтесь с концепциями Crawl Rate Limit (ограничение интенсивности сканирования) и Crawl Demand (потребность в сканировании) и попробуйте применить стратегии оптимизации бюджета сканирования на практике.

Разместил в телеграфе.

#DrMax #SEO #Crawl #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🔥104😁1💯1
try2.py
12.8 KB
🔥 Анализ релевантности контента ключевым словам через векторные вложения

Как известно, нынче Гугл использует семантический анализ вместо лексического. Он использует векторные вложения для понимания контекста и смысла контента, а не только ключевых слов. Это стало возможным благодаря моделям вроде BERT и SCaNN.

В прошлом году вышла статья, в коей было показано как прикрутить подобный анализ к лягушке. Но ну его нафиг использовать лягушку и OpenAi платный (хоть и копеечный), когда есть сотни обученных моделей. Собственно говоря накидался скрипт, который:
1. Запрашивает URL страницы и SEO-ключ (например, ключевое слово или фразу).
2. Извлекает основной контент страницы.
3. Генерирует векторные вложения для контента и SEO-ключа.
4. Вычисляет релевантность через косинусную схожесть векторов.
Выложил скрипт в комментариях, теперь выкладываю вот тут.

Он же скомпилированный под exe. 200 метров качать. Все библиотеки внутри. Пасс: 123

Запускается долго. Использует семантическую модель all-mpnet-base-v2.

Отдаю как есть. У меня прекрасно все работает.

#DrMax #SEO #soft
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥72👍6🆒5😁31
💱 Опять про скрипт.

Не все поняли для чего онный скрипт, выложенный чуть выше нужен. Рассмотрим на примере скомпилянной версии.

Вот к примеру, вы недоумеваете, почему по какому то там СЧ или НЧ ключу вы не занимаете законное первое место.

Берете этот ключ, пихаете его в выдачу и смотрите конкурентов. Копируете URL страниц конкурентов в софт в поле URL в поле ключ размещаете 1 или несколько ключей. Ну и последним добавляете в оный софт собственную страницу ( в поле URL).

Запускаете расчет и анализируете только семантику. Если косинусное сходство у конкурентов выше чем у вас - то вы пихаете в контент LSI, синонимы и такие фразы, которые будут подтверждать тематику вашей страницы. Про последний, например при ключе "строительство коттеджей", насыщаете не только и не столько статью "строительством коттеджей", а сопутствующими словами - "составление сметы строительства", "работа бетономешалки", "носите каску на стройке", "силикатный кирпич храните на поддонах". Ну и не забываем про LSI - типа "возведение стен дома", "кроем крышу" и т.д. и прямыми синонимами (немного) - типа "стройка дома".

После этого запускаем скрипт заново и смотрим насколь выросло косинусное сходство (столбец семантики). И так, в несколько иттераций добиваемся улучшения семантического соответствия контента вашим ключам.

TF-IDF выступает как мера переспама прямыми ключами и лучше держать этот показатель как средний у конкурентов ( не выше - ибо переспам).

Таким образом, используя эту софтинку вы легко повысите релевантность контента проверяемым ключам и легко поймете когда стоит остановиться и не спамим ли мы прямыми вхождениями.

Вот зачем нужна эта программулька.

ЗЫ. На НЧ ключах программулька показала 90-95% соответстве меры семантики органической выдаче. На ВЧ ключах работать не будет - ибо тут главное ссылки, а не семантика ( что не мешает подтянуть и её)

#DrMax #SEO #софт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍38🔥11😁4👀2👏1
Новая (окончательная) версия софта проверки релевантности и выпихивания текстов в ТОП Гугла

1. Добавлена гибридная релевантность (комбинация семантических (SBERT) и статистических (TF-IDF) методов). Веса сами проставляете.
2. Парсинг и усиленная зачистка HTML от мусора (скрипты, реклама, футеры, хедеры) и извлечение основного контента. Работает не идеально (ибо обучать надо на всех шаблонах сайта - а это очень долго).
3. Вывод весов для всех n-грамм.
4. Сбор всех фраз и n-грамм, зачистка от дублей и вывод в Excel (самая нужная фишка, чтобы понять за счет чего именно вылезли в ТОПЫ злобные конкуренты).
5. Работа с дублями осуществляется после стемминга - т.е. зачищает крайне хорошо и всякие словоформы и переставления слов не щадит.
6. Работает на модели all-mpnet-base-v2 - т.е. исключительно английский текст.
7. Добавил параллельные обработки текста, кэширование эмбеддингов, оптимизацию TF-IDF (обучение на всем наборе текстов) и много всего остального, дабы ускорить работу.

Поставляется "как есть". Отзывов от вас все равно не дождешся - так что пользуйтесь.

Собственно, кто будет юзать сей софт - сможет нагибать Гугл довольно просто ( по крайне мере с НЧ и СЧ). Замерял.

Окошко ввода текста юзайте при оптимизации контента и расчета его косинусности. Очень удобно и быстро, в несколько иттераций подбирается нужная релевантность. Ну или текст тех конкурентов кидайте, что не позволяют себя спарсить.

Качать здесь.

Отзывы - пишите в комментарии. Пример использования тут. Исходники не выдам.

Собственно можно и русскую версию собрать на иной модели. Но запросов нет. Так что ну его.

#DrMax #SEO #soft
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46😁11🔥95👏2
🔍 По поводу HCU

Вышла вторая часть исследования уважаемого товарища Shaun Anderson по восстановлению сайтов из под HCU. Напомню, в первой части он бахвалился 2 десятками сайтов которые он разобрал на составные части и кой кому помог выйти из под HCU. Ну а в анонсированной третьей части он спалит основные методы вывода сайтов.

Во второй части его исследования:

🟢Гипотеза автора: Обновления Google, включая HCU, обновления по спаму и основные обновления, негативно влияют на сайты, которые придерживаются стратегии контента, ориентированной в первую очередь на поисковые системы (search engine-first content strategy). В частности, это относится к сайтам, использующим генеративный AI (например, ChatGPT) для искусственного повышения видимости в Google.

🟢"Разорванная Сущность" ("Disconnected Entity") / "Неблагополучная Сущность" ("Unhealthy Entity"): Автор вводит понятие "Разорванной Сущности", которую он также называет "Неблагополучной Сущностью". Это сайты, которые Google считает нездоровыми и постепенно понижает их в рейтинге до статуса "UNKNOWN/SPAM".

🟢Использование AI для "раздувания" контента: Злоупотребление AI для массового производства контента низкого качества, направленного на захват поискового трафика ("раздутая сущность" - "Bloated Entity"), является одной из причин попадания под фильтры.

🟢Недостаточно проработанная "Сущность" сайта (Entity): Маленькие, независимые издатели, которые не определили и не проработали свою "Сущность" ("Entity") в соответствии с Руководством для Асессоров Google (Quality Rater Guidelines), могут быть признаны "Неблагополучными Сущностями". Важно, чтобы сайт был авторитетным и вызывал доверие в своей нише.

Последнее я могу с 95% признать достоверным. Действительно, после прошлогодних майских апдейтов одним из методов вывода из под HCU было прописывание на сайте тех, кто отвечает за сам сайт в целом и верификация оных деятелей. По сути это было расширение страницы "О сайте"/ "О компании" с перечислением всех юридически значимых данных и контактов и усиленное подтверждение оного в интернете ( Гугл мой бизнес, всякие трастпилоты, значимые каталоги сайтов и прочее). То есть развитие бренда.

Смысл сего действа в том, чтобы доказать Гуглу реальность фактов и достоверность данных (гарантированное брендом и наличием оного в графе знаний), так, чтобы он мог поручиться за нас и предлагать пользователям наш контент. Это необходимое, но не единственно важное и нужное действие для вывода из под HCU.

Итак, ждем с нетерпением 3 части исследования. Ну и оставляйте свои мысли в комментариях.

#DrMax #SEO #entity #HCU
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21😁2
😱 Про косинусную софтину.

До конца недели выкачу версию, работающую с русскоязычными текстами.
На этом все.

#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥85👍195😁2👀1
📕 SEO Стратегия: создание Графа Знаний для сайта

Продолжаю безжалостно потрошить неопубликованное. Сегодня расскажу еще немного о семантическом SEO в виде небольшой, но перспективной SEO стратегии "Создание Графа Знаний для вашего сайта".

Разместил в телеграфе, так как в пост весь контент не влезает ( хоть я его и порезал сильно,выкинув множество примеров): https://telegra.ph/Sozdanie-Grafa-Znanij-02-27

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍8🤔31
Новая версия SiteAnalyzer SEO Tools 2.3!

Наш хороший товарищ и отменный программист Андрей Симагин выкатил обновление тулзы.

Что нового:
- добавлена возможность сравнения поисковой выдачи по ТОП 10-20-30 в Яндексе и Google
- добавлена возможность визуализации микроразметки Schema.org (JSON-LD)
- исправлен баг отображения рекламных блоков в Яндексе
- добавлена статистика страниц в индексе поисковой системы Bing
- оптимизирована работа модуля анализа Sitemap.xml с CMS Prestashop
- добавлена кнопка «Свернуть» для панели анализа рекламных блоков

Подробнее: https://site-analyzer.ru/articles/seo-extension-top-search/

Пожелания, отзывы и благодарности можно оставлять и в комментариях - Андрей их читает и засылать непосредственно ему.

#SEO #Soft
🔥39👏4😁2👍1🆒1
🔥 Как Google в очередной раз борется с SEO

Среди буржуйских экспертов начало всплывать несколько интересных мыслей, которые они повторяют друг за другом. Например, Сайрус Шепард высказывает гипотезу о том, что последние обновления Google, особенно так называемое HCU (helpful content update / обновление полезного контента), на самом деле были направлены против чрезмерно агрессивного SEO. Он предполагает, что Google начал наказывать сайты, которые слишком усердно оптимизируют контент, злоупотребляют внутренними ссылками, и в целом ведут себя "слишком SEO-шно". Вместо этого, Google начинает отдавать предпочтение сайтам, которые меньше фокусируются на традиционных SEO-тактиках и больше - на качестве и ценности для пользователя. Это означает, что Google стремится к более "естественному" интернету, где сайты ранжируются за реальную ценность, а не за манипуляции с алгоритмами.

При этом если ты лютый, известный бренд – то тебе дозволено все. И напротив, если ваш сайт не имеется в графе знаний – то выдавливай из себя по капле что то явно полезное.

Таким образом, Google ценит только те сайты, которые являются авторитетными в своей нише, узнаваемыми брендами. Сайты с сильным брендом, которые пользователи ищут напрямую по названию бренда, получают "иммунитет" от негативных последствий алгоритмических обновлений.

Собственно об этом известно с прошлогодних майских обновлений ядра алгоритмов Гугла. Но теперь, вместо того, чтобы фокусироваться только на ключевых словах, SEO-специалистам нужно работать над укреплением бренда, его узнаваемости и репутации. Google, по сути, переходит от ранжирования по ключевым словам к ранжированию брендов. Остальные - недостойны того, чтобы появляться в органике.

Именно поэтому те товарищи, что прокачивают свой бренд, в том числе и массовым линкбилдингом с использованием бренд – анкоров – ныне в плюсе.

Традиционные SEO-тактики, такие как внутренняя перелинковка, если их применять слишком агрессивно, могут теперь иметь обратный эффект. Исследования того же Сайруса Шепарда показали, что сайты с "плохой" внутренней перелинковкой (менее оптимизированной, менее насыщенной анкорными текстами) лучше пережили последние обновления Google, чем сайты с "хорошей" (традиционно оптимизированной) внутренней перелинковкой. Это подтверждает мысль о том, что Google стремится к "естественности" и наказывает за чрезмерную оптимизацию.
Итак, если вы не лютый бренд, если вы простой владелец проекта, то необходимо постоянно помнить о важности "опыта" (experience) и "усилий" (effort) как новых ключевых факторов, которые Google учитывает при оценке качества сайта. "Опыт" означает, что автор контента должен быть экспертом в теме, иметь реальный опыт в обсуждаемом вопросе. Это нужно демонстрировать на странице: фотографии личного опыта, описание методологии, частота публикаций на тему и т.д. "Усилия" подразумевают, что контент должен быть создан с душой, с проработкой деталей, с оригинальными исследованиями, качественным дизайном, а не просто сгенерирован AI или скопирован. Google, используя машинное обучение и данные от асессоров качества, пытается определить, сколько "усилий" было вложено в страницу, и отдает предпочтение контенту, который выглядит более качественным и проработанным.

Но бренд все равно рулит.

Итак, ключом к успеху для мелких сайтов (без лютого бренда) становится создание контента, который AI не может легко воспроизвести. Это означает фокусировку на "не масштабируемых" вещах: оригинальные исследования, уникальные данные, глубокий анализ, личный опыт, экспертное мнение, качественные сравнения. Нужно делать то, что всякие боты не умеют - создавать контент, требующий реальных усилий, экспертизы и уникальной ценности. Вместо того, чтобы конкурировать с AI в масштабах, нужно дифференцироваться за счет глубины и качества.

Но бренд (и ссылочное) все равно важней )))

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44🔥9🤔6👏3🆒1
Начался Core апдейт в Гугле

Грозят за 2 недели апнуть. Кстати, Последние 3-4 года стабильно в марте был Core апдейт.

#DrMax #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👍10
🧐 Быстрый анализ выпавших страниц

Есть очень простой метод, позволяющий практически мгновенно понять почему выпала из выдачи та или иная страница (попало в просканировано, но не проиндексировано в GSC).

Собственно тут 2 самых распространенных случая: первый негодный контент, второй - нелепая структура сайта. Собственно, разбирали всё это выше.

Для оценки контента берем любой визуализатор n-грамм (их море, самых разнообразных), например вот это расширение для Хрома или примочку Андрея Симагина (там триграммы можно анализировать) и смотрим на 3 или 4 граммы контента выпавшей страницы. Потом сравниваем с 3-4-граммами ТОП 1-2. И если дело в контенте вы сразу увидите:
1. Мощнейшее расхождение n-грамм вашего контента и лидеров ТОПа
2. Недооптимизацию контента по нужным n-граммам (этим крайне грешит генеренка всякими ИИ ботами, на чем и палится перед гуглом)

Если содержание и плотность n-грамм примерно соответствует лидерам, то дело в недополучении "ссылочного сока" - проверяем уровень вложения этой страницы.

Если уровень вложения не особо велик - то идем по пунктам, что расписывал выше (первая ссылка в посте).

Наличие значительного количества страниц типа "прсканировано, но не проиндексированно" - явный признак болезни сайта. А их рост в период апа свидетельствует о значительных проблемах, которые наверняка приведут к падению трафика.

#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥8
🔊 Простейший прием роста качества страницы

Если страница недостаточно качественная, выпала, не ранжируется, плохо ранжируется - то есть простейший прием улучшить её качество в глазах Гугла.

Берем контент страницы, скармливаем любому ИИ, просим проанализировать контент и на основе анализа составить таблицу.

Ну например у нас страница с описанием "красных сапог". Просим чат-бот свести потребительские свойства оной обуви в отдельную таблицу. Кою потом впихиваем в контент (с заголовками естественно). Или описание какого то там шуруповерта. Опять просим сгенерировать таблицу с описанием уникальных функций оного девайса. И опять таки пихаем эту таблицу в контент.

Гугл категорически положительно относится ко вского рода аналитике, чем и является оная таблица. При некоторм везении, данные из этой таблицы могут попасть в расширенный сниппет выдачи, что явно увеличит "яркость" сниппета в выдаче.

Еще одним положительным моментом является разбавление самого контента этими таблицами. Даже если он не особо качественный, то встраивание таких таблиц явно пойдет ему на пользу.

Этот метод можно юзать как отдельно, но лучше, конечно, в комплексе с остальными приемами повышения качества контента.

Таким образом, практически мгновенно, можно несколько улучшить качество практически любого вашего контента.

Пробуйте. Это просто и очень быстро.

#DrMax #SEO #Google #Content
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥57👍225👀3
Почему проиндексированные страницы не попадают в выдачу

Собственно это началось после прошлогоднего майского апдейта. Наличие страницы в числе проиндексированных вовсе не означает их ранжирование на любых позициях. То есть, иногда, Гугл вообще не добавляет проиндексированные страницы в выдачу.

Ранее я уже расписал как с таким бороться. Напомню. Необходимо периодически пересканировать сайт той же лягушкой и, используя API GSC делать выгрузки показов/ кликов для каждой страницы. Если страница проиндексирована, но показов за период (например месяц) нет, то оную страницу нужно реанимировать (изменять / объединять / удалять), ибо значительное количество таких страниц снижают общее качество сайта.

Просматриваю прессу, обнаружил, что к этой проблеме обратились спустя почти год после её возникновения. Читать можно вот тут.

Собственно важных там 2 замечания:

страницы, попавшие на этап индексации, все равно должны конкурировать на этапе ранжирования, чтобы успешно появиться в результатах.


и

Вам следует взглянуть на свой контент, поскольку весьма вероятно, что он не приносит большой пользы с точки зрения входящих запросов, и именно поэтому он не отображается в результатах поиска


по сути необходимо работать не только с выпавшими из индекса страницами, но и со страницами, которые не попадают в выдачу, будучи проиндексированными.

#DrMax #SEO #Google
🔥20👍31
Об использовании n-грамм для внутренней перелинковки

Вышла статья об использовании n-грамм в целях внутренней перелинковки. Предлагается юзать лягушку (есть на рутрекере, тем кто не может прикупить лицензию) для поиска наиболее подходящих страниц для простановки внутренних ссылок.

Собственно, этой теме десятки лет. Ранее использовали конструкцию в Гугле :
[поисковая фраза] site:domain.com

дабы найти наиболее подходящие страницы для добавления ссылок внутренней перелинковки, теперь вот лягушку предлагают юзать.

Кто будет читать статью - обратите внимание на ссылку на патент гугловский, где обсуждается использование n-грамм для определения качества сайта.

#DrMax #Google
👍197🔥4
🔄 Опять про таблицы и улучшение контента

В комментах попросили показать как это работает на практике. Вопрос довольно странный. Ну для примера - взял первую попавшуюся страничку по SEO и смастерил такую табличку с использованием Gemeni + Deep Resersh, скормив контент страницы оной Gemeni и попросив пояснить значимость H1 и H2

Далее, используем"перевернутую пирамиду" контента, Размещаем введение, потом оную таблицу, а далее расписываем сам контент. Вроде все просто.

#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍228🔥8
🔄 Анализ мартовского Core UP Гугла

Вчера завершился мартовский апдейт Гугла. Ну что сказать - крайне паскудное обновление, достаточно бесполезное для большинства небольших сайтов, а для некоторых весьма вредное.

На контролируемых проектах кой где есть небольшой рост трафа (20-30%), при этом абсолютно несопоставимый с приложенными усилиями.

На ряде проектов наблюдаю некое снижение трафа, несмотря на мега релевантный линкбилдинг. Кой где вижу выпадение недостаточно качественных страниц из ранжирования.

В целом не понравился ап.

Подготовил отчет об апе на основе докладов ведущих специалистов. Почитайте.

PS
Единственно Реддит порадовал. Помимо прямого трафа, ссылки с него достаточно интересны для ранжирования. Но лучше всеж его использовать как самостоятельную трафогенерирующую платформу.

PPS
ждем докатки апа

#DrMax #SEO #CoreUpdate #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥7💯41👏1
🟢 Некоторые фишки, всплывшие в результате Гугл апдейта

По докладам наших буржуинских коллег, всплыли некие фишки, которые привели к улучшению ранжирования. Так, например:

1. Тщательная проработка прайса у локальных компаний привели к росту трафа на 20-30%.

2. Аналогичного роста добились компании (локальные), которые вложились в всевозможные видеообзоры продукции / услуг

3. Дополнительная проработка E-E-A-T приводит к росту трафа. А именно (цитирую): "Google теперь требует явного указания авторства и подтверждения экспертизы. Добавляйте биографии авторов, ссылки на источники и сертификаты".

От себя добавлю нечто иное. Проработка не авторов, а тех кто стоит за сайтом - вот что стало еще более важным. То есть страница "О сайте", "О компании" и т.д. Что интересно, появились услуги от буржуинских SEO студий, которые за немалый прайс делают "правильные" странички "О сайте".

И немного предсказаний на 2-3 месяца ближайшие:

1. Будет дальнейшее снижение ранжирования AI-контента без человеческой редакции и/или без экспертных всевозможных вставок (см пост выше про таблицы)

2. В течение месяца предстоит ужесточение проверки ссылочного - ожидается обновления SpamBrain в апреле.

3. Предстоит дальнейшая интеграция AI Overviews в SERP, что потребует адаптации сниппетов

В целом вот так )))

#DrMax #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44💯71
☄️ Google объявляет о радикальных изменениях в алгоритмах ранжирования

Команда Google Search сегодня сделала заявление, которое, вероятно, перевернет наше понимание поисковой оптимизации. Google, похоже, готов совершить полную революцию в принципах ранжирования.

Ключевые изменения:

1. Отмена ссылочного ранжирования: объявлено, что ссылки, как фактор ранжирования, полностью упраздняются. В компании заявили, что "эра ссылочного спама и манипуляций подошла к концу". Теперь, по словам представителей Google, ранжирование будет основываться исключительно на качестве и релевантности контента, а также на пользовательском опыте. "Мы доверяем нашему искусственному интеллекту в оценке истинной ценности страницы, без устаревших показателей, как ссылочный профиль", – говорится в заявлении.

2. Вместе с упразднением ссылочного ранжирования, Google также официально отказывается от метрики PageRank. "PageRank был полезен на заре интернета, но сегодня это анахронизм. Мы переходим к более сложным и нюансированным методам оценки авторитетности и значимости ресурсов", – прокомментировали в Google. Внутренние метрики, заменяющие PageRank, останутся коммерческой тайной.

3. Новая эра релевантности: от косинусной близости к механизмам внимания. Это, пожалуй, самое фундаментальное изменение. Google заявил о переходе на принципиально новый подход к определению релевантности контента поисковому запросу. Вместо модели косинусной близости n-грамм, которая измеряла фиксированное расстояние между векторными представлениями слов, Google внедряет механизмы внимания (attention mechanisms). Если раньше релевантность определялась путем сравнения векторных представлений слов и фраз на основе косинусной близости, то теперь система будет использовать обучаемые веса, чтобы определить, как каждое слово в запросе должно "фокусироваться" на других словах в контенте, и наоборот. Механизмы внимания – это динамическая и контекстуальная система взвешивания. Она учитывает не просто наличие ключевых слов, а взаимосвязи между ними в контексте запроса и контента.

Поделитесь своим мнением в комментариях! Что это значит для будущего SEO?

P.S.
Перестаньте паниковать (пока)! Возможно, это просто первоапрельская шутка от Google... или нет? 😉

#DrMax #SEO #1Апреля
Please open Telegram to view this post
VIEW IN TELEGRAM
😁74🗿22🔥12👍75
Механизмы Внимания Google (attention mechanisms) - Часть 1.

Сегодня мы погрузимся в одну из самых захватывающих областей современного SEO – механизмы внимания (attention mechanisms). Если вы думаете, что Google по-прежнему ранжирует сайты, опираясь на простое косинусное сходство или TF-IDF, к сожалению это уже не так. Эпоха достаточно простых метрик закончилась.

Итак, долгое время считалось, что Google использует косинусное сходство (cosine similarity) для определения семантической близости между запросом пользователя и контентом страницы. Косинусное сходство – это мера угла между двумя векторами, представляющими текст, и она действительно может помочь определить, насколько похожи два текста по смыслу на поверхностном уровне. Но сейчас Google вышел за рамки простых метрик, и в основе их алгоритмов лежат механизмы внимания.

Вот ключевые различия:

Контекстуальное взвешивание, а не фиксированные расстояния: Косинусное сходство измеряет фиксированное расстояние между векторными представлениями слов или документов. Механизмы внимания, напротив, используют обучаемые веса, которые динамически определяют, насколько важно каждое слово в контексте при генерации выходного сигнала (например, при ранжировании или понимании запроса). Это не просто "похожесть", это контекстуальная значимость.

Сложные отношения, а не простая "похожесть": Косинусное сходство дает одно число – меру сходства. Механизмы внимания способны улавливать множество типов отношений одновременно через так называемые "головы внимания" (attention heads). Одна голова может фокусироваться на грамматических связях, другая – на тематических, третья – на причинно-следственных и так далее. Это позволяет нейросети видеть контент многомерно.

Обучение, а не фиксированные формулы: Косинусное сходство – это статичная формула. Механизмы внимания – это обучаемые системы. Веса, определяющие, на что "обращать внимание", выучиваются в процессе тренировки нейросети на огромных объемах данных. Google постоянно обучает свои модели, поэтому механизмы внимания становятся все более и более изощренными.

Структура и иерархия, а не плоские отношения: Косинусное сходство по сути игнорирует структуру текста. Механизмы внимания, напротив, способны улавливать структуру и иерархию контента. Они могут понять, что заголовок H1 важнее обычного текста, что абзац, посвященный определенной теме, более релевантен запросу, чем общее описание.

Как Google использует механизмы внимания в ранжировании:

🟢Понимание контекста поискового запроса: Механизмы внимания помогают Google не просто "сопоставлять" ключевые слова в запросе и на странице, а по-настоящему понимать намерение пользователя и контекст запроса. Например, для запроса "как приготовить стейк", механизм внимания может определить, что важны слова "как", "приготовить" и "стейк", но также и контекст – пользователь ищет инструкцию, а не просто определение стейка.

🟢Оценка релевантности контента: Google использует механизмы внимания для оценки релевантности страницы не только по ключевым словам, но и по смыслу, контексту и структуре. Это позволяет ранжировать страницы, которые действительно отвечают на вопрос пользователя, даже если они не идеально "оптимизированы" под конкретные ключевые слова в традиционном понимании.

🟢Анализ качества и авторитетности контента (E-E-A-T): Механизмы внимания могут помочь Google оценивать глубину, всесторонность и качество контента. Они могут анализировать связи между различными частями текста, выявлять логические несостыковки, оценивать экспертность автора по стилю изложения и связям с другими авторитетными источниками. Например, страница, где каждая часть текста логически связана с главной темой и подкреплена авторитетными ссылками, получит более высокий "вес" от механизмов внимания.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍82
2025/07/14 06:05:47
Back to Top
HTML Embed Code: