Салон свадебных платьев.docx
52.8 KB
Засилие Reddita в органике позволяет нам более высоко оценивать оную платформу для линкбилдинга. Используя ссылки с Reddit можно довольно просто добить практически любой СЧ ключ до ТОП10 и потом дожимать его более дорогими и классическими способами. Эффективность ссылок с Reddit зависит от многих факторов, включая тематику сайта, конкуренцию в нише и качество контента. Чем хороши такие ссылки - результат виден практически мгновенно (по сравнению с иными линкбилдинг стратегиями).
Не буду говорить о том, что явный спам будет сразу снесен. Модерация там лютая. И Reddit крайне негативно относится к спаму и саморекламе. Но аккуратные и качественные посты приветствуются.
Интересно, что большинство ссылок с Reddit являются nofollow, но тем не менее они отлично выстреливают. Если вам захотелось дофоллов ссылок с Reddit - то есть пара не особо публичных приемов.
1️⃣ Текстовые виджеты в сайдбаре сабреддита: Этот метод требует наличия прав модератора в релевантном сабреддите. Создайте или станьте модератором сабреддита, представляющего интерес для вашей ниши. В настройках сабреддита добавьте текстовый виджет в сайдбар и разместите в нем ссылку на свой сайт в формате простого текста (например, https://www.site.com). Важно, чтобы сабреддит был активным и генерировал трафик, тогда ссылка будет передавать вес.
2️⃣ Размещение нескольких изображений в посте: Этот метод менее известен, но может быть эффективным. При создании поста выбираете тип "Images & Videos", загружаете минимум два изображения. Редактируя второе изображение, добавляете подпись (которая будет служить анкорным текстом) и ссылку в соответствующее поле. Этот способ позволяет получить dofollow ссылку с произвольным анкором.
Встречал упоминания о размещении QR кодов или Урл акцептора в виде "водяных знаков". Ну или в углу картинки зафигачить URL акцептора. То что Гугл это распознает - 100 процентов. Но будет ли такое упоминание участвовать в ранжировании - не знаю. Нужны тесты.
В залючении скажу, прямо здесь и сейчас надо активно юзать Reddit. Завтра, вполне возможно, Гугл отключит такую фишку. Так что поспешайте.
ЗЫ.
С интентами я закончил - там разные тонкости остались - но публиковать не буду. Смысла особого нет. В комментариях разобрал еще 3 примера анализа интентов различных сайтов. Особо крупным получился разбор интентов и методов оптимизации сайта для свадебного салона ( его прилагаю). Остальные скачайте в комментариях.
#DrMax #SEO #Reddit
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥30👍9🤔3❤1
После того, как Гугл прикрыл лавочку с переиндексацией через API и наказал миллионы сайтов за этот по сути "спам", перед оптимизаторами стала проблема массовой индексации (или переиндексации) страниц сайта в условиях ограниченного бюджета сканирования.
Действительно, какой смысл создавать страницы сайта, если они не будут просканированы, проиндексированы и не попадут в выдачу. Или попадут в выдачу тогда, когда контент станет уже не актуальным.
Публикую выжимки из очередной главы книги по SEO, которую выбрасывать жалко, но книгу доделывать нет возможности.
Итак, ознакомьтесь с концепциями Crawl Rate Limit (ограничение интенсивности сканирования) и Crawl Demand (потребность в сканировании) и попробуйте применить стратегии оптимизации бюджета сканирования на практике.
Разместил в телеграфе.
#DrMax #SEO #Crawl #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🔥10❤4😁1💯1
try2.py
12.8 KB
Как известно, нынче Гугл использует семантический анализ вместо лексического. Он использует векторные вложения для понимания контекста и смысла контента, а не только ключевых слов. Это стало возможным благодаря моделям вроде BERT и SCaNN.
В прошлом году вышла статья, в коей было показано как прикрутить подобный анализ к лягушке. Но ну его нафиг использовать лягушку и OpenAi платный (хоть и копеечный), когда есть сотни обученных моделей. Собственно говоря накидался скрипт, который:
1. Запрашивает URL страницы и SEO-ключ (например, ключевое слово или фразу).
2. Извлекает основной контент страницы.
3. Генерирует векторные вложения для контента и SEO-ключа.
4. Вычисляет релевантность через косинусную схожесть векторов.
Выложил скрипт в комментариях, теперь выкладываю вот тут.
Он же скомпилированный под exe. 200 метров качать. Все библиотеки внутри. Пасс: 123
Запускается долго. Использует семантическую модель all-mpnet-base-v2.
Отдаю как есть. У меня прекрасно все работает.
#DrMax #SEO #soft
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥72👍6🆒5😁3❤1
Не все поняли для чего онный скрипт, выложенный чуть выше нужен. Рассмотрим на примере скомпилянной версии.
Вот к примеру, вы недоумеваете, почему по какому то там СЧ или НЧ ключу вы не занимаете законное первое место.
Берете этот ключ, пихаете его в выдачу и смотрите конкурентов. Копируете URL страниц конкурентов в софт в поле URL в поле ключ размещаете 1 или несколько ключей. Ну и последним добавляете в оный софт собственную страницу ( в поле URL).
Запускаете расчет и анализируете только семантику. Если косинусное сходство у конкурентов выше чем у вас - то вы пихаете в контент LSI, синонимы и такие фразы, которые будут подтверждать тематику вашей страницы. Про последний, например при ключе "строительство коттеджей", насыщаете не только и не столько статью "строительством коттеджей", а сопутствующими словами - "составление сметы строительства", "работа бетономешалки", "носите каску на стройке", "силикатный кирпич храните на поддонах". Ну и не забываем про LSI - типа "возведение стен дома", "кроем крышу" и т.д. и прямыми синонимами (немного) - типа "стройка дома".
После этого запускаем скрипт заново и смотрим насколь выросло косинусное сходство (столбец семантики). И так, в несколько иттераций добиваемся улучшения семантического соответствия контента вашим ключам.
TF-IDF выступает как мера переспама прямыми ключами и лучше держать этот показатель как средний у конкурентов ( не выше - ибо переспам).
Таким образом, используя эту софтинку вы легко повысите релевантность контента проверяемым ключам и легко поймете когда стоит остановиться и не спамим ли мы прямыми вхождениями.
Вот зачем нужна эта программулька.
ЗЫ. На НЧ ключах программулька показала 90-95% соответстве меры семантики органической выдаче. На ВЧ ключах работать не будет - ибо тут главное ссылки, а не семантика ( что не мешает подтянуть и её)
#DrMax #SEO #софт
Please open Telegram to view this post
VIEW IN TELEGRAM
👍38🔥11😁4👀2👏1
1. Добавлена гибридная релевантность (комбинация семантических (SBERT) и статистических (TF-IDF) методов). Веса сами проставляете.
2. Парсинг и усиленная зачистка HTML от мусора (скрипты, реклама, футеры, хедеры) и извлечение основного контента. Работает не идеально (ибо обучать надо на всех шаблонах сайта - а это очень долго).
3. Вывод весов для всех n-грамм.
4. Сбор всех фраз и n-грамм, зачистка от дублей и вывод в Excel (самая нужная фишка, чтобы понять за счет чего именно вылезли в ТОПЫ злобные конкуренты).
5. Работа с дублями осуществляется после стемминга - т.е. зачищает крайне хорошо и всякие словоформы и переставления слов не щадит.
6. Работает на модели all-mpnet-base-v2 - т.е. исключительно английский текст.
7. Добавил параллельные обработки текста, кэширование эмбеддингов, оптимизацию TF-IDF (обучение на всем наборе текстов) и много всего остального, дабы ускорить работу.
Поставляется "как есть". Отзывов от вас все равно не дождешся - так что пользуйтесь.
Собственно, кто будет юзать сей софт - сможет нагибать Гугл довольно просто ( по крайне мере с НЧ и СЧ). Замерял.
Окошко ввода текста юзайте при оптимизации контента и расчета его косинусности. Очень удобно и быстро, в несколько иттераций подбирается нужная релевантность. Ну или текст тех конкурентов кидайте, что не позволяют себя спарсить.
Качать здесь.
Отзывы - пишите в комментарии. Пример использования тут. Исходники не выдам.
Собственно можно и русскую версию собрать на иной модели. Но запросов нет. Так что ну его.
#DrMax #SEO #soft
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46😁11🔥9❤5👏2
Вышла вторая часть исследования уважаемого товарища Shaun Anderson по восстановлению сайтов из под HCU. Напомню, в первой части он бахвалился 2 десятками сайтов которые он разобрал на составные части и кой кому помог выйти из под HCU. Ну а в анонсированной третьей части он спалит основные методы вывода сайтов.
Во второй части его исследования:
Последнее я могу с 95% признать достоверным. Действительно, после прошлогодних майских апдейтов одним из методов вывода из под HCU было прописывание на сайте тех, кто отвечает за сам сайт в целом и верификация оных деятелей. По сути это было расширение страницы "О сайте"/ "О компании" с перечислением всех юридически значимых данных и контактов и усиленное подтверждение оного в интернете ( Гугл мой бизнес, всякие трастпилоты, значимые каталоги сайтов и прочее). То есть развитие бренда.
Смысл сего действа в том, чтобы доказать Гуглу реальность фактов и достоверность данных (гарантированное брендом и наличием оного в графе знаний), так, чтобы он мог поручиться за нас и предлагать пользователям наш контент. Это необходимое, но не единственно важное и нужное действие для вывода из под HCU.
Итак, ждем с нетерпением 3 части исследования. Ну и оставляйте свои мысли в комментариях.
#DrMax #SEO #entity #HCU
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21😁2
Продолжаю безжалостно потрошить неопубликованное. Сегодня расскажу еще немного о семантическом SEO в виде небольшой, но перспективной SEO стратегии "Создание Графа Знаний для вашего сайта".
Разместил в телеграфе, так как в пост весь контент не влезает ( хоть я его и порезал сильно,выкинув множество примеров): https://telegra.ph/Sozdanie-Grafa-Znanij-02-27
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍8🤔3❤1
Новая версия SiteAnalyzer SEO Tools 2.3!
Наш хороший товарищ и отменный программист Андрей Симагин выкатил обновление тулзы.
Что нового:
- добавлена возможность сравнения поисковой выдачи по ТОП 10-20-30 в Яндексе и Google
- добавлена возможность визуализации микроразметки Schema.org (JSON-LD)
- исправлен баг отображения рекламных блоков в Яндексе
- добавлена статистика страниц в индексе поисковой системы Bing
- оптимизирована работа модуля анализа Sitemap.xml с CMS Prestashop
- добавлена кнопка «Свернуть» для панели анализа рекламных блоков
Подробнее: https://site-analyzer.ru/articles/seo-extension-top-search/
Пожелания, отзывы и благодарности можно оставлять и в комментариях - Андрей их читает и засылать непосредственно ему.
#SEO #Soft
Наш хороший товарищ и отменный программист Андрей Симагин выкатил обновление тулзы.
Что нового:
- добавлена возможность сравнения поисковой выдачи по ТОП 10-20-30 в Яндексе и Google
- добавлена возможность визуализации микроразметки Schema.org (JSON-LD)
- исправлен баг отображения рекламных блоков в Яндексе
- добавлена статистика страниц в индексе поисковой системы Bing
- оптимизирована работа модуля анализа Sitemap.xml с CMS Prestashop
- добавлена кнопка «Свернуть» для панели анализа рекламных блоков
Подробнее: https://site-analyzer.ru/articles/seo-extension-top-search/
Пожелания, отзывы и благодарности можно оставлять и в комментариях - Андрей их читает и засылать непосредственно ему.
#SEO #Soft
🔥39👏4😁2👍1🆒1
Среди буржуйских экспертов начало всплывать несколько интересных мыслей, которые они повторяют друг за другом. Например, Сайрус Шепард высказывает гипотезу о том, что последние обновления Google, особенно так называемое HCU (helpful content update / обновление полезного контента), на самом деле были направлены против чрезмерно агрессивного SEO. Он предполагает, что Google начал наказывать сайты, которые слишком усердно оптимизируют контент, злоупотребляют внутренними ссылками, и в целом ведут себя "слишком SEO-шно". Вместо этого, Google начинает отдавать предпочтение сайтам, которые меньше фокусируются на традиционных SEO-тактиках и больше - на качестве и ценности для пользователя. Это означает, что Google стремится к более "естественному" интернету, где сайты ранжируются за реальную ценность, а не за манипуляции с алгоритмами.
При этом если ты лютый, известный бренд – то тебе дозволено все. И напротив, если ваш сайт не имеется в графе знаний – то выдавливай из себя по капле что то явно полезное.
Таким образом, Google ценит только те сайты, которые являются авторитетными в своей нише, узнаваемыми брендами. Сайты с сильным брендом, которые пользователи ищут напрямую по названию бренда, получают "иммунитет" от негативных последствий алгоритмических обновлений.
Собственно об этом известно с прошлогодних майских обновлений ядра алгоритмов Гугла. Но теперь, вместо того, чтобы фокусироваться только на ключевых словах, SEO-специалистам нужно работать над укреплением бренда, его узнаваемости и репутации. Google, по сути, переходит от ранжирования по ключевым словам к ранжированию брендов. Остальные - недостойны того, чтобы появляться в органике.
Именно поэтому те товарищи, что прокачивают свой бренд, в том числе и массовым линкбилдингом с использованием бренд – анкоров – ныне в плюсе.
Традиционные SEO-тактики, такие как внутренняя перелинковка, если их применять слишком агрессивно, могут теперь иметь обратный эффект. Исследования того же Сайруса Шепарда показали, что сайты с "плохой" внутренней перелинковкой (менее оптимизированной, менее насыщенной анкорными текстами) лучше пережили последние обновления Google, чем сайты с "хорошей" (традиционно оптимизированной) внутренней перелинковкой. Это подтверждает мысль о том, что Google стремится к "естественности" и наказывает за чрезмерную оптимизацию.
Итак, если вы не лютый бренд, если вы простой владелец проекта, то необходимо постоянно помнить о важности "опыта" (experience) и "усилий" (effort) как новых ключевых факторов, которые Google учитывает при оценке качества сайта. "Опыт" означает, что автор контента должен быть экспертом в теме, иметь реальный опыт в обсуждаемом вопросе. Это нужно демонстрировать на странице: фотографии личного опыта, описание методологии, частота публикаций на тему и т.д. "Усилия" подразумевают, что контент должен быть создан с душой, с проработкой деталей, с оригинальными исследованиями, качественным дизайном, а не просто сгенерирован AI или скопирован. Google, используя машинное обучение и данные от асессоров качества, пытается определить, сколько "усилий" было вложено в страницу, и отдает предпочтение контенту, который выглядит более качественным и проработанным.
Но бренд все равно рулит.
Итак, ключом к успеху для мелких сайтов (без лютого бренда) становится создание контента, который AI не может легко воспроизвести. Это означает фокусировку на "не масштабируемых" вещах: оригинальные исследования, уникальные данные, глубокий анализ, личный опыт, экспертное мнение, качественные сравнения. Нужно делать то, что всякие боты не умеют - создавать контент, требующий реальных усилий, экспертизы и уникальной ценности. Вместо того, чтобы конкурировать с AI в масштабах, нужно дифференцироваться за счет глубины и качества.
Но бренд (и ссылочное) все равно важней )))
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44🔥9🤔6👏3🆒1
Грозят за 2 недели апнуть. Кстати, Последние 3-4 года стабильно в марте был Core апдейт.
#DrMax #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👍10
Есть очень простой метод, позволяющий практически мгновенно понять почему выпала из выдачи та или иная страница (попало в просканировано, но не проиндексировано в GSC).
Собственно тут 2 самых распространенных случая: первый негодный контент, второй - нелепая структура сайта. Собственно, разбирали всё это выше.
Для оценки контента берем любой визуализатор n-грамм (их море, самых разнообразных), например вот это расширение для Хрома или примочку Андрея Симагина (там триграммы можно анализировать) и смотрим на 3 или 4 граммы контента выпавшей страницы. Потом сравниваем с 3-4-граммами ТОП 1-2. И если дело в контенте вы сразу увидите:
1. Мощнейшее расхождение n-грамм вашего контента и лидеров ТОПа
2. Недооптимизацию контента по нужным n-граммам (этим крайне грешит генеренка всякими ИИ ботами, на чем и палится перед гуглом)
Если содержание и плотность n-грамм примерно соответствует лидерам, то дело в недополучении "ссылочного сока" - проверяем уровень вложения этой страницы.
Если уровень вложения не особо велик - то идем по пунктам, что расписывал выше (первая ссылка в посте).
Наличие значительного количества страниц типа "прсканировано, но не проиндексированно" - явный признак болезни сайта. А их рост в период апа свидетельствует о значительных проблемах, которые наверняка приведут к падению трафика.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥8
Если страница недостаточно качественная, выпала, не ранжируется, плохо ранжируется - то есть простейший прием улучшить её качество в глазах Гугла.
Берем контент страницы, скармливаем любому ИИ, просим проанализировать контент и на основе анализа составить таблицу.
Ну например у нас страница с описанием "красных сапог". Просим чат-бот свести потребительские свойства оной обуви в отдельную таблицу. Кою потом впихиваем в контент (с заголовками естественно). Или описание какого то там шуруповерта. Опять просим сгенерировать таблицу с описанием уникальных функций оного девайса. И опять таки пихаем эту таблицу в контент.
Гугл категорически положительно относится ко вского рода аналитике, чем и является оная таблица. При некоторм везении, данные из этой таблицы могут попасть в расширенный сниппет выдачи, что явно увеличит "яркость" сниппета в выдаче.
Еще одним положительным моментом является разбавление самого контента этими таблицами. Даже если он не особо качественный, то встраивание таких таблиц явно пойдет ему на пользу.
Этот метод можно юзать как отдельно, но лучше, конечно, в комплексе с остальными приемами повышения качества контента.
Таким образом, практически мгновенно, можно несколько улучшить качество практически любого вашего контента.
Пробуйте. Это просто и очень быстро.
#DrMax #SEO #Google #Content
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥57👍22❤5👀3
Почему проиндексированные страницы не попадают в выдачу
Собственно это началось после прошлогоднего майского апдейта. Наличие страницы в числе проиндексированных вовсе не означает их ранжирование на любых позициях. То есть, иногда, Гугл вообще не добавляет проиндексированные страницы в выдачу.
Ранее я уже расписал как с таким бороться. Напомню. Необходимо периодически пересканировать сайт той же лягушкой и, используя API GSC делать выгрузки показов/ кликов для каждой страницы. Если страница проиндексирована, но показов за период (например месяц) нет, то оную страницу нужно реанимировать (изменять / объединять / удалять), ибо значительное количество таких страниц снижают общее качество сайта.
Просматриваю прессу, обнаружил, что к этой проблеме обратились спустя почти год после её возникновения. Читать можно вот тут.
Собственно важных там 2 замечания:
и
по сути необходимо работать не только с выпавшими из индекса страницами, но и со страницами, которые не попадают в выдачу, будучи проиндексированными.
#DrMax #SEO #Google
Собственно это началось после прошлогоднего майского апдейта. Наличие страницы в числе проиндексированных вовсе не означает их ранжирование на любых позициях. То есть, иногда, Гугл вообще не добавляет проиндексированные страницы в выдачу.
Ранее я уже расписал как с таким бороться. Напомню. Необходимо периодически пересканировать сайт той же лягушкой и, используя API GSC делать выгрузки показов/ кликов для каждой страницы. Если страница проиндексирована, но показов за период (например месяц) нет, то оную страницу нужно реанимировать (изменять / объединять / удалять), ибо значительное количество таких страниц снижают общее качество сайта.
Просматриваю прессу, обнаружил, что к этой проблеме обратились спустя почти год после её возникновения. Читать можно вот тут.
Собственно важных там 2 замечания:
страницы, попавшие на этап индексации, все равно должны конкурировать на этапе ранжирования, чтобы успешно появиться в результатах.
и
Вам следует взглянуть на свой контент, поскольку весьма вероятно, что он не приносит большой пользы с точки зрения входящих запросов, и именно поэтому он не отображается в результатах поиска
по сути необходимо работать не только с выпавшими из индекса страницами, но и со страницами, которые не попадают в выдачу, будучи проиндексированными.
#DrMax #SEO #Google
🔥20👍3❤1
Об использовании n-грамм для внутренней перелинковки
Вышла статья об использовании n-грамм в целях внутренней перелинковки. Предлагается юзать лягушку (есть на рутрекере, тем кто не может прикупить лицензию) для поиска наиболее подходящих страниц для простановки внутренних ссылок.
Собственно, этой теме десятки лет. Ранее использовали конструкцию в Гугле :
дабы найти наиболее подходящие страницы для добавления ссылок внутренней перелинковки, теперь вот лягушку предлагают юзать.
Кто будет читать статью - обратите внимание на ссылку на патент гугловский, где обсуждается использование n-грамм для определения качества сайта.
#DrMax #Google
Вышла статья об использовании n-грамм в целях внутренней перелинковки. Предлагается юзать лягушку (есть на рутрекере, тем кто не может прикупить лицензию) для поиска наиболее подходящих страниц для простановки внутренних ссылок.
Собственно, этой теме десятки лет. Ранее использовали конструкцию в Гугле :
[поисковая фраза] site:domain.com
дабы найти наиболее подходящие страницы для добавления ссылок внутренней перелинковки, теперь вот лягушку предлагают юзать.
Кто будет читать статью - обратите внимание на ссылку на патент гугловский, где обсуждается использование n-грамм для определения качества сайта.
#DrMax #Google
👍19❤7🔥4
В комментах попросили показать как это работает на практике. Вопрос довольно странный. Ну для примера - взял первую попавшуюся страничку по SEO и смастерил такую табличку с использованием Gemeni + Deep Resersh, скормив контент страницы оной Gemeni и попросив пояснить значимость H1 и H2
Далее, используем"перевернутую пирамиду" контента, Размещаем введение, потом оную таблицу, а далее расписываем сам контент. Вроде все просто.
#DrMax #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22❤8🔥8
Вчера завершился мартовский апдейт Гугла. Ну что сказать - крайне паскудное обновление, достаточно бесполезное для большинства небольших сайтов, а для некоторых весьма вредное.
На контролируемых проектах кой где есть небольшой рост трафа (20-30%), при этом абсолютно несопоставимый с приложенными усилиями.
На ряде проектов наблюдаю некое снижение трафа, несмотря на мега релевантный линкбилдинг. Кой где вижу выпадение недостаточно качественных страниц из ранжирования.
В целом не понравился ап.
Подготовил отчет об апе на основе докладов ведущих специалистов. Почитайте.
PS
Единственно Реддит порадовал. Помимо прямого трафа, ссылки с него достаточно интересны для ранжирования. Но лучше всеж его использовать как самостоятельную трафогенерирующую платформу.
PPS
ждем докатки апа
#DrMax #SEO #CoreUpdate #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥7💯4❤1👏1
По докладам наших буржуинских коллег, всплыли некие фишки, которые привели к улучшению ранжирования. Так, например:
1. Тщательная проработка прайса у локальных компаний привели к росту трафа на 20-30%.
2. Аналогичного роста добились компании (локальные), которые вложились в всевозможные видеообзоры продукции / услуг
3. Дополнительная проработка E-E-A-T приводит к росту трафа. А именно (цитирую): "Google теперь требует явного указания авторства и подтверждения экспертизы. Добавляйте биографии авторов, ссылки на источники и сертификаты".
От себя добавлю нечто иное. Проработка не авторов, а тех кто стоит за сайтом - вот что стало еще более важным. То есть страница "О сайте", "О компании" и т.д. Что интересно, появились услуги от буржуинских SEO студий, которые за немалый прайс делают "правильные" странички "О сайте".
И немного предсказаний на 2-3 месяца ближайшие:
1. Будет дальнейшее снижение ранжирования AI-контента без человеческой редакции и/или без экспертных всевозможных вставок (см пост выше про таблицы)
2. В течение месяца предстоит ужесточение проверки ссылочного - ожидается обновления SpamBrain в апреле.
3. Предстоит дальнейшая интеграция AI Overviews в SERP, что потребует адаптации сниппетов
В целом вот так )))
#DrMax #Google #CoreUpdate
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44💯7❤1
Команда Google Search сегодня сделала заявление, которое, вероятно, перевернет наше понимание поисковой оптимизации. Google, похоже, готов совершить полную революцию в принципах ранжирования.
Ключевые изменения:
1. Отмена ссылочного ранжирования: объявлено, что ссылки, как фактор ранжирования, полностью упраздняются. В компании заявили, что "эра ссылочного спама и манипуляций подошла к концу". Теперь, по словам представителей Google, ранжирование будет основываться исключительно на качестве и релевантности контента, а также на пользовательском опыте. "Мы доверяем нашему искусственному интеллекту в оценке истинной ценности страницы, без устаревших показателей, как ссылочный профиль", – говорится в заявлении.
2. Вместе с упразднением ссылочного ранжирования, Google также официально отказывается от метрики PageRank. "PageRank был полезен на заре интернета, но сегодня это анахронизм. Мы переходим к более сложным и нюансированным методам оценки авторитетности и значимости ресурсов", – прокомментировали в Google. Внутренние метрики, заменяющие PageRank, останутся коммерческой тайной.
3. Новая эра релевантности: от косинусной близости к механизмам внимания. Это, пожалуй, самое фундаментальное изменение. Google заявил о переходе на принципиально новый подход к определению релевантности контента поисковому запросу. Вместо модели косинусной близости n-грамм, которая измеряла фиксированное расстояние между векторными представлениями слов, Google внедряет механизмы внимания (attention mechanisms). Если раньше релевантность определялась путем сравнения векторных представлений слов и фраз на основе косинусной близости, то теперь система будет использовать обучаемые веса, чтобы определить, как каждое слово в запросе должно "фокусироваться" на других словах в контенте, и наоборот. Механизмы внимания – это динамическая и контекстуальная система взвешивания. Она учитывает не просто наличие ключевых слов, а взаимосвязи между ними в контексте запроса и контента.
Поделитесь своим мнением в комментариях! Что это значит для будущего SEO?
P.S.
Перестаньте паниковать (пока)! Возможно, это просто первоапрельская шутка от Google... или нет? 😉
#DrMax #SEO #1Апреля
Please open Telegram to view this post
VIEW IN TELEGRAM
😁74🗿22🔥12👍7❤5
Сегодня мы погрузимся в одну из самых захватывающих областей современного SEO – механизмы внимания (attention mechanisms). Если вы думаете, что Google по-прежнему ранжирует сайты, опираясь на простое косинусное сходство или TF-IDF, к сожалению это уже не так. Эпоха достаточно простых метрик закончилась.
Итак, долгое время считалось, что Google использует косинусное сходство (cosine similarity) для определения семантической близости между запросом пользователя и контентом страницы. Косинусное сходство – это мера угла между двумя векторами, представляющими текст, и она действительно может помочь определить, насколько похожи два текста по смыслу на поверхностном уровне. Но сейчас Google вышел за рамки простых метрик, и в основе их алгоритмов лежат механизмы внимания.
Вот ключевые различия:
Как Google использует механизмы внимания в ранжировании:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍8❤2