#DrMax #Google #SEO #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍6❤4
Подтверждение использования механизмов внимания:
Теоретические выводы:
В эпоху механизмов внимания, SEO-стратегия должна сместиться от "оптимизации под ключевые слова" к созданию контента, который действительно отвечает на вопросы пользователей, является экспертным, авторитетным и легко воспринимаемым.
#DrMax #Google #SEO #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24🔥5❤2
Стратегия SEO.pdf
583 KB
Существует стратегия оптимизации под механизмы внимания. Если приводить подробно, то очень обширно выходит. Сократил до основных пунктов:
1. Определение онтологической области бизнеса или сайта
Фундаментальное определение сути бизнеса/сайта. На этом этапе мы определяем ключевую область экспертизы. Механизмы внимания Google лучше "понимают", о чем сайт, когда есть четко очерченная тематическая область. Это помогает Google идентифицировать сайт как экспертный в определенной нише.
2. Определение сущностей, связанных с онтологической областью (Entity Definition).
Определение сущностей помогает Google понять семантическую сеть, окружающую ключевую тему.
3. Сбор поисковых запросов с использованием Google как инструмента (Query Harvesting).
Инструментами служат: Фильтры тем (Topic Filters), блок "Люди также спрашивают", блок "Люди также ищут" (People Also Search For - PASF), теги изображений в Google Картинках, автозаполнение. Инструменты для сбора поисковых подсказок: Ahrefs, Semrush, Serpstat, AnswerThePublic и т.д.
4. Анализ извлечения именованных сущностей (Named Entity Recognition - NER).
После сбора запросов, проводим NER-анализ, чтобы уточнить и расширить список сущностей. Инструменты NER (Google Cloud Natural Language API, spaCy, NLTK) автоматически идентифицируют и классифицируют именованные сущности в тексте запросов. Ручная верификация и дополнение результатов NER критически важны.
5. Определение таксономии на основе поиска сущностей (Entity-Based Taxonomy).
На основе собранных и проанализированных сущностей, мы разрабатываем таксономию – иерархическую структуру категорий и подкатегорий контента.
6. Анализ поисковых путей целевой аудитории (Search Journey Analysis).
Анализируем поисковые пути целевой аудитории, разделяя их на этапы
7. Кластеризация фаз поисковых путей через внутреннюю перелинковку (Internal Linking for Topical Authority).
8. Анализ векторных представлений (embeddings) и косинусной близости (cosine vicinity) для выявления пробелов в контенте.
Хоть и малость устарело - но пока нет иных доступных механизмов
9. Обновление существующего и создание нового контента с учетом салиентности сущностей и ясности языка (Content Creation & Optimization).
10. Форматы контента и анализ SERP (Content Formats & SERP Analysis).
Анализируйте SERP для целевых запросов, чтобы определить форматы контента, которые Google предпочитает ранжировать (статьи-руководства, списки "Топ-10”, Видео и т.д.)
Скормил стратегию Гугл АИ Студии и попросил на её основе написать стратегию для популярного веломагазина velobike.by )) опираясь только на открытые данные. Как заготовка - пойдет )))
Стратегия во вложении.
#DrMax #Google #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
👍33🤔8🔥5❤2
Стратегия механизмов внимания.docx
32 KB
на примере спец кофейни.
#DrMax #entity #attention_mechanisms
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥6🗿4😁2
Собственно говоря, в чистом виде мне эта стратегия не нужна. Переделал её под анализ одиночных страниц сайта. Ну и для переписывания оных.
Разбил всю работу промпта на 4 этапа.
На первом - сбор информации (первоначальные данные подсовываю). Это пункты 1-6 стратегии, переделанные под одиночную страницу.
На втором этапе происходит эмуляция анализа векторных представлений (embeddings) и косинусной близости (cosine vicinity) для выявления пробелов в контенте (пункт 8). Работа ИИ в этом пункте вызывает настоящий душевный трепет. Он препарирует что там все насобирал и предлагает кучу нового. И поясняет все в реальном времени.
Третий этап - пункты 9 и частично 10. Генерация результат по установленным правилам ( у меня там список из 30+ пунктов).
Четвертый этап - проверка и зачистка результатов 3 этапа.
Для работы использую Vertex AI - демку на 90 дней. По сути это тот же Google AI Studio, только более профессиональная и платная.
Модель Gemeni 2.5 Pro
Крайне рекомендую всеж присмотреться к выложенной в прошлом посте модели внимания и прикрутить её хотя бы к одиночным страницам контента.
Контент выходит потрясающий. Точно пока сказать не могу - но плюсует в ТОПе однозначно ( с 7-8 места, например на 4-5), что для внутренней оптимизации весьма хорошо.
Забыл добавить, на основе исследования я тут же многоуровневую микроразметку делаю с полным описанием сущностей и связей. И вкрячиваю для страниц. Никогда не видел таких мега объемных микроразметок.
Затратно по времени выходит правда )))
Но буду тестировать дальше.
#DrMax #attention_mechanisms #Google #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍33🔥6😁3🗿2💯1
Переписывание сниппетов в Гугле и косинусное сходство
Итак, как известно Google игнорирует заданные вручную мета-описания и генерирует свои собственные в большинстве случаев. Исследования (Ahrefs, Portent) показывают, что это происходит примерно в 60-70% случаев. Google делает это, чтобы предоставить пользователю наиболее релевантный фрагмент контента в ответ на его конкретный поисковый запрос.
Помимо поиска лучшего соответствия запросу, Google может переписать description, если он отсутствует, слишком короткий, неинформативный, спамный или дублируется на других страницах.
Уже устаревшее, но все еще бодрое "косинусное сходство" из за легкости его расчетов стали пихать куда угодно. Вышла статья, где оное сходство предлагают для реализации предсказания из какого куска контента Гугл перепишет статью.
Итак, источник - контент страницы: Google формирует эти автоматические описания (сниппеты), используя предложения и фрагменты текста, уже находящиеся на самой веб-странице.
Статья выдвигает технически обоснованную гипотезу (устаревшую лет на 5 ), что Google использует современные AI/NLP технологии. Предполагается, что текст на странице и поисковый запрос переводятся в векторные представления (embeddings) - числовые векторы, отражающие семантический смысл. Затем вычисляется косинусное сходство (cosine similarity) между вектором запроса и векторами предложений на странице. Предложение с максимальным сходством (т.е. наиболее семантически близкое к запросу) выбирается для формирования сниппета.
Метод прогнозирования таков:
🟢 Анализируются популярные запросы для страницы (из Google Search Console).
🟢 Текст страницы разбивается на предложения.
🟢 С помощью инструментов (в их случае - собственного скрипта на базе Google Apps Script и Google text embedding engine) рассчитывается косинусное сходство между каждым запросом и каждым предложением.
🟢 Предложение с наивысшим баллом сходства идентифицируется как наиболее вероятный кандидат в мета-описание для данного запроса.
Заявленная стратегическая ценность подхода:
🟢 Оптимизация под CTR: Выявив и улучшив "кандидатов" в сниппеты, можно повысить их релевантность и привлекательность, что ведет к росту кликабельности (CTR).
🟢 Улучшение релевантности контента: Анализ помогает понять, как Google интерпретирует содержание страницы относительно ключевых запросов, и направить усилия по оптимизации контента в нужное русло.
🟢 Новые идеи для контента: Понимание соответствия "запрос-предложение" может дать идеи для создания нового контента или доработки существующего.
Статья выложена вот тут.
Итак, как известно Google игнорирует заданные вручную мета-описания и генерирует свои собственные в большинстве случаев. Исследования (Ahrefs, Portent) показывают, что это происходит примерно в 60-70% случаев. Google делает это, чтобы предоставить пользователю наиболее релевантный фрагмент контента в ответ на его конкретный поисковый запрос.
Помимо поиска лучшего соответствия запросу, Google может переписать description, если он отсутствует, слишком короткий, неинформативный, спамный или дублируется на других страницах.
Уже устаревшее, но все еще бодрое "косинусное сходство" из за легкости его расчетов стали пихать куда угодно. Вышла статья, где оное сходство предлагают для реализации предсказания из какого куска контента Гугл перепишет статью.
Итак, источник - контент страницы: Google формирует эти автоматические описания (сниппеты), используя предложения и фрагменты текста, уже находящиеся на самой веб-странице.
Статья выдвигает технически обоснованную гипотезу (устаревшую лет на 5 ), что Google использует современные AI/NLP технологии. Предполагается, что текст на странице и поисковый запрос переводятся в векторные представления (embeddings) - числовые векторы, отражающие семантический смысл. Затем вычисляется косинусное сходство (cosine similarity) между вектором запроса и векторами предложений на странице. Предложение с максимальным сходством (т.е. наиболее семантически близкое к запросу) выбирается для формирования сниппета.
Метод прогнозирования таков:
Заявленная стратегическая ценность подхода:
Статья выложена вот тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19😁3
Переписывание сниппетов в Гугле и косинусное сходство (часть 2)
Несмотря на частые перезаписи, качественное, уникальное и релевантное мета-описание все еще крайне важно. Оно используется примерно в 30-40% случаев (особенно для "главных" запросов), отображается при репостах в соцсетях (если нет og:description) и задает основное сообщение страницы.
Собственно говоря, реализовать платную хреновину авторов статьи весьма просто. Метод, описанный в статье (вычисление косинусного сходства), может быть воспроизведен с использованием общедоступных NLP-библиотек (например, на Python) и моделей для генерации эмбеддингов (Sentence Transformers, OpenAI API, Google AI API и т.д.), не ограничиваясь их жутко пропиаренным проприетарным скриптом для гугл шитсов.
Ежели кому надо - могу переделать скрипт по вычислению косинусного сходства, который выкладывал ранее, под эту задачу. Уведомляйте в комментариях.
#DrMax #SEO
Несмотря на частые перезаписи, качественное, уникальное и релевантное мета-описание все еще крайне важно. Оно используется примерно в 30-40% случаев (особенно для "главных" запросов), отображается при репостах в соцсетях (если нет og:description) и задает основное сообщение страницы.
Собственно говоря, реализовать платную хреновину авторов статьи весьма просто. Метод, описанный в статье (вычисление косинусного сходства), может быть воспроизведен с использованием общедоступных NLP-библиотек (например, на Python) и моделей для генерации эмбеддингов (Sentence Transformers, OpenAI API, Google AI API и т.д.), не ограничиваясь их жутко пропиаренным проприетарным скриптом для гугл шитсов.
Ежели кому надо - могу переделать скрипт по вычислению косинусного сходства, который выкладывал ранее, под эту задачу. Уведомляйте в комментариях.
#DrMax #SEO
👍39❤6👀3😁2
Софт для расчета релевантности контента косинусным методом.
Встроена поддержка русского и английского
Встроены 4 модели (первая в конфигурации - английская, 2-4 - мультиязычные)
Как работать.
После запуска доооооолго ждем подгрузки модели (гиг в среднем каждая) и всяческого прочего. Не паникуем. Загружается только 1 раз все. После загрузки:
1. Идем в конфигурацию и выбираем язык и модель
2. Добавляем URL для анализа
3. Добавляем ключи
4. Жмем Старт
Смотрим, какой из URL вылезает в ТОПы за счет контента (макс косинусность и гибрид)
Если желаем посмотреть за счет каких фраз вылезает -
1. жмем "Расчет фраз"
2. Долго ждем
3. По завершению - жмем Сохранить и выгружаем в эксель
Там на первом листе собраны все важные фразы (верхняя строчка настройки )
На последующих лежат n-грамы (нижняя строчка настройки) - отсортированы в порядке уменьшения косинусности
Забираем n-граммы и встраиваем релевантно в текст, после чего радуемся
ОГРАНИЧЕНИЯ ДЕМО: в русской версии n-граммы выводятся в стемированном виде (не восстановлены до текста)
Качать софт тут (5 дней доступно)
Пароль: 123
Все обсуждения - только в комментариях!!!!!!
#DrMax #Софт
Встроена поддержка русского и английского
Встроены 4 модели (первая в конфигурации - английская, 2-4 - мультиязычные)
Как работать.
После запуска доооооолго ждем подгрузки модели (гиг в среднем каждая) и всяческого прочего. Не паникуем. Загружается только 1 раз все. После загрузки:
1. Идем в конфигурацию и выбираем язык и модель
2. Добавляем URL для анализа
3. Добавляем ключи
4. Жмем Старт
Смотрим, какой из URL вылезает в ТОПы за счет контента (макс косинусность и гибрид)
Если желаем посмотреть за счет каких фраз вылезает -
1. жмем "Расчет фраз"
2. Долго ждем
3. По завершению - жмем Сохранить и выгружаем в эксель
Там на первом листе собраны все важные фразы (верхняя строчка настройки )
На последующих лежат n-грамы (нижняя строчка настройки) - отсортированы в порядке уменьшения косинусности
Забираем n-граммы и встраиваем релевантно в текст, после чего радуемся
ОГРАНИЧЕНИЯ ДЕМО: в русской версии n-граммы выводятся в стемированном виде (не восстановлены до текста)
Качать софт тут (5 дней доступно)
Пароль: 123
Все обсуждения - только в комментариях!!!!!!
#DrMax #Софт
👍50🔥11😁2
"SEO Релевантность 2" представляет собой мощный инструмент для анализа текстового контента с целью оценки его соответствия заданным ключевым словам.
Основная цель программы - помочь SEO-специалистам и владельцам сайтов в оптимизации контента для повышения его видимости в поисковых системах. Она позволяет не только оценить семантическую и статистическую релевантность текста, но и выделить ключевые фразы, которые наиболее близки к заданным запросам.
Задачи программы включают загрузку и очистку текстового контента с веб-страниц или пользовательского ввода, вычисление релевантности с использованием гибридного подхода (TF-IDF и семантические модели), а также генерацию длинных фраз и n-грамм. Программа анализирует как основной контент, так и мета-теги (title и h1), предоставляя комплексную картину соответствия текста ключевым словам.
Одной из ключевых особенностей программы является использование современных семантических моделей, таких как SentenceTransformer, что позволяет учитывать не только точные вхождения слов, но и их смысловые связи. Гибридный подход, сочетающий TF-IDF и семантический анализ, делает оценку релевантности более точной и адаптивной. Пользователь может настроить веса этих методов, выбирая баланс между статистической точностью и семантической глубиной.
Дополнительной особенностью является поддержка многопоточности для ускорения обработки больших объемов текста, а также кэширование результатов для повторных вычислений. Программа автоматически определяет язык текста (например, русский или английский) и адаптируется к нему, что делает её универсальной для работы с многоязычным контентом.
Преимущества программы заключаются в её гибкости и удобстве. Пользователь может задавать параметры, такие как порог сходства, количество фраз и разделители, что позволяет адаптировать анализ под конкретные задачи. Результаты можно сохранить в Excel, включая частотный анализ n-грамм, что упрощает дальнейшую работу с данными. Программа также отличается высокой точностью очистки текста от ненужных элементов (скриптов, рекламы), благодаря настраиваемому уровню очистки - "усиленный" или "легкий". Ещё одно преимущество - это возможность работы как с веб-страницами, так и с произвольным текстом, что делает инструмент универсальным.
В целом, "SEO Релевантность 2" - это инструмент, который сочетает в себе передовые технологии анализа текста, интуитивно понятный интерфейс и практическую направленность, помогая создавать контент, который лучше ранжируется в поисковых системах и отвечает потребностям аудитории.
1. Скачать программу [доступно 14 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe
Донаты: Сказать спасибо.
Завтра запишу видео как правильно настраивать и работать с софтом.
#DrMax #SEO #Софт
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56👍9❤8🆒5💯1
Media is too big
VIEW IN TELEGRAM
В первой части рассказываю как проводить разведку конкурентов, семантическую оценку их контента в плане соответствия продвигаемым ключам и как оптимизировать собственный контент под недооптимизированные ключи.
Описание программы: ознакомиться здесь
Установка софта:
1. Скачать программу [доступно 7 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe
Донаты: Сказать спасибо.
Завтра (возможно) запишу видео как правильно работать с фразами и покажу несколько интересных приемов. Все будет зависить от того, нужна ли вообще вам эта софтинка и не зря ли я тут трачу время.
#DrMax #video #soft
Please open Telegram to view this post
VIEW IN TELEGRAM
👍103🔥33❤16👏3😁1
🧩 SEO Релевантность 2.1 и генерация сниппетов
Помните, неделю назад рассказывал про ловкачей, которые находят своим софтом места в контенте, из которых генерируется сниппет в Гугле. За большие деньги, между прочим. Так в нашей софтине это все есть из коробки.
1. Добавляем URL страницы своего сайта для анализа
2. Из GSC (консоли гугла) выдираем список ключей по которым ранжируется эта страница
3. Снижаем кол-во фраз до 3 ( больше и не надо)
4. Идем в конфигурацию и снимаем все галки с n-грамм (не нужны они для расчета)
5. Жмем кнопку "Расчет фраз"
6. В поле "Длинные фразы" получаем предполагаемые куски контента, из которых Гугл будет генерировать сниппет при переписывании оного.
Как и куда вы это будете использовать - дело ваше. Но, видимо штука нужная, раз пользуется спросом в буржунете.
А как вы используете софтинку? Пишите в комментариях.
Описание программы: ознакомиться здесь
Установка софта:
1. Скачать программу [доступно 7 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe
Донаты: Сказать спасибо.
#DrMax #софт #Google
Помните, неделю назад рассказывал про ловкачей, которые находят своим софтом места в контенте, из которых генерируется сниппет в Гугле. За большие деньги, между прочим. Так в нашей софтине это все есть из коробки.
1. Добавляем URL страницы своего сайта для анализа
2. Из GSC (консоли гугла) выдираем список ключей по которым ранжируется эта страница
3. Снижаем кол-во фраз до 3 ( больше и не надо)
4. Идем в конфигурацию и снимаем все галки с n-грамм (не нужны они для расчета)
5. Жмем кнопку "Расчет фраз"
6. В поле "Длинные фразы" получаем предполагаемые куски контента, из которых Гугл будет генерировать сниппет при переписывании оного.
Как и куда вы это будете использовать - дело ваше. Но, видимо штука нужная, раз пользуется спросом в буржунете.
А как вы используете софтинку? Пишите в комментариях.
Описание программы: ознакомиться здесь
Установка софта:
1. Скачать программу [доступно 7 дней для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe
Донаты: Сказать спасибо.
#DrMax #софт #Google
🔥39👍10❤4💯1🆒1
Недавно я рассказывал как нарастить "качество" контента таблицами и приводил примеры. Вообще суть в методы - в создании аналитики, которую так любит (по словам Мюллера) Гугл. И страницы со всякой такой аналитикой гугл не сразу признает генеренкой или там некачественным контентом, а даст шансы поранжироваться. Вообще, чем больше всякого - разного есть в контенте, тем больше усилий (якобы) вы затратили на его создание и тем больше возможностей для ранжирования предоставит Гугл (якобы).
Нынче мы будем создавать, так любимую гуглом инфографику.
Для этого берем чат бота поумней (я юзаю Vertex AI с последней моделью Гемени 2.5.), скармливаем ему контент и просим нарисовать диаграмму для Mermaid (написать код). В приложенном скрине такая диаграмма получилась из вот этого текста, попросил сделать код в стиле MindMap.
Потом оный код закидываем в Mermaid и тут же выгружаем картинку с нужными разрешениями /размерами.
Стилей диаграмм там немало. Есть из чего выбирать. При настройке процесса обновление контента занимает пару -тройку минут.
Да, заодно в промпте для ИИ просим сгенерачить название картинки, SEO оптимизированный alt-текст ну и Подпись для картинки.
Собственно все очень просто, быстро и результативно.
Пользуйтесь
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🔥12❤7😁1
Тут в комментариях задают вопросы - а чего это софтина не считает мне, сколь нужно фраз воткнуть в контент, дабы оно стало семантически релевантным конкурентам. Мол непонятно, 5 надо фраз воткнуть или там 12.
Нет, друзья, семантическая релевантность так не работает. Она не зависит прямо от числа вхождений фраз. Косинусная схожесть контента и ключа зависит от того, где и как расположена фраза, кто её соседи по контенту, как она встроена.
Давайте проведем простейший эксперимент. Нашел по ключу "кирпичный завод" статью в Комсомолке и запихал её кусок в текстовое поле программы. А теперь возьмем ключ "кирпичный завод" и начнем его пихать в разные места контента, не меняя контент.
Как мы видим от места пихания и того как мы встроили в контент оный ключ, семантическая релевантность ощутимо меняется. При этом, если посмотреть на количественный параметр релевантности (TFIDF), то он неизменен при однократном пихании ключа в контент.
Таким образом, нельзя уверенно сказать, сколько близких фраз, полученных в результате расчета программы, надо запихать в текст. Это не количественная оценка, а скорее качественная. Поэтому, добавляйте в контент фразы (встраивайте правильно, не спамно и органично) и пересчитывайте заново семантическую релевантность, используя текстовое поле программы.
Экспериментируйте. У вас есть все для этого.
Описание программы: ознакомиться здесь
Установка софта:
1. Скачать программу [доступно 2 дня для скачивания]
2. Распаковать в произвольное место [Пароль: 123]
3. Запустить Rele2-1.exe
Донаты: Сказать спасибо.
ЗЫ.
Отменил запись 2 части обзора софта, из за крайне низкого интереса к софту. Собственно и обновлять более не планирую, ибо функционал для меня избыточен, мне хватало и первой версии скрипта, исходный код коего я выкладывал ранее.
ЗЗЫ.
На все требования о создании обширной документации (кои есть в комментах) и прочей поддержки - ничего такого не будет. Используйте как есть.
#DrMax #SEO #софт
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤34👍14😁6🔥1🆒1
Как вы думаете, влияют ли структурированные данные (микроразметка) на ранжирование в Гугле? 🤓
Final Results
75%
Думаю ДА
25%
Однозначно НЕТ
🤔2
Недавно рассказывал вам про таблицы и диаграммы, добавляемые в контент, кои могут помочь с ростом его качества. Следующим приемом является генерация ИИ FAQ по контенту страницы.
Скармливаем страницу ( или ссылку страницы, если ИИ имеет доступ к интернету) и просим его сгенерировать FAQ. Но и тут есть небольшая хитрость. В раздел вопросов и ответов необходимо добавить несколько перефразированных, но семантически близких вопросов (и ответов) из блока PAA (люди также спрашивают / вопросы по теме), который судя по Семраш сенсору выводится в половине всех запросов.
В итоге получаем промпт типа:
"Напиши FAQ раздел (8 вопросов и ответов) на английском. Вопросы должны быть уникальными, полезными, интересными и неожиданными и касаться проанализированного контента, а ответы должны быть лаконичными и достоверными. Среди них сделай 3 типичных вопроса и ответа, что обычно выводятся в блоках PPA в выдаче Google.
Можно попросить сгенерировать и микроразметку под этот FAQ.
Итак, помимо того, что мы набиваем контент дополнительными ключами, мы можем с некоторой долей вероятности попасть в блок "люди тоже спрашивают", что повысит яркость продвигаемого сайта в органической выдаче. Прием простейший, но довольно полезный.
#DrMax #SEO #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥42👍12❤8😁1🆒1
Вышла новая статистика о том, что:
Поиск OpenAI ChatGPT имел 41,3 млн среднемесячных пользователей по всему ЕС с октября по март. Это почти в 4 раза больше, чем за предыдущий шестимесячный период, когда сообщалось о 11,2 млн пользователей.
Таким образом мы наблюдаем четырехкратный рост за этот период, что весьма хорошо. Действительно, если пару месяцев назад я наблюдал единичные заходы с оного чата, то теперь их несколько больше (см скрин).
Да, это не батюшка - Гугл, и даже не прямые заходы по бренду и даже не Бинг с иными чудоковатыми ПС типа яшки или дюкдюка. Но тем не менее, тенденция роста наблюдается и глупо не попытаться увеличить этот поток поиска. Кроме того там и Grok и Перплексити на подходе.
Теперь про оптимизацию.
Тут в комментариях носы начали морщить на совет внедрять FAQ разметку. Мол не комильфло, устарело да и никто не читает. Так вот, судя по всему ко мне большая часть этих кренделей с ЧатГПТ пришла именно из за нормального FAQ. На данный момент принципами оптимизации под него я для себя вывел:
Собственно ничего иного и не нужно.
#DrMax #ChatGPT #SEO
Please open Telegram to view this post
VIEW IN TELEGRAM
👍44👏3😁2❤1