SEO_PYTHON_2NEURON Telegram 107
Как массово освежить evergreen контент для блога – пошаговая инструкция?

К нам пришёл на продвижение сайт крупного маркетингового агентства.

Первое что я сделал - полез в Яндекс метрику посмотреть какие странички на данный момент генерируют трафик. Само-собой, это блог, но странички которые паровозят траф, зачастую датируются периодом 2014-2020г. Актуальность материалов тоже не всегда отвечает веяниям времени.

План
1. Запускаем лягушку по сайту, выгружаем урлы блога, с помощью Xpath выражений вытаскиваем дату публикации статьи. Выгружаем в эксель все статьи со старой датой
2. Идем в метрику, выгружаем визиты из поиска по урлу и с помощью ВПР цепляем к нашей табличке ещё один столбец с посещаемостью. Отсеиваем дохлые страницы.
3. Пишем скрипт на python, который будет делать следующее:
4. Импортирует Эксель файл с помощью библиотеки Pandas далее заходит на каждый URL и с помощью Python requests выгружает структуру документа. Метатеги title, description, заголовки h1, h2. Можно вытащить текст самого документа или его часть при необходимости. Если дергаем текст – делаем цепочку каскадных промптов, чтобы уложиться в окно контекста.
5. Далее скрипт стучится в Google Geminy по API и отправляет ему следующий промпт: «Посмотри содержимое статьи она датирована {2018 г.} проверь на актуальность и дай рекомендации как мне обновить контент исходя из реалий 2025 г. Также оцени по пятибальной шкале уровень актуальности контента, который я тебе отправил. 5 - актуально, 1 - неактуально. Лучше заюзать Geminy так у него самая актуальная база и хорошо с фактчекингом. Будет кривовато по тексту, по этому рекомендации лучше сгрузить в Chat GPT или Claude, чтобы он привел текст в нормальный вид. Если файл большой – обрабатывать по абзацам.
6. Добавляем все рекомендации в отдельный столбик в Pandas Dataframe. Оценку свежести контента добавляем в соседний столбец.
7. Выгружаем наш датафрейм в Excel файл и передаем его в отдел контента.

Сколько бы на эту задачу затратил кожаный, исходя из того что таких страниц на сайте порядка 400?

Сколько затратил я?
Учитывая наработки - 2 часа. Сколько времени на это потратит June python разработчик имея под боком ChatGPT - 4 часа.
🔥23😁74👍3🤡2



tgoop.com/seo_python_2neuron/107
Create:
Last Update:

Как массово освежить evergreen контент для блога – пошаговая инструкция?

К нам пришёл на продвижение сайт крупного маркетингового агентства.

Первое что я сделал - полез в Яндекс метрику посмотреть какие странички на данный момент генерируют трафик. Само-собой, это блог, но странички которые паровозят траф, зачастую датируются периодом 2014-2020г. Актуальность материалов тоже не всегда отвечает веяниям времени.

План
1. Запускаем лягушку по сайту, выгружаем урлы блога, с помощью Xpath выражений вытаскиваем дату публикации статьи. Выгружаем в эксель все статьи со старой датой
2. Идем в метрику, выгружаем визиты из поиска по урлу и с помощью ВПР цепляем к нашей табличке ещё один столбец с посещаемостью. Отсеиваем дохлые страницы.
3. Пишем скрипт на python, который будет делать следующее:
4. Импортирует Эксель файл с помощью библиотеки Pandas далее заходит на каждый URL и с помощью Python requests выгружает структуру документа. Метатеги title, description, заголовки h1, h2. Можно вытащить текст самого документа или его часть при необходимости. Если дергаем текст – делаем цепочку каскадных промптов, чтобы уложиться в окно контекста.
5. Далее скрипт стучится в Google Geminy по API и отправляет ему следующий промпт: «Посмотри содержимое статьи она датирована {2018 г.} проверь на актуальность и дай рекомендации как мне обновить контент исходя из реалий 2025 г. Также оцени по пятибальной шкале уровень актуальности контента, который я тебе отправил. 5 - актуально, 1 - неактуально. Лучше заюзать Geminy так у него самая актуальная база и хорошо с фактчекингом. Будет кривовато по тексту, по этому рекомендации лучше сгрузить в Chat GPT или Claude, чтобы он привел текст в нормальный вид. Если файл большой – обрабатывать по абзацам.
6. Добавляем все рекомендации в отдельный столбик в Pandas Dataframe. Оценку свежести контента добавляем в соседний столбец.
7. Выгружаем наш датафрейм в Excel файл и передаем его в отдел контента.

Сколько бы на эту задачу затратил кожаный, исходя из того что таких страниц на сайте порядка 400?

Сколько затратил я?
Учитывая наработки - 2 часа. Сколько времени на это потратит June python разработчик имея под боком ChatGPT - 4 часа.

BY SEO Python 2 Нейрона


Share with your friend now:
tgoop.com/seo_python_2neuron/107

View MORE
Open in Telegram


Telegram News

Date: |

The initiatives announced by Perekopsky include monitoring the content in groups. According to the executive, posts identified as lacking context or as containing false information will be flagged as a potential source of disinformation. The content is then forwarded to Telegram's fact-checking channels for analysis and subsequent publication of verified information. With the administration mulling over limiting access to doxxing groups, a prominent Telegram doxxing group apparently went on a "revenge spree." 2How to set up a Telegram channel? (A step-by-step tutorial) To delete a channel with over 1,000 subscribers, you need to contact user support It’s easy to create a Telegram channel via desktop app or mobile app (for Android and iOS):
from us


Telegram SEO Python 2 Нейрона
FROM American