SEO Python 2 Нейрона pinned «Что лучше для SEO? Chat GPT, GigaChat или может Google Gemini? Запускаю исследование 4-х, ну очень популярных языковых моделей на предмет того, насколько они SEO френдли. Суть методики всё та же, эмбеддинги, поиск близких слов по алгоритму косинусной схожести…»
Дисклеймер от гуглоида Гэри Ийеша:
Стянул с канала Сергея Людкевича, оригинальный текст и интерпретация у него же. Добавлю свои 5 копеек. Гэри Ийеш говорит, что LLM (которая кстати зашита под капотом поиска Гула) использует наиболее подходящие слова и фразы для понимания контекста и формирования ответа. А как их найти? Да это именно то, о чем я регулярно и популярно рассказываю на своем канале! В очередной раз приятно осознавать, что не зря я это все затеял 😎. Ну и вторая часть посыла Гэри 🐌 в моей уже интерпретации : ребят, 🧠 - главное оружие SEOшника!
"На основе своих данных обучения LLM находят наиболее подходящие слова, фразы и предложения, которые соответствуют контексту и значению подсказки. Это позволяет им генерировать релевантные и связные ответы. Но не обязательно фактически правильные. ВАМ, пользователю этих LLM, все равно нужно проверять ответы на основе того, что вы знаете о теме, о которой вы спросили LLM, или на основе дополнительного чтения на ресурсах, которые являются авторитетными для вашего запроса."
Стянул с канала Сергея Людкевича, оригинальный текст и интерпретация у него же. Добавлю свои 5 копеек. Гэри Ийеш говорит, что LLM (которая кстати зашита под капотом поиска Гула) использует наиболее подходящие слова и фразы для понимания контекста и формирования ответа. А как их найти? Да это именно то, о чем я регулярно и популярно рассказываю на своем канале! В очередной раз приятно осознавать, что не зря я это все затеял 😎. Ну и вторая часть посыла Гэри 🐌 в моей уже интерпретации : ребят, 🧠 - главное оружие SEOшника!
Linkedin
How grounding can boost LLM responses | Gary Illyes posted on the topic | LinkedIn
Answering something from my inbox here: Based on their training data LLMs find the most suitable words, phrases, and sentences that align with a prompt's context and meaning.
This allows them to generate relevant and coherent responses. But not necessarily…
This allows them to generate relevant and coherent responses. But not necessarily…
Подготовил домашние задания для своего курса, Python SEO нейросети
Смотрю и любуюсь, какая вкуснятина!
22 урока, 3 уровня, Hard – просто мясо! 🥩
Интересно? 😉
Смотрю и любуюсь, какая вкуснятина!
22 урока, 3 уровня, Hard – просто мясо! 🥩
Интересно? 😉
🔥29👎2😁2👍1🤔1🤮1
Магия трансформеров 🧚♀️, легкое воскресное чтиво
Я долго думал как мне проще всего объяснить архитектуру трансформеров, и вот наконец докрутил!
Классическая модель Т5 изначально появилась в Google и использовалась для машинного перевода. Дело в том, что одна и та же фраза на разных языках может быть написана совершенно разными словами, например:
Идет дождь - It rains
Мы же не говорим “a rain goes”. Именно по этому нужна была технология, которая вытаскивала бы смыслы из входящей фразы, а потом распаковывала эти смыслы, но уже другими словами на другом языке.
Получается вот такая схема
Текст на входе -> Смыслы -> Текст на выходе
Или
Текст на входе -> Энкодер (сжимает) -> Декодер (распаковывает) -> Текст на выходе
Или
Текст на входе -> Энкодер Bert(анализ) -> Декодер GPT(промпт)-> Текст на выходе
Очень грубо: Bert сжимает стихотворение до одной строчки, а GPT распаковывает эту строчку в другое стихотворение.
Т5 (трансформер) = Bert + GPT
Хмм, подумали инженеры Google, а если Bert так хорошо определяет смыслы, не сунуть ли нам его под капот нашего поисковика?
Хмм, подумали инженеры Яндекса, Гуглоиды вовсю юзают трансформеры, а мы все на паровой телеге (catboost) едем, и, внедрили свой Yati.
Кэп, а где тут SEO? Ты скажи с каким DR нам ссылки покупать лучше? Не ниже 45! Шутка 🤪
Гайз, все же очевидно, качество промпта напрямую влияет на конечный результат. А, чтобы составить крутой промпт нужно использовать весь арсенал промптинга: роли, температуру, ключевые и близкие по смыслу фразы. А еще в идеале прикрутить сюда маркетинг, чтобы итоговый текст был нацелен на вашу ЦА, прошу прощения за тавтологию.
Но, как и обещал, промптов от меня не ждите, сами догадаетесь вы же умные, глупые меня наврядли читают 😉
Я долго думал как мне проще всего объяснить архитектуру трансформеров, и вот наконец докрутил!
Классическая модель Т5 изначально появилась в Google и использовалась для машинного перевода. Дело в том, что одна и та же фраза на разных языках может быть написана совершенно разными словами, например:
Идет дождь - It rains
Мы же не говорим “a rain goes”. Именно по этому нужна была технология, которая вытаскивала бы смыслы из входящей фразы, а потом распаковывала эти смыслы, но уже другими словами на другом языке.
Получается вот такая схема
Текст на входе -> Смыслы -> Текст на выходе
Или
Текст на входе -> Энкодер (сжимает) -> Декодер (распаковывает) -> Текст на выходе
Или
Текст на входе -> Энкодер Bert(анализ) -> Декодер GPT(промпт)-> Текст на выходе
Очень грубо: Bert сжимает стихотворение до одной строчки, а GPT распаковывает эту строчку в другое стихотворение.
Т5 (трансформер) = Bert + GPT
Хмм, подумали инженеры Google, а если Bert так хорошо определяет смыслы, не сунуть ли нам его под капот нашего поисковика?
Хмм, подумали инженеры Яндекса, Гуглоиды вовсю юзают трансформеры, а мы все на паровой телеге (catboost) едем, и, внедрили свой Yati.
Кэп, а где тут SEO? Ты скажи с каким DR нам ссылки покупать лучше? Не ниже 45! Шутка 🤪
Гайз, все же очевидно, качество промпта напрямую влияет на конечный результат. А, чтобы составить крутой промпт нужно использовать весь арсенал промптинга: роли, температуру, ключевые и близкие по смыслу фразы. А еще в идеале прикрутить сюда маркетинг, чтобы итоговый текст был нацелен на вашу ЦА, прошу прощения за тавтологию.
Но, как и обещал, промптов от меня не ждите, сами догадаетесь вы же умные, глупые меня наврядли читают 😉
Wikipedia
T5 (language model)
T5 (Text-to-Text Transfer Transformer) is a series of large language models developed by Google AI introduced in 2019. Like the original Transformer model, T5 models are encoder-decoder Transformers, where the encoder processes the input text, and the decoder…
😁8👍3❤1🔥1😱1
Я слежу за тобой! 😎
Решил опубликовать ряд каналов, которые читаю. Критерий - либо интересен сам контент и автор, либо вижу взрывной рост, попсу, типа Гребенюка добавлять не буду)
1. Несравненная Татьяна Шаврина: евангелист нейросетей, инопланетянка и человек заразивший меня любовью к трансформерам! Честно признаюсь, сам частенько ни хрена не понимаю о чем она пишет))
2. Интернет маркетолог N:1 мой наставник в недалеком прошлом, крайне интересный, многогранный и очень крутой по человеческим качествам Антон Петроченков.
3. Руслан Гамзатов - выскочил как черт из табакерки и начал подсаживать на ИИ все СНГ пространство. Чел двигается с какой-то нереальной скоростью!
4. Сергей Погодаев - человек неуемной энергии с феноменальным чутьем на новые ниши. Отгружает тонны трафика с vc.ru и других новостных площадок. Растет как на дрожжах, читаю его канал с белой завистью!)
5. Уютный SEO чатик Андрея Джилавдарова, где можно поныть поржать и поумничать ))
Решил опубликовать ряд каналов, которые читаю. Критерий - либо интересен сам контент и автор, либо вижу взрывной рост, попсу, типа Гребенюка добавлять не буду)
1. Несравненная Татьяна Шаврина: евангелист нейросетей, инопланетянка и человек заразивший меня любовью к трансформерам! Честно признаюсь, сам частенько ни хрена не понимаю о чем она пишет))
2. Интернет маркетолог N:1 мой наставник в недалеком прошлом, крайне интересный, многогранный и очень крутой по человеческим качествам Антон Петроченков.
3. Руслан Гамзатов - выскочил как черт из табакерки и начал подсаживать на ИИ все СНГ пространство. Чел двигается с какой-то нереальной скоростью!
4. Сергей Погодаев - человек неуемной энергии с феноменальным чутьем на новые ниши. Отгружает тонны трафика с vc.ru и других новостных площадок. Растет как на дрожжах, читаю его канал с белой завистью!)
5. Уютный SEO чатик Андрея Джилавдарова, где можно поныть поржать и поумничать ))
Telegram
Kali Novskaya
Нейросети, искусство, мысли. Поехали!
Разрабатываю LLM и веду команды
chatGPT, GPT-3, GPT-4
Разрабатываю LLM и веду команды
chatGPT, GPT-3, GPT-4
❤1
Нашел своё Alter ego в буржнете 🤓
Знакомьтесь, Ваган Петросян – директор по технологиям Search Engines Journal
В блоге 2 свежие статьи, которые довольно тесно перекликаются с тем, о чем я пишу на своём канале.
Introduction To LLMs Text Embeddings For SEO With Examples. Вводная информация по векторным представлениям текстов для SEO с примерами
Find Keyword Cannibalization Using OpenAI’s Text Embeddings With Examples. Как найти каннибализацию ключей используя эмбединги OpenAI
Чуть позже выложу перевод и свою интерпретацию 2-й статьи
Знакомьтесь, Ваган Петросян – директор по технологиям Search Engines Journal
В блоге 2 свежие статьи, которые довольно тесно перекликаются с тем, о чем я пишу на своём канале.
Introduction To LLMs Text Embeddings For SEO With Examples. Вводная информация по векторным представлениям текстов для SEO с примерами
Find Keyword Cannibalization Using OpenAI’s Text Embeddings With Examples. Как найти каннибализацию ключей используя эмбединги OpenAI
Чуть позже выложу перевод и свою интерпретацию 2-й статьи
😁4👍1
Ещё один клёвый способ использования ChatGpt для программинга
В последнее время, приходится довольно много кодить на python и для этих целей я частенько юзаю ChatGpt. Пока только под микрозадачи, потому-что с чем-то серьезным он справляется не столь эффективно.
Но! Вчера меня осенило!
Признайтесь честно, вы когда кодите пишете комментарии? Я нет 🤪 и это плохо, поскольку потом бывает сложно разобрать и объяснить другому программисту, что я тут сделал.
Короче, кидаю скрипт в ChatGpt и говорю, напиши мне подробные комментарии к коду, и он их пишет в лучшем виде!
Теперь мой код выглядит красивым и правильным, а волосы стали более густыми и шелковистыми 🤓
В последнее время, приходится довольно много кодить на python и для этих целей я частенько юзаю ChatGpt. Пока только под микрозадачи, потому-что с чем-то серьезным он справляется не столь эффективно.
Но! Вчера меня осенило!
Признайтесь честно, вы когда кодите пишете комментарии? Я нет 🤪 и это плохо, поскольку потом бывает сложно разобрать и объяснить другому программисту, что я тут сделал.
Короче, кидаю скрипт в ChatGpt и говорю, напиши мне подробные комментарии к коду, и он их пишет в лучшем виде!
Теперь мой код выглядит красивым и правильным, а волосы стали более густыми и шелковистыми 🤓
🤡4❤3🤯2
Крутить или не крутить? Вот в чем вопрос! ПФ и YATI – или почему Яндекс так чувствителен к накрутке?
Разработчики Яндекса в своей эпохальной статье и не менее интересном видео раскрывают суть нейросети YATI, вклад которой в ранжирование, согласно их же доклада уже на момент внедрения составлял более 50%.
Что такое YATI? Очень грубо, это BERT (модель трансформер) плюс простая (feed-forward) нейросеть, задача которой предугадывать был ли клик по фразе.
Приведу цитату:
Вот эту вторую нейросеть, Яндекс изначально обучил на исторических данных, которых у него масса, но модель нужно периодически переобучать, то есть добавлять новые пары «запрос» => «вероятность клика»
А, что будет, если начать искусственно крутить ПФ по некоторым фразам? Правильно модель может сломаться. И в этом, как мне кажется, и лежало то изначально агрессивное неприятие накрутки ПФ. Но времена меняются, за накрутку не банят, но тогда возникает вопрос, а, что же такого смог придумать Яндекс, что отфильтровать влияние накрутки?
Как бы я поступил, будучи разработчиком?
Во-первых я бы ввел как минимум 3-х ступенчатый алгоритм. На первом этапе всем подозрительным ботам я бы скармливал капчу, отсеивая таким образом львиную долю «тупого» трафика.
Во-вторых я бы ввел некий показатель «подходящести» посетителя (прошу не докапываться до фразы) конкретному запросу.
В третьих я бы ввел показатель «трастовости» и завязал бы его тупо на кол-во денег потраченных на Яндекс такси, музыке и прочих сервисах.
У Яндекса это всё давно уже есть, предлагаю посмотреть вот это занимательно видео. Каждого посетителя Яндекс видит как эмбеддинг, состоящий из исторических данных. При выборе сайтов, которые он показывает вам в персонифицированной выдаче, он берет одну часть из Yati, а другую из Трансформера отвечающего за персонализацию и сгружает это все в Catboost (финальная нейросеть сборка).
Делаем выводы?
Всё то, о чем говорят ПФщики, а именно, нагул профилей по долгосрочным интересам, разный «вес» кликов от живого человека и от бота – в некоторой степени подтверждается информацией публикуемой Яндексом.
ОК, тогда в чем проблема, спросите вы? Если Яндекс так здорово научился вычислять фейковых посетителей, почему он тогда не прикроет лавочку окончательно?
Проблема в ресурсах и их стоимости, вернее, даже не столько в ресурсах, сколько в возможности быстрой обработки всей необходимой информации. Посетитель не будет ждать, пока Яндекс проверит вашу историю покупок и историю всех ваших посещений. Пруф в той же статье и в этом видео где как раз объясняется с какими проблемами они столкнулись при использовании больших моделей в рантайме (боевом режиме). Спойлер - они их максимально упростили и измерили качество, качество их устроило.
Таким образом у нас классический «меч против щита». И Яндекс и ПФщики ограниченны ресурсами. Рубануть сходу не получается видимо теряется качество, жестко фильтровать – экономически невыгодно, вот и приходится балансироватьтерпеть между фильтрами и финансами.
Разработчики Яндекса в своей эпохальной статье и не менее интересном видео раскрывают суть нейросети YATI, вклад которой в ранжирование, согласно их же доклада уже на момент внедрения составлял более 50%.
Что такое YATI? Очень грубо, это BERT (модель трансформер) плюс простая (feed-forward) нейросеть, задача которой предугадывать был ли клик по фразе.
Приведу цитату:
Как и BERT, модель сначала учится свойствам языка, решая задачуMLM (Masked Language Model),но делает это сразу на текстах, характерных для задачи ранжирования. Уже на этом этапе вход модели состоит из запроса и документа, и мы с самого начала обучаем модель предсказывать ещё и вероятность клика на документ по запросу. Удивительно, но тот же самый таргет «переформулировок», который был разработан ещё для feed-forward-сетей, отлично показывает себя и здесь. Обучение на клик существенно увеличивает качество при последующем решении семантических задач ранжирования.
Вот эту вторую нейросеть, Яндекс изначально обучил на исторических данных, которых у него масса, но модель нужно периодически переобучать, то есть добавлять новые пары «запрос» => «вероятность клика»
А, что будет, если начать искусственно крутить ПФ по некоторым фразам? Правильно модель может сломаться. И в этом, как мне кажется, и лежало то изначально агрессивное неприятие накрутки ПФ. Но времена меняются, за накрутку не банят, но тогда возникает вопрос, а, что же такого смог придумать Яндекс, что отфильтровать влияние накрутки?
Как бы я поступил, будучи разработчиком?
Во-первых я бы ввел как минимум 3-х ступенчатый алгоритм. На первом этапе всем подозрительным ботам я бы скармливал капчу, отсеивая таким образом львиную долю «тупого» трафика.
Во-вторых я бы ввел некий показатель «подходящести» посетителя (прошу не докапываться до фразы) конкретному запросу.
В третьих я бы ввел показатель «трастовости» и завязал бы его тупо на кол-во денег потраченных на Яндекс такси, музыке и прочих сервисах.
У Яндекса это всё давно уже есть, предлагаю посмотреть вот это занимательно видео. Каждого посетителя Яндекс видит как эмбеддинг, состоящий из исторических данных. При выборе сайтов, которые он показывает вам в персонифицированной выдаче, он берет одну часть из Yati, а другую из Трансформера отвечающего за персонализацию и сгружает это все в Catboost (финальная нейросеть сборка).
Делаем выводы?
Всё то, о чем говорят ПФщики, а именно, нагул профилей по долгосрочным интересам, разный «вес» кликов от живого человека и от бота – в некоторой степени подтверждается информацией публикуемой Яндексом.
ОК, тогда в чем проблема, спросите вы? Если Яндекс так здорово научился вычислять фейковых посетителей, почему он тогда не прикроет лавочку окончательно?
Проблема в ресурсах и их стоимости, вернее, даже не столько в ресурсах, сколько в возможности быстрой обработки всей необходимой информации. Посетитель не будет ждать, пока Яндекс проверит вашу историю покупок и историю всех ваших посещений. Пруф в той же статье и в этом видео где как раз объясняется с какими проблемами они столкнулись при использовании больших моделей в рантайме (боевом режиме). Спойлер - они их максимально упростили и измерили качество, качество их устроило.
Таким образом у нас классический «меч против щита». И Яндекс и ПФщики ограниченны ресурсами. Рубануть сходу не получается видимо теряется качество, жестко фильтровать – экономически невыгодно, вот и приходится балансировать
👍7🔥5💯1
А у тебя уже было это… конверсия? 😂
В кои-то веки напишу не про нейросети). Пришел в понедельник один проект на контекстную рекламу. Ниша дурная перегретая, лиды по 8000 - вообще трындец!
Колдуем с Директологом который день, запустили сегодня кампанию на поиске. Звоню, говорю, Вероника, ну что была конверсия? Нет!
Я говорю, знаешь на кого мы с тобой похожи? Нет. На 2-х 15 летних подростков блин! А у тебя уже была конверсия? Нет, пока не было, а у тебя?
Ааааа!!!!! 🙈😂🤪
В кои-то веки напишу не про нейросети). Пришел в понедельник один проект на контекстную рекламу. Ниша дурная перегретая, лиды по 8000 - вообще трындец!
Колдуем с Директологом который день, запустили сегодня кампанию на поиске. Звоню, говорю, Вероника, ну что была конверсия? Нет!
Я говорю, знаешь на кого мы с тобой похожи? Нет. На 2-х 15 летних подростков блин! А у тебя уже была конверсия? Нет, пока не было, а у тебя?
Ааааа!!!!! 🙈😂🤪
🤣9😁5😐4👀2
Режь длинный хвост!
Один интересный нюанс из видео про трансформеры YATI.
Коротко суть: Яндексоиды собрали большую модель (нейросеть), обучили её методом маскирования, а так же на вероятность клика, получили шикарный результат, попытались применить в рантайме (в боевом режиме) и офигели!
Модель получилась клёвая, но очень медленная, в том числе, потому, что таскает за собой слишком слишком большой хвост из содержимого каждой страницы.
Как ускорить время получения результата? Ну, как минимум, уменьшить объем анализируемых данных, допустим, учитывать первые 40 слов, а остальные выкинуть на фиг!?)
Нет, все не так просто. Что сделали разрабы? Они взяли модель с отрезанным хвостом, натренировали её на результатах большой модели. Получили следующие цифры, большая модель – 95,6% точности и 1 сек отклика, YATI продакшн – 95,4% точности и 0,1 сек отклика.
Так, что, получается, чтобы оценить релевантность вашей страницы YATI достаточно прочитать первые, ну допустим, 40 слов? Ну так погнали запихивать все в первый абзац, иначе Яндекс не поймёт всей той чудо оптимизации по облакам, которую вы так старательно выравнивали по ширине и глубине? 😉
Мнение скромного владельца этого уютного канала: да, имеет смысл поработать над первым абзацем, но упарываться запихивая туда всё и вся я бы не стал, тем более, что Яндекс учитывает и другие зоны документа, например, <а> </а>, так называемые зоны релевантности (слова слева и справа от ключа) и так далее. Кроме того, не забывайте про контекст, который YATI добывает с помощью механизма attention по близким фразам, а вы с помощью моих бесплатных ботов.
Ок, это понятно, а, что делать, если на сайте громадное многоуровневое меню? Оно как-то учитывается или нет?
Вопрос интересный и не однозначный, общаясь с SEO гуру разных мастей, я получал разные варианты ответов. Скажу свое скромное мнение: для Яндекса, отрезать шапку, футер и прочие сквозные элементы - простая задача, даже ваш скромный слуга как-то написал подобную скриптину на python за час.
Поэтому логично предположить, что сквозное меню в начале страницы - отдельная зона документа. Но это всего лишь мои догадки, основанные впрочем на логике и на анализе.
Один интересный нюанс из видео про трансформеры YATI.
Коротко суть: Яндексоиды собрали большую модель (нейросеть), обучили её методом маскирования, а так же на вероятность клика, получили шикарный результат, попытались применить в рантайме (в боевом режиме) и офигели!
Модель получилась клёвая, но очень медленная, в том числе, потому, что таскает за собой слишком слишком большой хвост из содержимого каждой страницы.
Как ускорить время получения результата? Ну, как минимум, уменьшить объем анализируемых данных, допустим, учитывать первые 40 слов, а остальные выкинуть на фиг!?)
Нет, все не так просто. Что сделали разрабы? Они взяли модель с отрезанным хвостом, натренировали её на результатах большой модели. Получили следующие цифры, большая модель – 95,6% точности и 1 сек отклика, YATI продакшн – 95,4% точности и 0,1 сек отклика.
Так, что, получается, чтобы оценить релевантность вашей страницы YATI достаточно прочитать первые, ну допустим, 40 слов? Ну так погнали запихивать все в первый абзац, иначе Яндекс не поймёт всей той чудо оптимизации по облакам, которую вы так старательно выравнивали по ширине и глубине? 😉
Мнение скромного владельца этого уютного канала: да, имеет смысл поработать над первым абзацем, но упарываться запихивая туда всё и вся я бы не стал, тем более, что Яндекс учитывает и другие зоны документа, например, <а> </а>, так называемые зоны релевантности (слова слева и справа от ключа) и так далее. Кроме того, не забывайте про контекст, который YATI добывает с помощью механизма attention по близким фразам, а вы с помощью моих бесплатных ботов.
Ок, это понятно, а, что делать, если на сайте громадное многоуровневое меню? Оно как-то учитывается или нет?
Вопрос интересный и не однозначный, общаясь с SEO гуру разных мастей, я получал разные варианты ответов. Скажу свое скромное мнение: для Яндекса, отрезать шапку, футер и прочие сквозные элементы - простая задача, даже ваш скромный слуга как-то написал подобную скриптину на python за час.
Поэтому логично предположить, что сквозное меню в начале страницы - отдельная зона документа. Но это всего лишь мои догадки, основанные впрочем на логике и на анализе.
🔥5🏆2❤1
Первые результаты голосования за лучшую LLM модель!
Не так давно я запустил голосование среди SEOшников на тему: Какая языковая модель лучше находит LSI семантически близкие слова.
Кратко суть эксперимента
Подаём на вход ключевое слово и с помощью механизма описанного у меня в телеграм канале, ищем наиболее близкие по ключу фразы в базе слов всех 4-х нейросетей. На выходе Excel таблички в которых отобраны лучшие 100 слов для каждой из моделей.
И вот подъехали первые результаты и есть первая сенсация, итак по порядку!
1. Предварительная оценка показала, что, если взять выборку из 100 наиболее важных слов (вряд ли SEOшник внедрит больше), пересечение фраз со всеми 4-мя моделями колеблется в районе 15%. Максимальная схожесть по близким фразам которую я увидел между 2-мя моделями в районе 60%. Таким образом, можно сделать вывод, что важно выбрать именно правильную модель.
2. Модель от Google показала, крайне слабые результаты, просто удивительно!
3. Chat GPT на удивление не плох!
Ну и самая главная интрига, кто же на 1-м и 2-м месте? Ну, как вы догадались не Google ) Может ChatGPT?
Выводы делать рано, давайте ещё потестим!
SEOшник? Мне нужна твоя помощь, тапни тут и проголосуй за лучшую модель!
Не так давно я запустил голосование среди SEOшников на тему: Какая языковая модель лучше находит LSI семантически близкие слова.
Кратко суть эксперимента
Подаём на вход ключевое слово и с помощью механизма описанного у меня в телеграм канале, ищем наиболее близкие по ключу фразы в базе слов всех 4-х нейросетей. На выходе Excel таблички в которых отобраны лучшие 100 слов для каждой из моделей.
И вот подъехали первые результаты и есть первая сенсация, итак по порядку!
1. Предварительная оценка показала, что, если взять выборку из 100 наиболее важных слов (вряд ли SEOшник внедрит больше), пересечение фраз со всеми 4-мя моделями колеблется в районе 15%. Максимальная схожесть по близким фразам которую я увидел между 2-мя моделями в районе 60%. Таким образом, можно сделать вывод, что важно выбрать именно правильную модель.
2. Модель от Google показала, крайне слабые результаты, просто удивительно!
3. Chat GPT на удивление не плох!
Ну и самая главная интрига, кто же на 1-м и 2-м месте? Ну, как вы догадались не Google ) Может ChatGPT?
Выводы делать рано, давайте ещё потестим!
SEOшник? Мне нужна твоя помощь, тапни тут и проголосуй за лучшую модель!
🔥3😁2👍1
ТО пройдено!
Сегодня ночью были проведены техобслуживание моих ботов. Вычищен мусор, обновлена база эмбеддингов.
Анонс! В ближайшее время планируются следующие обновления
@vector_keywords_bot (поиск n-грамм по ключу) – переход на парсинг с эмуляцией браузера
@vector_text_bot (на вход ключ и текст, на выходе размеченный по сходству текст) – анализ не только по тексту но и по url, добавление рекомендаций по использованию слов
Сегодня ночью были проведены техобслуживание моих ботов. Вычищен мусор, обновлена база эмбеддингов.
Анонс! В ближайшее время планируются следующие обновления
@vector_keywords_bot (поиск n-грамм по ключу) – переход на парсинг с эмуляцией браузера
@vector_text_bot (на вход ключ и текст, на выходе размеченный по сходству текст) – анализ не только по тексту но и по url, добавление рекомендаций по использованию слов
🔥13👎1😁1
Сегодня в гостях у Михаила Шакина, выступаю с докладом про текстовый анализ и текстовые анализаторы. Не пропусти! Будет мясо 🥩! 😉
👍2
Forwarded from SEO вебинары Шакина
Какая языковая модель лучше всего находит LSI слова, ChatGPT, Сбер или Google? Почему текстовые анализаторы, основанные на старых принципах не работают? Какие анализаторы текста есть на рынке? Обзор платных и бесплатных сервисов. Почему порядок слов важен? Как одно слово может испортить всю оптимизацию?
19 сентября в 15 по Москве смотрите вебинар Владислава Папернюка @seo_python_2neuron.
📺 Трансляция на YouTube:
https://www.youtube.com/watch?v=I79BgjkFWFI
🎞 Смотрите плейлист "Нейросети и SEO" на моем YouTube канале:
https://www.youtube.com/playlist?list=PLS7oN4pFU92vhof9bMIQBEuM_BD4mo3Yf
🎥 Трансляция в моем профиле ВК. Все записи вебинаров доступны здесь https://vk.com/video/@globator):
https://vk.com/globator
🚛 Мои каналы в ВК Видео:
https://vk.com/video/@shakinseo - видео по продвижению сайтов в рунете
https://vk.com/video/@burzhunetseo - видео по продвижению англоязычных сайтов
📼 Кроме этого, запись вебинара будет размещена в моем канале на Дзене:
https://dzen.ru/shakin
📹 В моем Rutube канале:
https://rutube.ru/channel/24777621/
🎦 И на Платформе:
https://plvideo.ru/channel/6pja9nQOHAy8
Михаил Шакин, @shakinweb #аналитика #контент #seotools #точкироста #оптимизация #техническоеseo
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Текстовый анализ в эпоху нейросетей
Обзор и оценка текстовых анализаторов в рунете, выбираем лучший! Может ли ChatGPT заменить текстовые анализаторы? Почему текстовые анализаторы, основанные на старых принципах, не работают? Почему порядок слов важен? Как одно слово может испортить всю оптимизацию?…
👍18🔥7🏆3
