Forwarded from Denis Sexy IT 🤖
Как мне o1 Pro с шеей помогла
>36 лет, почти 2 метра роста
>в ~33 много сидел за ноутом в позе буквы G и заработал хронические боли в шее (ригидность шеи)
>прошел много сессий массажа чтобы снять боль, но полностью боль не проходила
>купил всякие подставки для ноута, начал ходить чаще в зал, в шее все еще скованность мышц – не посмотреть в право без ощущения натянутой струны в затылке
>надоело, решил снова записаиться на массаж-терапию и починиться – массажист-терапевт сразу заметил, с какими мышцами проблема
>Но мы же в будущем
>Описал o1 Pro всю историю болезни и попросил сделать мне программу для починки мышц
>Попросил сразу включить поисковые запросы для Youtube чтобы быстро найти нужные техники
>3 вечера занимаюсь по ее программе
>Терапевт на втором приеме сегодня – Денис, я не могу нащупать напряженные мышцы???
>Показал ему программу o1 Pro, терапевт в восторге – все по науке, отменил остальные сессии массажа
>Впервые могу смотреть во все стороны как нормальный обычный человек
Программа тут, если кто-то с шеей страдает – o1 Pro не замена для врачей, но очень классно помогает – рекомендую
>36 лет, почти 2 метра роста
>в ~33 много сидел за ноутом в позе буквы G и заработал хронические боли в шее (ригидность шеи)
>прошел много сессий массажа чтобы снять боль, но полностью боль не проходила
>купил всякие подставки для ноута, начал ходить чаще в зал, в шее все еще скованность мышц – не посмотреть в право без ощущения натянутой струны в затылке
>надоело, решил снова записаиться на массаж-терапию и починиться – массажист-терапевт сразу заметил, с какими мышцами проблема
>Но мы же в будущем
>Описал o1 Pro всю историю болезни и попросил сделать мне программу для починки мышц
>Попросил сразу включить поисковые запросы для Youtube чтобы быстро найти нужные техники
>3 вечера занимаюсь по ее программе
>Терапевт на втором приеме сегодня – Денис, я не могу нащупать напряженные мышцы???
>Показал ему программу o1 Pro, терапевт в восторге – все по науке, отменил остальные сессии массажа
>Впервые могу смотреть во все стороны как нормальный обычный человек
Программа тут, если кто-то с шеей страдает – o1 Pro не замена для врачей, но очень классно помогает – рекомендую
🥰16🔥8👏2
Более актуальная для 21 века поговорка:
"Скажи мне, какую тебе показывают рекламу, и я скажу, кто ты"
С другой стороны, тут не альтушка. А это значит, что я пока еще не совсем скуф ¯\_(ツ)_/¯
P.S. Хз, можно ли это считать бесплатной рекламой. В общем, не является рекламой, а является кеком, если что (пускай и скрин рекламы).
P.P.S. Пока еще Сбер не достиг уровня рекламы мобильных игр. Есть куда стремиться!
"Скажи мне, какую тебе показывают рекламу, и я скажу, кто ты"
С другой стороны, тут не альтушка. А это значит, что я пока еще не совсем скуф ¯\_(ツ)_/¯
P.S. Хз, можно ли это считать бесплатной рекламой. В общем, не является рекламой, а является кеком, если что (пускай и скрин рекламы).
P.P.S. Пока еще Сбер не достиг уровня рекламы мобильных игр. Есть куда стремиться!
🥰7👏1
Вот это огнище! Женя, автор канала Женя Покидина Творит, записала озвучку моего рассказа.
Это по-настоящему магическое ощущение, когда твое творение оживает, наполняется объемом, звучит! Очень приятно это видеть и, конечно же, слышать ;)
Очень благодарен Жене. Получился такой вот прекрасный подарок к дню рождения, за что отдельное спасибо.
Обязательно послушайте другие рассказы с ее канала. Ну и подписывайтесь, конечно.
Это по-настоящему магическое ощущение, когда твое творение оживает, наполняется объемом, звучит! Очень приятно это видеть и, конечно же, слышать ;)
Очень благодарен Жене. Получился такой вот прекрасный подарок к дню рождения, за что отдельное спасибо.
Обязательно послушайте другие рассказы с ее канала. Ну и подписывайтесь, конечно.
Telegram
Женя Покидина Творит ✍️ Книги • Писательство
Здесь о позволении быть собой, заниматься творчеством без границ и любить жизнь.
Писательница, книжный блогер, психолог, специалист по продвижению в Телеграм.
По всем вопросам 👉 @yanevegi
Писательница, книжный блогер, психолог, специалист по продвижению в Телеграм.
По всем вопросам 👉 @yanevegi
❤4🔥1
Forwarded from Женя Покидина Творит ✍️ Книги • Писательство (Женя Покидина)
Media is too big
VIEW IN TELEGRAM
Давайте представим, что художественная литература - это женщина. Какой бы она была? 💃
Коварной, это точно. Она умеет за милыми речами, нежными взорами и приятными беседами скрывать самые мрачные коридоры человеческой души.
И пока она заманивает своими приёмчиками - через юмор передать трагедию, с помощью второстепенного персонажа (порой даже и вовсе не человека) рассказать историю одной судьбы, читатель сам не замечает, как попадает в её сети.
Вот вроде сидит себе мирно, почитывает под кофеёк рассказ или роман, всё хорошо, все живы-здоровы и даже вполне счастливы. И вдруг разверзается бездна и утягивает на своё жуткое дно все надежды, мечты главных и расслабленное настроение читателя. Тут бы ещё кофе не подавиться ненароком.😳
Вот так и в рассказе Артёма Ерохина коварная муза посетила автора, не иначе.
За лёгким слогом и наивным характером персонажа, от лица которого ведётся сюжет, скрывается бездна.
Пейте свой кофе и ешьте пирожные во время прослушивания рассказа аккуратно. Никогда не знаешь, что преподнесёт тебе писательское мастерство сегодня.
Автор рассказа "На своих местах" Артём Ерохин - владелец канала "Artificial stupidity" - искусственный интеллект, взлом Алисы, чудеса информационных технологий.
Озвучила рассказ я, Женя Покидина, мой канал "Женя Покидина Творит" - путь писательницы, творчество без границ, книжные рекомендации и многое другое.
#ОзвучкаОтЖени #Творчество
🤗 Делитесь впечатлениями от озвучки и рассказа в комментариях! 🔥 🔥 🔥
Коварной, это точно. Она умеет за милыми речами, нежными взорами и приятными беседами скрывать самые мрачные коридоры человеческой души.
И пока она заманивает своими приёмчиками - через юмор передать трагедию, с помощью второстепенного персонажа (порой даже и вовсе не человека) рассказать историю одной судьбы, читатель сам не замечает, как попадает в её сети.
Вот вроде сидит себе мирно, почитывает под кофеёк рассказ или роман, всё хорошо, все живы-здоровы и даже вполне счастливы. И вдруг разверзается бездна и утягивает на своё жуткое дно все надежды, мечты главных и расслабленное настроение читателя. Тут бы ещё кофе не подавиться ненароком.
Вот так и в рассказе Артёма Ерохина коварная муза посетила автора, не иначе.
За лёгким слогом и наивным характером персонажа, от лица которого ведётся сюжет, скрывается бездна.
Пейте свой кофе и ешьте пирожные во время прослушивания рассказа аккуратно. Никогда не знаешь, что преподнесёт тебе писательское мастерство сегодня.
Автор рассказа "На своих местах" Артём Ерохин - владелец канала "Artificial stupidity" - искусственный интеллект, взлом Алисы, чудеса информационных технологий.
Озвучила рассказ я, Женя Покидина, мой канал "Женя Покидина Творит" - путь писательницы, творчество без границ, книжные рекомендации и многое другое.
#ОзвучкаОтЖени #Творчество
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
#LLM
А вот про что забыл рассказать на прошлой неделе. У коллег из нашей команды вышла статья про то, как мы в команде строили инфраструктуру работы с LLM.
Тут все как обычно: читайте, ставьте плюсики, спрашивайте вопросы в комментариях к статье (если они у вас есть). Ну и узнавайте новое, конечно же!
А вот про что забыл рассказать на прошлой неделе. У коллег из нашей команды вышла статья про то, как мы в команде строили инфраструктуру работы с LLM.
Тут все как обычно: читайте, ставьте плюсики, спрашивайте вопросы в комментариях к статье (если они у вас есть). Ну и узнавайте новое, конечно же!
Хабр
Построение инфраструктуры для работы с языковыми моделями: опыт X5 Tech
Привет, Хабр! Я Мичил Егоров, руководитель команды разработки продуктов искусственного интеллекта в X5 Tech. В последнее время языковые модели (LLM) стали неотъемлемой частью многих...
❤4👍2
Forwarded from Insider X5
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥14❤2👏2
#cv #ml
Оказывается, не вся информация хорошо считывается с дисплеев. Не так давно узнал, что для обычных экранов, типа весов, бензоколонок и электронных часов есть отдельная задача распознавания.
Такой тип отображения на экранах называется seven segment digits. То есть, у нас есть 7 полосок: 3 вверху, 3 внизу и еще одна посередине.
И для этой задачки есть отдельные модели, которые улучшают распознавание (проверено не себе, решения из коробки с обычным распознаванием нещадно тупили, хотя, казалось бы, такая простая задачка). Напрмиер, в PaddleOCR (которые, видимо, должны теперь мне миска рис за рекламу) есть модели DBNet для детекции и PARSeq для распознавания. Как только мы решили применить эти модели, качество распознавания сразу подросло.
Какой же вывод из этой истории? Даже если что-то кажется очень простым или банальным, то всегда случиться так, что мы попадем не corner case, для которого нужно будет искать специфичное решение. Второй вывод - попробуйте получше порыться в вашей "черной коробке" (если используете коробочное решение). Как знать, возможно в ней есть то, о чем вы просто не знали.
P.S. Пара статей по теме:
Detecting and recognizing seven segment digits
using a deep learning approach
Real-Time Seven Segment Display Detection and
Recognition Online System using CNN
Оказывается, не вся информация хорошо считывается с дисплеев. Не так давно узнал, что для обычных экранов, типа весов, бензоколонок и электронных часов есть отдельная задача распознавания.
Такой тип отображения на экранах называется seven segment digits. То есть, у нас есть 7 полосок: 3 вверху, 3 внизу и еще одна посередине.
И для этой задачки есть отдельные модели, которые улучшают распознавание (проверено не себе, решения из коробки с обычным распознаванием нещадно тупили, хотя, казалось бы, такая простая задачка). Напрмиер, в PaddleOCR (которые, видимо, должны теперь мне миска рис за рекламу) есть модели DBNet для детекции и PARSeq для распознавания. Как только мы решили применить эти модели, качество распознавания сразу подросло.
Какой же вывод из этой истории? Даже если что-то кажется очень простым или банальным, то всегда случиться так, что мы попадем не corner case, для которого нужно будет искать специфичное решение. Второй вывод - попробуйте получше порыться в вашей "черной коробке" (если используете коробочное решение). Как знать, возможно в ней есть то, о чем вы просто не знали.
P.S. Пара статей по теме:
Detecting and recognizing seven segment digits
using a deep learning approach
Real-Time Seven Segment Display Detection and
Recognition Online System using CNN
👍3⚡1
Оп, новый опрос о зарплатах в этом вашем data science. Интересно, какие выйдут результаты?
Forwarded from Нескучный Data Science (Евгений Смирнов)
💸 Сколько ты зарабатываешь на Data Science?
👉 Пройди опрос сейчас, не откладывай на потом❗️
🤔 Вы можете примерно оценить вилку на вашей позиции благодаря вакансиям из каналов, где они публикуются. Тем не менее вилки довольно широкие и одни работодатели недоплачивают или платят строго по низу вилки, другие наоборот переплачивают и выходят за ее пределы. Вам в свою очередь нужно на собеседовании или при повышении назвать одно число, ровно столько вам будет платить довольно продолжительный период времени.
📊 Запускаю опрос, который в будущем поможет подписчикам сопоставить свой набор навыков с рынком труда. Прошу вас ответить на вопросы про ваш опыт, текущую роль в компании, ваш уровень удовлетворенности и планы на будущее. Чем прозрачнее будет рынок труда, тем выгоднее будет обоим сторонам, ведь дата сайентисты не будут смотреть в лес рынка труда.
🔖 Результаты опроса буду порционно публиковать в канале Нескучный Data Science @not_boring_ds.
😉 классические вопросы с популярных интервью тоже включены)
P.S. при публикации статистики дам ссылки на каналы поддержавшие опрос.
👉 Пройди опрос сейчас, не откладывай на потом❗️
🤔 Вы можете примерно оценить вилку на вашей позиции благодаря вакансиям из каналов, где они публикуются. Тем не менее вилки довольно широкие и одни работодатели недоплачивают или платят строго по низу вилки, другие наоборот переплачивают и выходят за ее пределы. Вам в свою очередь нужно на собеседовании или при повышении назвать одно число, ровно столько вам будет платить довольно продолжительный период времени.
📊 Запускаю опрос, который в будущем поможет подписчикам сопоставить свой набор навыков с рынком труда. Прошу вас ответить на вопросы про ваш опыт, текущую роль в компании, ваш уровень удовлетворенности и планы на будущее. Чем прозрачнее будет рынок труда, тем выгоднее будет обоим сторонам, ведь дата сайентисты не будут смотреть в лес рынка труда.
🔖 Результаты опроса буду порционно публиковать в канале Нескучный Data Science @not_boring_ds.
😉 классические вопросы с популярных интервью тоже включены)
P.S. при публикации статистики дам ссылки на каналы поддержавшие опрос.
❤2👍1
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
Он создан специально для работы с DS/ML и может создавать не просто фрагменты кода, а целые ноутбуки. Все просто:
1. Нужно подгрузить свои данные
2. Описать цели (например, «визуализируй», «проведи EDA», «напиши и оптимизируй модель предсказания таргета»)
3. Сидеть и наслаждаться тем, как агент сам пишет и запускает ячейки, импортирует нужные библиотеки и совершенствует свой код
Кстати, на бенчмарке DABStep (он как раз оценивает способности анализировать дату) агент занял четвертое место, сразу после o1, o3-mini и Claude, а это довольно мощный уровень.
Доступно для всех юзеров
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13
#random
Я тут недавно быстренько накидал короткий стишок на 8 марта. Собственно, почему бы и не запостить.
"Товарищи женщины!
Во все громогласное горло
Готовы поздравить вас
Снова и снова.
Не зря ведь боролись
Роза и Клара:
Марта восьмое —
Не просто забава!
И наши слова —
Не просто игра,
А слово и дело.
Ура вам, ура!"
Я тут недавно быстренько накидал короткий стишок на 8 марта. Собственно, почему бы и не запостить.
"Товарищи женщины!
Во все громогласное горло
Готовы поздравить вас
Снова и снова.
Не зря ведь боролись
Роза и Клара:
Марта восьмое —
Не просто забава!
И наши слова —
Не просто игра,
А слово и дело.
Ура вам, ура!"
❤🔥8🌚1🍌1
Forwarded from Knowledge Accumulator
Конкретный автоэнкодер [2019] и его улучшение [2024]
Итак, обычно в автоэнкодерах мы решаем задачу сжатия изначального вектора фичей в пространство маленькой размерности. Мы обучаем энкодер
Конкретный автоэнкодер ставит задачу более интересным образом - вместо перевода вектора фичей в скрытое пространство мы хотим выбрать список фичей в
Иначе говоря, какие фичи содержат наибольшее количество информации, которое позволит восстановить исходный вектор
Слово "конкретный" в названии - "concrete" - на самом деле сокращение от Continuous Discrete - это параллельное изобретение того самого Gumbel Softmax трюка, который я описывал в позапрошлом посте.
Единственным параметром энкодера является матрица
Делая это независимо K раз, мы выбираем K фичей, которые и становятся выходом энкодера. В базовой статье про конкретный автоэнкодер иллюстрация на MNIST демонстрируют способность такой схемы обучиться игнорировать пиксели по краям и при этом задействовать по 1 пикселю из всех остальных частей картинки, никогда не беря соседние. Эксперименты на других датасетах там тоже есть.
Indirectly Parameterized CAE - улучшение данного подхода. Я с CAE не развлекался, но утверждается, что у базовой модели есть проблемы со стабильностью обучения, а также она почему-то всё же дублирует фичи по несколько раз, что, вроде как, тоже связано с этой нестабильностью.
Один простой трюк очень сильно улучшает ситуацию. Вместо обучаемой матрицы
Честно говоря, в статье не хватает нормальной мотивации и интуиции, но, судя по результатам, у них это обучается гораздо лучше бейзлайна и всегда выдаёт уникальные фичи.
Главный вопрос - а нахрена вообще всё это нужно?
Внезапно эта идея имеет отличное практическое применение в нейросетях, а именно для проведения Feature Selection! В ситуации, когда обучать сеть супердорого и вы можете позволить это делать единичное число раз, а фичей у вас тысячи, использование Конкретного Энкодера в самом начале модели позволяет обучить Selection
Коллеги рапортуют о том, что у нас это заработало, так что, с чистой совестью делюсь хаком.
@knowledge_accumulator
Итак, обычно в автоэнкодерах мы решаем задачу сжатия изначального вектора фичей в пространство маленькой размерности. Мы обучаем энкодер
q(z|x)
и декодер p(x|z)
таким образом, чтобы у нас получалось восстановить изначальный вектор x
из вектора скрытых переменных z
.Конкретный автоэнкодер ставит задачу более интересным образом - вместо перевода вектора фичей в скрытое пространство мы хотим выбрать список фичей в
x
, который и будет этим самым вектором скрытых переменных.Иначе говоря, какие фичи содержат наибольшее количество информации, которое позволит восстановить исходный вектор
x
наилучшим образом? Конкретный автоэнкодер решает именно эту задачу. Слово "конкретный" в названии - "concrete" - на самом деле сокращение от Continuous Discrete - это параллельное изобретение того самого Gumbel Softmax трюка, который я описывал в позапрошлом посте.
Единственным параметром энкодера является матрица
KxN
- размерность скрытого вектора на кол-во фичей. В каждой строке у нас находится обучаемый вектор "логитов" для каждой фичи, к которому мы применяем Gumbel Softmax и получаем soft one-hot вектор-маску для всех фичей, которую затем скалярно умножаем на исходный вектор фичей - получая таким образом дифференцируемую аппроксимацию выбора одной фичи из всего списка. Делая это независимо K раз, мы выбираем K фичей, которые и становятся выходом энкодера. В базовой статье про конкретный автоэнкодер иллюстрация на MNIST демонстрируют способность такой схемы обучиться игнорировать пиксели по краям и при этом задействовать по 1 пикселю из всех остальных частей картинки, никогда не беря соседние. Эксперименты на других датасетах там тоже есть.
Indirectly Parameterized CAE - улучшение данного подхода. Я с CAE не развлекался, но утверждается, что у базовой модели есть проблемы со стабильностью обучения, а также она почему-то всё же дублирует фичи по несколько раз, что, вроде как, тоже связано с этой нестабильностью.
Один простой трюк очень сильно улучшает ситуацию. Вместо обучаемой матрицы
KxN
используется Indirect Parameterization - эта матрица вычисляется как функция от 3 обучаемых штук: умножения матрицы KxN
на матрицу NxN
и прибавления вектора размера N
к каждой строке результата.Честно говоря, в статье не хватает нормальной мотивации и интуиции, но, судя по результатам, у них это обучается гораздо лучше бейзлайна и всегда выдаёт уникальные фичи.
Главный вопрос - а нахрена вообще всё это нужно?
Внезапно эта идея имеет отличное практическое применение в нейросетях, а именно для проведения Feature Selection! В ситуации, когда обучать сеть супердорого и вы можете позволить это делать единичное число раз, а фичей у вас тысячи, использование Конкретного Энкодера в самом начале модели позволяет обучить Selection
K
фичей из N
напрямую. При этом, если качество модели совпадает с качеством изначальной модели, можно смело выкидывать из прода целых N-K
фичей. Коллеги рапортуют о том, что у нас это заработало, так что, с чистой совестью делюсь хаком.
@knowledge_accumulator
⚡2
#random
Только что увидел, что победил в номинации "сценарий комикса" во всероссийском конкурсе фантастики и проектирования будущего в сеттинге «Берлога».
Очень доволен. Теперь буду ждать акселерации по тексту и публикации комикса (напишу потом, когда про это будут новости).
Наверное, могу считать себя титулованным автором, хехе ;)
Только что увидел, что победил в номинации "сценарий комикса" во всероссийском конкурсе фантастики и проектирования будущего в сеттинге «Берлога».
Очень доволен. Теперь буду ждать акселерации по тексту и публикации комикса (напишу потом, когда про это будут новости).
Наверное, могу считать себя титулованным автором, хехе ;)
🔥11⚡1
Кстати, 5 апреля буду рассказывать про то, как мы делали автоматическое протоколирование встреч в X5.
Регистрация по ссылке. Залетайте послушать, пообщаться в кулуарах, просто поинтересоваться (доклады клевые собрались)!
Регистрация по ссылке. Залетайте послушать, пообщаться в кулуарах, просто поинтересоваться (доклады клевые собрались)!
Тинькофф Банк
T-Meetup: CV & Speech
Обсудим компьютерное зрение и речевые технологии
2❤7