Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
467 - Telegram Web
Telegram Web
Forwarded from Denis Sexy IT 🤖
Как мне o1 Pro с шеей помогла 

>36 лет, почти 2 метра роста
>в ~33 много сидел за ноутом в позе буквы G и заработал хронические боли в шее (ригидность шеи)
>прошел много сессий массажа чтобы снять боль, но полностью боль не проходила
>купил всякие подставки для ноута, начал ходить чаще в зал, в шее все еще скованность мышц – не посмотреть в право без ощущения натянутой струны в затылке
>надоело, решил снова записаиться на массаж-терапию и починиться – массажист-терапевт сразу заметил, с какими мышцами проблема
>Но мы же в будущем
>Описал o1 Pro всю историю болезни и попросил сделать мне программу для починки мышц
>Попросил сразу включить поисковые запросы для Youtube чтобы быстро найти нужные техники
>3 вечера занимаюсь по ее программе
>Терапевт на втором приеме сегодня – Денис, я не могу нащупать напряженные мышцы???
>Показал ему программу o1 Pro, терапевт в восторге – все по науке, отменил остальные сессии массажа
>Впервые могу смотреть во все стороны как нормальный обычный человек

Программа тут, если кто-то с шеей страдает – o1 Pro не замена для врачей, но очень классно помогает – рекомендую
🥰16🔥8👏2
Всратые нейрокоты с цифрой 33. Что бы это могло значить?

А это значит, что сегодня у меня день рождения. И мне исполнилось уже 33 года. Самое время переходить на похожие открытки в whatsapp...

Но я не сдамся. Только всратые стикеры - только хардкор!
124🍾16
Более актуальная для 21 века поговорка:
"Скажи мне, какую тебе показывают рекламу, и я скажу, кто ты"

С другой стороны, тут не альтушка. А это значит, что я пока еще не совсем скуф ¯\_(ツ)_/¯

P.S. Хз, можно ли это считать бесплатной рекламой. В общем, не является рекламой, а является кеком, если что (пускай и скрин рекламы).
P.P.S. Пока еще Сбер не достиг уровня рекламы мобильных игр. Есть куда стремиться!
🥰7👏1
Вот это огнище! Женя, автор канала Женя Покидина Творит, записала озвучку моего рассказа.

Это по-настоящему магическое ощущение, когда твое творение оживает, наполняется объемом, звучит! Очень приятно это видеть и, конечно же, слышать ;)

Очень благодарен Жене. Получился такой вот прекрасный подарок к дню рождения, за что отдельное спасибо.

Обязательно послушайте другие рассказы с ее канала. Ну и подписывайтесь, конечно.
4🔥1
Media is too big
VIEW IN TELEGRAM
Давайте представим, что художественная литература - это женщина. Какой бы она была? 💃

Коварной, это точно. Она умеет за милыми речами, нежными взорами и приятными беседами скрывать самые мрачные коридоры человеческой души.

И пока она заманивает своими приёмчиками - через юмор передать трагедию, с помощью второстепенного персонажа (порой даже и вовсе не человека) рассказать историю одной судьбы, читатель сам не замечает, как попадает в её сети.

Вот вроде сидит себе мирно, почитывает под кофеёк рассказ или роман, всё хорошо, все живы-здоровы и даже вполне счастливы. И вдруг разверзается бездна и утягивает на своё жуткое дно все надежды, мечты главных и расслабленное настроение читателя. Тут бы ещё кофе не подавиться ненароком. 😳

Вот так и в рассказе Артёма Ерохина коварная муза посетила автора, не иначе.

За лёгким слогом и наивным характером персонажа, от лица которого ведётся сюжет, скрывается бездна.

Пейте свой кофе и ешьте пирожные во время прослушивания рассказа аккуратно. Никогда не знаешь, что преподнесёт тебе писательское мастерство сегодня.

Автор рассказа "На своих местах" Артём Ерохин - владелец канала "Artificial stupidity" - искусственный интеллект, взлом Алисы, чудеса информационных технологий.

Озвучила рассказ я, Женя Покидина, мой канал "Женя Покидина Творит" - путь писательницы, творчество без границ, книжные рекомендации и многое другое.

#ОзвучкаОтЖени #Творчество

🤗 Делитесь впечатлениями от озвучки и рассказа в комментариях! 🔥🔥🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
#LLM

А вот про что забыл рассказать на прошлой неделе. У коллег из нашей команды вышла статья про то, как мы в команде строили инфраструктуру работы с LLM.

Тут все как обычно: читайте, ставьте плюсики, спрашивайте вопросы в комментариях к статье (если они у вас есть). Ну и узнавайте новое, конечно же!
4👍2
Forwarded from Insider X5
👍👍👍 Вы встречали человека, который работает с нейронными сетями, пишет рассказы и стихи, преподает и ведет свой канал в Telegram? Теперь да! Это наш сегодняшний герой, Артем Ерохин, ведущий инженер нейронных сетей X5 Tech. Как ему удается все успевать, читайте на наших карточках.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥142👏2
​​#cv #ml

Оказывается, не вся информация хорошо считывается с дисплеев. Не так давно узнал, что для обычных экранов, типа весов, бензоколонок и электронных часов есть отдельная задача распознавания.

Такой тип отображения на экранах называется seven segment digits. То есть, у нас есть 7 полосок: 3 вверху, 3 внизу и еще одна посередине.

И для этой задачки есть отдельные модели, которые улучшают распознавание (проверено не себе, решения из коробки с обычным распознаванием нещадно тупили, хотя, казалось бы, такая простая задачка). Напрмиер, в PaddleOCR (которые, видимо, должны теперь мне миска рис за рекламу) есть модели DBNet для детекции и PARSeq для распознавания. Как только мы решили применить эти модели, качество распознавания сразу подросло.

Какой же вывод из этой истории? Даже если что-то кажется очень простым или банальным, то всегда случиться так, что мы попадем не corner case, для которого нужно будет искать специфичное решение. Второй вывод - попробуйте получше порыться в вашей "черной коробке" (если используете коробочное решение). Как знать, возможно в ней есть то, о чем вы просто не знали.

P.S. Пара статей по теме:
Detecting and recognizing seven segment digits
using a deep learning approach
Real-Time Seven Segment Display Detection and
Recognition Online System using CNN
👍31
Оп, новый опрос о зарплатах в этом вашем data science. Интересно, какие выйдут результаты?
Forwarded from Нескучный Data Science (Евгений Смирнов)
💸 Сколько ты зарабатываешь на Data Science?

👉 Пройди опрос сейчас, не откладывай на потом❗️

🤔 Вы можете примерно оценить вилку на вашей позиции благодаря вакансиям из каналов, где они публикуются. Тем не менее вилки довольно широкие и одни работодатели недоплачивают или платят строго по низу вилки, другие наоборот переплачивают и выходят за ее пределы. Вам в свою очередь нужно на собеседовании или при повышении назвать одно число, ровно столько вам будет платить довольно продолжительный период времени.

📊 Запускаю опрос, который в будущем поможет подписчикам сопоставить свой набор навыков с рынком труда. Прошу вас ответить на вопросы про ваш опыт, текущую роль в компании, ваш уровень удовлетворенности и планы на будущее. Чем прозрачнее будет рынок труда, тем выгоднее будет обоим сторонам, ведь дата сайентисты не будут смотреть в лес рынка труда.

🔖 Результаты опроса буду порционно публиковать в канале Нескучный Data Science @not_boring_ds.

😉 классические вопросы с популярных интервью тоже включены)

P.S. при публикации статистики дам ссылки на каналы поддержавшие опрос.
2👍1
Forwarded from Data Secrets
Media is too big
VIEW IN TELEGRAM
⚡️ В Google Colab завезли Data Science агента!

Он создан специально для работы с DS/ML и может создавать не просто фрагменты кода, а целые ноутбуки. Все просто:

1. Нужно подгрузить свои данные

2. Описать цели (например, «визуализируй», «проведи EDA», «напиши и оптимизируй модель предсказания таргета»)

3. Сидеть и наслаждаться тем, как агент сам пишет и запускает ячейки, импортирует нужные библиотеки и совершенствует свой код

Кстати, на бенчмарке DABStep (он как раз оценивает способности анализировать дату) агент занял четвертое место, сразу после o1, o3-mini и Claude, а это довольно мощный уровень.

Доступно для всех юзеров
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13
#random

Я тут недавно быстренько накидал короткий стишок на 8 марта. Собственно, почему бы и не запостить.

"Товарищи женщины!
Во все громогласное горло
Готовы поздравить вас
Снова и снова.

Не зря ведь боролись
Роза и Клара:
Марта восьмое —
Не просто забава!

И наши слова —
Не просто игра,
А слово и дело.
Ура вам, ура!"
❤‍🔥8🌚1🍌1
Forwarded from Knowledge Accumulator
Конкретный автоэнкодер [2019] и его улучшение [2024]

Итак, обычно в автоэнкодерах мы решаем задачу сжатия изначального вектора фичей в пространство маленькой размерности. Мы обучаем энкодер q(z|x) и декодер p(x|z) таким образом, чтобы у нас получалось восстановить изначальный вектор x из вектора скрытых переменных z.

Конкретный автоэнкодер ставит задачу более интересным образом - вместо перевода вектора фичей в скрытое пространство мы хотим выбрать список фичей в x, который и будет этим самым вектором скрытых переменных.

Иначе говоря, какие фичи содержат наибольшее количество информации, которое позволит восстановить исходный вектор x наилучшим образом? Конкретный автоэнкодер решает именно эту задачу.

Слово "конкретный" в названии - "concrete" - на самом деле сокращение от Continuous Discrete - это параллельное изобретение того самого Gumbel Softmax трюка, который я описывал в позапрошлом посте.

Единственным параметром энкодера является матрица KxN - размерность скрытого вектора на кол-во фичей. В каждой строке у нас находится обучаемый вектор "логитов" для каждой фичи, к которому мы применяем Gumbel Softmax и получаем soft one-hot вектор-маску для всех фичей, которую затем скалярно умножаем на исходный вектор фичей - получая таким образом дифференцируемую аппроксимацию выбора одной фичи из всего списка.

Делая это независимо K раз, мы выбираем K фичей, которые и становятся выходом энкодера. В базовой статье про конкретный автоэнкодер иллюстрация на MNIST демонстрируют способность такой схемы обучиться игнорировать пиксели по краям и при этом задействовать по 1 пикселю из всех остальных частей картинки, никогда не беря соседние. Эксперименты на других датасетах там тоже есть.

Indirectly Parameterized CAE - улучшение данного подхода. Я с CAE не развлекался, но утверждается, что у базовой модели есть проблемы со стабильностью обучения, а также она почему-то всё же дублирует фичи по несколько раз, что, вроде как, тоже связано с этой нестабильностью.

Один простой трюк очень сильно улучшает ситуацию. Вместо обучаемой матрицы KxN используется Indirect Parameterization - эта матрица вычисляется как функция от 3 обучаемых штук: умножения матрицы KxN на матрицу NxN и прибавления вектора размера N к каждой строке результата.

Честно говоря, в статье не хватает нормальной мотивации и интуиции, но, судя по результатам, у них это обучается гораздо лучше бейзлайна и всегда выдаёт уникальные фичи.

Главный вопрос - а нахрена вообще всё это нужно?

Внезапно эта идея имеет отличное практическое применение в нейросетях, а именно для проведения Feature Selection! В ситуации, когда обучать сеть супердорого и вы можете позволить это делать единичное число раз, а фичей у вас тысячи, использование Конкретного Энкодера в самом начале модели позволяет обучить Selection K фичей из N напрямую. При этом, если качество модели совпадает с качеством изначальной модели, можно смело выкидывать из прода целых N-K фичей.

Коллеги рапортуют о том, что у нас это заработало, так что, с чистой совестью делюсь хаком.

@knowledge_accumulator
2
#random

Только что увидел, что победил в номинации "сценарий комикса" во всероссийском конкурсе фантастики и проектирования будущего в сеттинге «Берлога».

Очень доволен. Теперь буду ждать акселерации по тексту и публикации комикса (напишу потом, когда про это будут новости).

Наверное, могу считать себя титулованным автором, хехе ;)
🔥111
#llm

На Хабре вышла статья по мотивам моего прошлогоднего выступления по разметке с использованием LLM (в канале про это тоже были посты). Чуть причесал и обновил текст под современные реалии.

Все как обычно: читайте, просвещайтесь, ставьте плюсики! (ну и кайфуйте с моего текста, конечно же)
🔥6👍2
Кстати, 5 апреля буду рассказывать про то, как мы делали автоматическое протоколирование встреч в X5.

Регистрация по ссылке. Залетайте послушать, пообщаться в кулуарах, просто поинтересоваться (доклады клевые собрались)!
27
2025/07/09 00:23:37
Back to Top
HTML Embed Code: