Media is too big
VIEW IN TELEGRAM
YouTube анонсировал новую технологию вставки рекламы с помощью Gemini. Система анализирует видео, выявляя «пиковые моменты» — фрагменты, где зритель максимально вовлечен. Реклама будет показываться сразу после этих отрезков, чтобы не мешать важным сюжетным поворотам, но при этом ловить внимание аудитории.
Пока нет информации о дате запуска, но изменения, скорее всего, внедрят быстро. Для разработчиков это интересный кейс применения AI в медиасфере: алгоритм учится распознавать эмоциональные точки входа и адаптировать рекламу под контент без его разрыва. Технология обещает изменить стратегию монетизации видео, сделав ее менее навязчивой.
9to5google.com
По данным IFI Claims, Google обогнал IBM и стал лидером по заявкам на патенты в области генеративного ИИ, а также доминирует в новом направлении — агентном ИИ. В США число заявок на патенты, связанных с генеративным ИИ, выросло на 56% за год.
В списке крупнейших держателей: Nvidia, Microsoft, IBM и Intel, но за пределами США первые места занимают китайские компании и университеты. OpenAI и компания Марка Цукерберга не вошли в топ-10, так как последняя делает ставку на open-source, а OpenAI использует патенты «только в защитных целях». Эксперты отмечают: рост заявок говорит о стремлении компаний защищать разработки, но в итоге формирует барьер для новых игроков.
axios.com
Microsoft начала тестирование функции голосовой активации помощника «Эй, Copilot» для пользователей Windows Insider. Функция доступна в приложении Copilot через Microsoft Store (версия 1.25051.10.0 и выше) и активируется в настройках — пока только опционально.
Чтобы использовать команду, ПК должен быть разблокирован. После фразы «Эй, Copilot» аудиозапись последующих 10 секунд отправляется для обработки в облако. Функция пока поддерживает только английский язык и работает при подключении к интернету. Microsoft заверяет, что данные не сохраняются до срабатывания триггера, а индикатор в трее уведомляет о прослушивании. Релиз планируется постепенным для всех каналов тестирования.
blogs.windows.com
AlphaEvolve - система, которая использует модели Gemini и автоматические оценки для разработки эффективных алгоритмов. Вместо ручного поиска решений ИИ развивает код, проверяя идеи на лету. AlphaEvolve уже улучшил распределение нагрузки в дата-центрах Borg, экономя 0.7% вычислительных ресурсов компании. Он также оптимизировал чипы TPU, убрав лишние операции в математических схемах, и ускорил обучение моделей Gemini на 1%, переписав ключевые фрагменты кода.
Систему потестили и в математике: алгоритм для умножения матриц 4x4 теперь требует 48 операций вместо 64, а в задаче о «контактного числа» ИИ нашел конфигурацию из 593 сфер в 11-мерном пространстве. Сейчас Google тестирует AlphaEvolve внутри инфраструктуры и обещает скоро откыть доступ исследователям.
deepmind.google
Подразделение FAIR выпустила крупнейший открытый набор данных OMol25 для работы с молекулами и универсальную модель UMA, способную предсказывать свойства веществ. OMol25 включает данные о 100 млн. молекул — от органических соединений до металлических комплексов, с учетом зарядов, конформаций и реакций. Создание потребовало 6 млрд. часов супервычислений, а теперь поможет в поиске лекарств, катализаторов и материалов для батарей.
UMA, обученная на OMol25, работает быстрее традиционных методов, прогнозируя параметры на атомарном уровне. С помощью MOE-архитектуры модель совмещает точность и скорость: расчеты, занимавшие дни, теперь занимают секунды. Вместе с этим предложен метод Adjoint Sampling, позволяющий генерировать новые структуры без примеров из реальности.
Все эти инструменты уже доступны на Hugging Face.
phys.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍66🔥28❤19🥰7💔1
Salesforce AI Research выпустила BLIP3-o, набор полностью открытых унифицированных мультимодальных моделей, которые могут как понимать, так и генерировать изображения.
Под капотом у BLIP3-o гибрид авторегрессионной модели (генерирует промежуточные семантические признаки) и диффузионного трансформера (он превращает их в изображения).
В ходе работы разработчики провели ряд экспериментов для выбора оптимальной стратеги для архитектуры и обучения. Апробации гипотез показали, что использование CLIP работает эффективнее, чем традиционный VAE.
CLIP создает более компактные и информативные представления, что ускоряет обучение и улучшает качество генерируемых изображений. А flow matching лучше , чем подход с использованием среднеквадратичной ошибки (MSE): инференс в итоге более разнообразный и визуально качественный.
Наилучшие результаты обучения показал подход, при котором модель сначала обучают понимать изображения, а затем замораживают эти навыки, переключаясь на обучение генерации картинок.
На основе этих принципов и были созданы модели BLIP3-o 8B и BLIP3-o 4B.
В оценках по эталонным тестам BLIP3-o 8B набрала 1682.6 на MME-P, 50.6 на MMMU и 0.84 на GenEval. Исследование с оценкой человеком, сравнивающее BLIP3-o с Janus Pro, показало, что BLIP3-o лучше как по визуальному качеству, так и по соответствию промпту.
В будущем Salesforce планирует расширить возможности модели: редактирование существующих изображений, поддержка визуальных диалогов и пошаговая генерация.
@ai_machinelearning_big_data
#AI #ML #MMLM #BLIP3o #Salesforce
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49❤19🔥18🏆1
OpenAI представляет Codex — облачного агента для генерации кода, способного выполнять множество задач параллельно.
В основе — модель codex-1.
🧠 Ключевые особенности:
• Codex работает прямо в браузере
• Поддерживает многозадачность: можно одновременно проверять код, задавать вопросы и переключаться между задачами
• Построен на **новой модели Codex-1** — самой мощной модели для кодинга от OpenAI
• Интеграция с GitHub — можно подключить свой аккаунт, и агент будет работать с вашими репозиториями
🚀 Codex — это шаг в сторону полуавтоматизированной разработки, где ИИ способен выполнять рутинную и аналитическую работу без постоянного контроля со стороны разработчика.
📅 Запуск ожидается уже сегодня.
Подождите, то есть Codex как приложение — это не то же самое, что Codex в виде CLI, и всё это ещё отличается от Codex как модели? Серьёзно?
▪ Релиз: https://openai.com/index/introducing-codex/
@ai_machinelearning_big_data
#OpenAI #Codex #AI #CodeAutomation #DevTools
В основе — модель codex-1.
🧠 Ключевые особенности:
• Codex работает прямо в браузере
• Поддерживает многозадачность: можно одновременно проверять код, задавать вопросы и переключаться между задачами
• Построен на **новой модели Codex-1** — самой мощной модели для кодинга от OpenAI
• Интеграция с GitHub — можно подключить свой аккаунт, и агент будет работать с вашими репозиториями
🚀 Codex — это шаг в сторону полуавтоматизированной разработки, где ИИ способен выполнять рутинную и аналитическую работу без постоянного контроля со стороны разработчика.
📅 Запуск ожидается уже сегодня.
▪ Релиз: https://openai.com/index/introducing-codex/
@ai_machinelearning_big_data
#OpenAI #Codex #AI #CodeAutomation #DevTools
❤71👍42🔥22🥰9🤬1
Media is too big
VIEW IN TELEGRAM
MIT попросил arXiv отозвать работу о влиянии ИИ на научные открытия и инновации, опубликованную в ноябре 2024 года. Внутренняя проверка выявила сомнения в достоверности данных и методах исследования. Хотя автор, бывший аспирант экономического факультета MIT, не подал заявку на отзыв, институт настаивает на удалении работы из открытого доступа.
Профессора MIT, упомянутые в работе, заявили, что не доверяют источникам и выводам исследования. Теперь эксперты ждут реакции arXiv, который, согласно своим правилам, может отозвать работу только по инициативе автора или администратора.
economics.mit.edu
Epic Games представила интерактивного персонажа Дарта Вейдера, который отвечает на вопросы о Звездах смерти, тактике боя и Силе голосом Джеймса Ирла Джонса, озвучивавшего персонажа в "Звездных войнах". Эта функция является частью текущего сезона Fortnite, посвященной популярной медиафраншизе.
Разработчики использовали Google Gemini и технологии ElevenLabs, чтобы оживить легенду. Правда, игроки быстро начали тестировать ИИ на прочность, заставляя его повторять мат и оскорбления — студия оперативно выпустила патч для фильтрации контента.
fortnite.com
Сервис преодолел отметку в 150 млн пользователей — рост на 50% с февраля 2024 года. Ключевым драйвером стало внедрение тарифа за $19,99 в месяц с доступом к ИИ - возможностям, недоступным для бесплатных аккаунтов.
По словам представителя Google, новый ИИ-тариф принес «миллионы» подписок. Рост сервиса важен для Alphabet, стремящегося сократить зависимость от рекламы (75% дохода в 2024 году). Как отметил CEO Google, привлечение платных пользователей - это стратегия, которая будет развиваться «по мере времени».
reuters.com
Cohere объявил о покупке Ottogrid - платформы для автоматизации анализа рыночных данных. Основатели Ottogrid присоединятся к Cohere, чтобы усилить возможности своего продукта North, ориентированного на обработку документов и задач корпоративных пользователей.
Ottogrid, ранее называвшийся Cognosys, прекратит самостоятельную работу, а инструменты платформы, включая извлечение данных с сайтов и интеграцию с таблицами, будут встроены в решения Cohere.
Покупка происходит на фоне реструктуризации Cohere: после провала по доходам в 2023 году компания сместила фокус на продажи в секторах здравоохранения и финансов, после чего собрала $2 млн. инвестиций от GV и частных венчурных фондов.
techcrunch.com
Компания-разработчик Llama столкнулась проблемами , отложив релиз флагманской модели Behemoth на неопределенный срок. Инженеры не смогли добиться заметных улучшений по сравнению с предыдущими версиями, что вызвало критику внутри компании. Некоторые сотрудники опасаются, что модель не оправдает ожиданий руководства в конкуренции с продуктами OpenAI, Google и Anthropic.
Топ-менеджмент компании разочарован задержками и планирует перестановки в группе, отвечающей за Llama 4. Ранее выпущенные модели, представленные в апреле, показали хорошие результаты в тестах, но позже выяснилось, что для бенчмарков использовалась доработанная версия, а не публичная. Марк Цукерберг признал оптимизацию под конкретные задачи.
wsj.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍60❤22🔥15🤔11😁2
Forwarded from Machine learning Interview
🧠 Бесплатный курс от Hugging Face: Model Context Protocol (MCP)
Hugging Face запустили обучающий курс по Model Context Protocol (MCP) — это современный стандарт для взаимодействия между ИИ-моделями, внешними API, пользовательским вводом и контекстом. Курс идеально подойдёт разработчикам, ML-инженерам и всем, кто хочет строить мощные, интерактивные LLM-приложения.
🔍 Что ты узнаешь:
• 🧩 Как работает архитектура MCP
• 🧰 Как использовать официальные MCP SDK на Python и TypeScript
• 🛠 Как собрать своё MCP-приложение с Gradio и Hugging Face Spaces
• 🎯 Как пройти сертификацию и получить подтверждение своих навыков
📚 Содержание курса:
1. Введение в MCP и структуру курса
2. Архитектура и ключевые компоненты MCP
3. Создание первого MCP-приложения
4. Продвинутые фичи и интеграции
5. Бонусы: дополнительные примеры, кейсы, best practices
💡 Что нужно для старта:
• Опыт с Python или TypeScript
• Понимание API, LLM и разработки
• Аккаунт на Hugging Face
• Желание строить умные и гибкие AI-интерфейсы
👥 Комьюнити:
Присоединяйся к Discord-серверу Hugging Face, чтобы общаться с разработчиками и проходить курс в компании других участников.
➡️ Перейти к курсу
@machinelearning_interview - вопросы с собеседований
Hugging Face запустили обучающий курс по Model Context Protocol (MCP) — это современный стандарт для взаимодействия между ИИ-моделями, внешними API, пользовательским вводом и контекстом. Курс идеально подойдёт разработчикам, ML-инженерам и всем, кто хочет строить мощные, интерактивные LLM-приложения.
🔍 Что ты узнаешь:
• 🧩 Как работает архитектура MCP
• 🧰 Как использовать официальные MCP SDK на Python и TypeScript
• 🛠 Как собрать своё MCP-приложение с Gradio и Hugging Face Spaces
• 🎯 Как пройти сертификацию и получить подтверждение своих навыков
📚 Содержание курса:
1. Введение в MCP и структуру курса
2. Архитектура и ключевые компоненты MCP
3. Создание первого MCP-приложения
4. Продвинутые фичи и интеграции
5. Бонусы: дополнительные примеры, кейсы, best practices
💡 Что нужно для старта:
• Опыт с Python или TypeScript
• Понимание API, LLM и разработки
• Аккаунт на Hugging Face
• Желание строить умные и гибкие AI-интерфейсы
👥 Комьюнити:
Присоединяйся к Discord-серверу Hugging Face, чтобы общаться с разработчиками и проходить курс в компании других участников.
➡️ Перейти к курсу
@machinelearning_interview - вопросы с собеседований
👍70❤19🔥10🤣5🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Agibot и новый взгляд на форму робота
Проект Agibot предлагает переосмыслить привычный подход к дизайну роботов. Традиционно роботы создаются по образу человека — с двумя руками, двумя ногами, направленным вперёд зрением. Это объясняется тем, что окружающий мир спроектирован под человеческие потребности: лестницы, двери, инструменты.
Однако возникает вопрос: обязательно ли ограничиваться человеческой анатомией, а что если:
• Робот с тремя руками может выполнять больше задач одновременно
• Три ноги обеспечивают лучшую устойчивость на неровной поверхности
• Круговой обзор с помощью камер по периметру эффективнее человеческого зрения
🔧 Agibot демонстрирует первые шаги к объединению биомеханики и инженерного прагматизма. Вместо слепого копирования человека — попытка создать оптимальную форму для задач, стоящих перед роботами.
🚀 Будущее робототехники, возможно, лежит не в имитации, а в эволюции — с новыми решениями, выходящими за рамки антонимии человеческого тела.
@ai_machinelearning_big_data
#ai #robots #ml
Проект Agibot предлагает переосмыслить привычный подход к дизайну роботов. Традиционно роботы создаются по образу человека — с двумя руками, двумя ногами, направленным вперёд зрением. Это объясняется тем, что окружающий мир спроектирован под человеческие потребности: лестницы, двери, инструменты.
Однако возникает вопрос: обязательно ли ограничиваться человеческой анатомией, а что если:
• Робот с тремя руками может выполнять больше задач одновременно
• Три ноги обеспечивают лучшую устойчивость на неровной поверхности
• Круговой обзор с помощью камер по периметру эффективнее человеческого зрения
🔧 Agibot демонстрирует первые шаги к объединению биомеханики и инженерного прагматизма. Вместо слепого копирования человека — попытка создать оптимальную форму для задач, стоящих перед роботами.
🚀 Будущее робототехники, возможно, лежит не в имитации, а в эволюции — с новыми решениями, выходящими за рамки антонимии человеческого тела.
@ai_machinelearning_big_data
#ai #robots #ml
👍91🔥22❤18⚡3🤬2🌭1🎄1
Платформа Ollama представила новый движок с полной поддержкой мультимодальных ИИ-моделей, которые могут работать как с текстом, так и с изображениями.
Уже доступны:
• LLaMA 4,
• Gemma 3,
• Qwen 2.5 VL,
• Mistral Small 3.1 и другие модели.
• Каждая модель теперь полностью автономна — это упрощает обновления и интеграцию
• Улучшена точность визуального анализа благодаря передаче метаданных и поддержке больших изображений
• Оптимизирована работа с памятью: кэшируются изображения, улучшен KV-кэш, модели работают быстрее и стабильнее
Ранее Ollama уже поддерживала работу с изображениями через интеграцию с llama.cpp. Однако с выпуском версии 0.7 платформа представила новый движок, разработанный на базе библиотеки GGML, который обеспечивает полноценную и стабильную поддержку мультимодальных моделей.
Это означает, что теперь такие модели являются "полноправными гражданами" в экосистеме Ollama, что улучшает надежность, точность и расширяет возможности для будущих модальностей, таких как речь, генерация изображений и видео, а также поддержка более длинных контекстов и улучшенных инструментов для моделей.
@ai_machinelearning_big_data
#olama #opensource #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥102👍46❤24🥱4🎄1
This media is not supported in your browser
VIEW IN TELEGRAM
Дженсен Хуанг CEO NVIDIA:
ИИ, способный к рассуждению, открыл путь к совершенно новому классу агентных систем.
🚀 Будущее — за гибридными командами, где один человек работает вместе с тысячей интеллектуальных агентов.
🧬 Один биоинженер становится суперинженером, опираясь на целую армию ИИ-помощников, способных не просто выполнять команды, а анализировать, думать и принимать решения.
Это не просто автоматизация — это новый уровень сотрудничества между человеком и разумными машинами.
@ai_machinelearning_big_data
#NVIDIA #future #ai
ИИ, способный к рассуждению, открыл путь к совершенно новому классу агентных систем.
🚀 Будущее — за гибридными командами, где один человек работает вместе с тысячей интеллектуальных агентов.
🧬 Один биоинженер становится суперинженером, опираясь на целую армию ИИ-помощников, способных не просто выполнять команды, а анализировать, думать и принимать решения.
Это не просто автоматизация — это новый уровень сотрудничества между человеком и разумными машинами.
@ai_machinelearning_big_data
#NVIDIA #future #ai
12❤126🤣48🔥41👍25🤔13🥰6👏5🎄2🌭1
Google готовится представить новую функцию — AI-сгенерированные видеообзоры (Video Overviews), которая станет частью проекта Illuminate. Эта технология позволяет преобразовывать текстовые запросы в короткие видеоролики продолжительностью от 1 до 3 минут, полностью созданные искусственным интеллектом.
Была показана серия видео, называемых "Sparks", каждое из которых демонстрирует различные стили и темы.
Эти видео генерируются единой моделью, способной синхронизировать видео и аудио без необходимости в отдельных процессах для каждого компонента.
Хотя точная модель, лежащая в основе этой технологии, не раскрывается, предполагается, что она связана с Veo 3 или мультимодальной версией Gemini Ultra.
@ai_machinelearning_big_data
#google #ai #ml #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤57👍37🔥19❤🔥3🎄1
nanoVLM - проект, вдохновленный подходом nanoGPT от Andrej Karpathy, который предлагает минималистичную реализацию VLM на чистом PyTorch.
Код проекта настолько прост, что даже новичок быстро поймет, как устроены компоненты: Vision Backbone (150 строк), Language Decoder (250 строк), проекция модальностей (50 строк) и сама модель (100 строк). Все вместе с тренировочным циклом умещается в 750 строк — идеально для модификаций.
Созданная с помощью nanoVLM модель не претендует на звание прорывной, но дает отличную базу для экспериментов. Комбинация SigLIP-B/16-224-85M (визуальная часть) и SmolLM2-135M (языковая) создает компактную VLM на 222 млн. параметров. После 6 часов обучения на одном H100 GPU и 1.7 млн. примеров из датасета The Cauldron она показывает 35.3% точности на MMStar.
Начать работу можно 3 способами: клонировать репозиторий, запустить готовый Colab-ноутбук или использовать интерактивный туториал в формате ipynb. Даже если у вас нет доступа к топовому железу, эксперименты на Google Colab на бесплатном тиере вполне реальны. Установка максимально облегчена: зависимости минимальны, а логирование и загрузка параметров уже встроены.
nanoVLM отлично подойдет как образовательный проект или тренажер чтобы изучать VLM. В нем есть все для старта — от понятного кода до рабочих примеров. Если вы хотите создать свою мультимодальную модель, но боитесь сложностей, nanoVLM станет отличной песочницей для экспериментов.
@ai_machinelearning_big_data
#AI #ML #VLM #NanoVLM #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
👍71❤25🔥21🎄2
Команда Visual Studio Code объявила о планах трансформировать VS Code в редактор с открытым исходным кодом для работы с ИИ.
В ближайшие недели команда Visual Studio Code планирует открыть исходный код расширения GitHub Copilot Chat и перенести ИИ-функции из расширения в основное ядро VS Code.
Конкуренция - двигатели прогресса!
🔗 Подробности: aka.ms/open-source-ai-editor
#VSCode #OpenSource #ИИ #Разработка #Сообщество
Please open Telegram to view this post
VIEW IN TELEGRAM
👍150🔥62❤32🫡5💔4🎄1
Media is too big
VIEW IN TELEGRAM
Nvidia анонсировала технологию NVLink Fusion, открывающую доступ NVLink для сторонних разработчиков. Это позволит партнерам использовать собственные CPU и ИИ-ускорители в связке с решениями Nvidia на уровне серверной стойки. NVLink Fusion обеспечивает 14-кратное преимущество в пропускной способности по сравнению с PCIe и интегрируется через чиплеты, с ним масштабирование кластеров для решения ИИ-задач станет проще.
В экосистему вошли Marvell, MediaTek и разработчики ПО Cadence и Synopsys, предлагающие инструменты для проектирования. Fujitsu планирует соединить свои 144-ядерные процессоры Monaka с архитектурой Nvidia для создания энергоэффективных ИИ-систем.
По словам Nvidia, первые решения на базе NVLink Fusion уже доступны для внедрения.
tomshardware.com
NLWeb — открытый протокол, который позволяет внедрять чат-боты с поддержкой естественного языка на любые сайты. По словам техэксперта Microsoft, система дает разработчикам инструменты для создания персонализированных ИИ-сервисов за минуты. Вместо дорогого индексирования данных NLWeb использует RSS-фиды и векторные базы, подключая даже бюджетные LLM.
Основная цель разработки протокола — сайты получат собственные ИИ-решения без зависимости от внешних LLM-провайдеров.. Microsoft уже сотрудничает с TripAdvisor и Shopify, продвигая протокол как альтернативу индивидуальным сделкам с OpenAI.
theverge.com
На Computex 2025 Intel анонсировала линейку Arc Pro «Battlemage» на базе архитектуры Xe2 и 5 нм чипа BMG-G21. Младшая модель B50 с 16 ГБ памяти заточена под профессиональную визуализацию, а B60 с 24 ГБ — под задачи ИИ-инференса. Энергопотребление у B50 всего 70Вт, а у флагманской модели до 200Вт через 600 Вт разъем питания с 12V2x6-коннектором.
Проект Battlematrix позволяет объединить до 8 GPU с суммарным объёмом VRAM до 192 ГБ для работы с ИИ-моделями на 70+ млрд. параметров
Выпуском карт, которые поступят в продажу в 3 квартале 2025 года, займутся партнеры Intel: ASRock, Gunnir и Maxsun. По заявлениям Intel, новые решения уже прошли сертификацию в основных профессиональных приложениях.
techpowerup.com
Apple опубликовала исследование о том, что многоязычные LLM часто генерируют неестественные тексты на французском, китайском и других языках из-за доминирования английского в обучающих данных.
Для оценки проблемы разработали метрики на основе распределения лексики (Jensen-Shannon Divergence) и синтаксиса (анализ деревьев зависимостей через ядро Weisfeiler-Lehman). Тесты показали: даже топовые модели отстают от человеческих текстов, особенно в языках, далеких от английского.
Решение нашли в тонкой настройке через DPO. Используя датасеты с естественными и искусственно искажёнными ответами, модели учатся избегать англицизмов. Llama-3.1 после доработки стала реже использовать конструкции вроде «победитель был объявлен» в китайском, заменяя их на более натуральные формулировки.
machinelearning.apple.com
Index-AniSora — модель для создания аниме-контента в разных стилях: от сериалов и манги до VTuber-анимации. Система построена на диффузионных моделях с улучшенным контролем времени и пространства и позволяет точно настраивать движения персонажей, мимику и даже отдельные кадры.
В релизе 2 версии: AniSoraV1.0 (на базе CogVideoX-5B) и AniSoraV2.0 (Wan2.1-14B). Вторая версия работает стабильнее, но первую можно запустить на потребительских GPU.
Модели обучались на датасете из 10 млн. пар "видео-тект" и 30 тыс. ручных оценок по 6 параметрам.
Bilibili на Github
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63❤23🔥17🤣5🎄1