AI Index Report 2025
Полный отчёт, который фиксирует ключевые тренды в развитии ИИ
Встречайте восьмое издание AI Index Report — самого масштабного и всестороннего обзора текущего состояния искусственного интеллекта. Этот выпуск выходит в критический момент, поскольку влияние ИИ на общество, экономику и глобальное управление становится всё более значительным.
🔍 Что нового в 2025 году:
• Анализ аппаратного обеспечения для ИИ: как развиваются чипы, инфраструктура и вычислительные платформы.
• Оценки затрат на инференс: впервые представлены реальные цифры — во сколько компаниям обходится использование ИИ в продукте.
• Тренды публикаций и патентов: двигают ли учёные и корпорации вперед общей картине прогресса в ИИ?
•Ответственное использование ИИ: данные по корпоративной практике — кто и как адаптируется к этическим нормам.
• Роль ИИ в науке и медицине: расширенный анализ влияния ИИ на фундаментальные и прикладные исследования.
Полный отчёт, который фиксирует ключевые тренды в развитии ИИ
Встречайте восьмое издание AI Index Report — самого масштабного и всестороннего обзора текущего состояния искусственного интеллекта. Этот выпуск выходит в критический момент, поскольку влияние ИИ на общество, экономику и глобальное управление становится всё более значительным.
🔍 Что нового в 2025 году:
• Анализ аппаратного обеспечения для ИИ: как развиваются чипы, инфраструктура и вычислительные платформы.
• Оценки затрат на инференс: впервые представлены реальные цифры — во сколько компаниям обходится использование ИИ в продукте.
• Тренды публикаций и патентов: двигают ли учёные и корпорации вперед общей картине прогресса в ИИ?
•Ответственное использование ИИ: данные по корпоративной практике — кто и как адаптируется к этическим нормам.
• Роль ИИ в науке и медицине: расширенный анализ влияния ИИ на фундаментальные и прикладные исследования.
Искусственный интеллект и образование: могут ли ChatGPT и аналоги предсказывать успех студентов?
Как исследовательница из Турции использовала моделирование Монте-Карло и систематический обзор, чтобы оценить влияние генеративного ИИ на академические достижения
Автор: Сейма Яман Каядиби
Источник: arXiv:2504.1853
📌 Введение: Век GenAI в университетах
Бурное развитие генеративного искусственного интеллекта — от ChatGPT до специализированных академических ассистентов — породило мощную волну интереса в сфере высшего образования. Как именно студенты взаимодействуют с этими технологиями? И влияет ли это на их реальную академическую успеваемость?
Чтобы дать научно обоснованный ответ на эти вопросы, турецкая исследовательница Сейма Яман Каядиби предложила оригинальный подход: объединить систематический обзор литературы с количественным моделированием методом Монте-Карло.
🔍 Методология: от PRISMA к вероятностному прогнозу
В рамках систематического поиска по протоколу PRISMA, проведённого в базе данных Scopus, были отобраны 19 эмпирических исследований, опубликованных в период с 2023 по 2025 год. Эти работы рассматривали восприятие и использование генеративного ИИ студентами в университетской среде.
После тематической категоризации выявленных паттернов, шесть из них содержали достаточно полные количественные данные (средние значения, стандартные отклонения и шкалы Лайкерта), пригодные для статистического моделирования. Один из наборов данных, отличавшийся ясной структурой и тематическим соответствием, был выбран в качестве репрезентативного случая для моделирования Монте-Карло.
🧠 Итоговый индикатор: «Оценка успеха»
Ключевым результатом моделирования стала составная метрика — «Оценка успеха», отражающая предполагаемую силу связи между отношением студентов к GenAI и их учебными достижениями.
, — подчеркивает Каядиби.
Таким образом, восприятие реальной пользы и лёгкости использования инструментов GenAI сильнее коррелирует с академической эффективностью, чем, скажем, чувство симпатии или доверия к технологии.
📊 Монте-Карло: не только для физиков
Используя метод обратного дисперсионного взвешивания, исследовательница запустила серию симуляций, которые позволили уточнить вес отдельных факторов в прогнозировании успеха. Такой подход обычно применяется в физике и финансовом моделировании, но здесь он получил уникальное применение в сфере образовательной аналитики.
🎓 Выводы: где заканчивается помощь и начинается подмена?
Работа Каядиби становится важным вкладом в растущую дискуссию о роли генеративного ИИ в образовании. Результаты исследования объединяют качественные тематические данные и количественные прогнозы, позволяя взглянуть на использование ИИ в университете не только с этической, но и с практической стороны.
— задаёт тон финалу исследовательница.
📚 Контекст: ИИ в образовательной политике
На фоне стремительного распространения ChatGPT, Copilot и других инструментов, университеты по всему миру разрабатывают собственные политики по использованию ИИ. В этом контексте результаты исследования Сеймы Яман Каядиби могут стать основанием для принятия взвешенных решений на уровне образовательных стратегий, особенно в аспектах интеграции и регулирования GenAI.
Как исследовательница из Турции использовала моделирование Монте-Карло и систематический обзор, чтобы оценить влияние генеративного ИИ на академические достижения
Автор: Сейма Яман Каядиби
Источник: arXiv:2504.1853
📌 Введение: Век GenAI в университетах
Бурное развитие генеративного искусственного интеллекта — от ChatGPT до специализированных академических ассистентов — породило мощную волну интереса в сфере высшего образования. Как именно студенты взаимодействуют с этими технологиями? И влияет ли это на их реальную академическую успеваемость?
Чтобы дать научно обоснованный ответ на эти вопросы, турецкая исследовательница Сейма Яман Каядиби предложила оригинальный подход: объединить систематический обзор литературы с количественным моделированием методом Монте-Карло.
🔍 Методология: от PRISMA к вероятностному прогнозу
В рамках систематического поиска по протоколу PRISMA, проведённого в базе данных Scopus, были отобраны 19 эмпирических исследований, опубликованных в период с 2023 по 2025 год. Эти работы рассматривали восприятие и использование генеративного ИИ студентами в университетской среде.
После тематической категоризации выявленных паттернов, шесть из них содержали достаточно полные количественные данные (средние значения, стандартные отклонения и шкалы Лайкерта), пригодные для статистического моделирования. Один из наборов данных, отличавшийся ясной структурой и тематическим соответствием, был выбран в качестве репрезентативного случая для моделирования Монте-Карло.
🧠 Итоговый индикатор: «Оценка успеха»
Ключевым результатом моделирования стала составная метрика — «Оценка успеха», отражающая предполагаемую силу связи между отношением студентов к GenAI и их учебными достижениями.
«Факторы, связанные с удобством и полезностью технологий, оказались значительно более сильными предикторами успеха, чем доверие или эмоциональные отклики»
, — подчеркивает Каядиби.
Таким образом, восприятие реальной пользы и лёгкости использования инструментов GenAI сильнее коррелирует с академической эффективностью, чем, скажем, чувство симпатии или доверия к технологии.
📊 Монте-Карло: не только для физиков
Используя метод обратного дисперсионного взвешивания, исследовательница запустила серию симуляций, которые позволили уточнить вес отдельных факторов в прогнозировании успеха. Такой подход обычно применяется в физике и финансовом моделировании, но здесь он получил уникальное применение в сфере образовательной аналитики.
🎓 Выводы: где заканчивается помощь и начинается подмена?
Работа Каядиби становится важным вкладом в растущую дискуссию о роли генеративного ИИ в образовании. Результаты исследования объединяют качественные тематические данные и количественные прогнозы, позволяя взглянуть на использование ИИ в университете не только с этической, но и с практической стороны.
«Интердисциплинарный подход, соединяющий гуманитарные и вычислительные методы, способен внести ясность в старую дискуссию: помогает ли GenAI студентам учиться или заменяет их собственное мышление?»
— задаёт тон финалу исследовательница.
📚 Контекст: ИИ в образовательной политике
На фоне стремительного распространения ChatGPT, Copilot и других инструментов, университеты по всему миру разрабатывают собственные политики по использованию ИИ. В этом контексте результаты исследования Сеймы Яман Каядиби могут стать основанием для принятия взвешенных решений на уровне образовательных стратегий, особенно в аспектах интеграции и регулирования GenAI.
arXiv.org
Implications of recent LHCb data on CPV in b-baryon four body decays
Motivated by the recent CPV observation, we investigate the CPV of b-baryon charmless four body decays under the U-spin symmetry. However, we find that only U-spin symmetry cannot provide...
AiSuite: шлюз ИИ с открытым исходным кодом для унифицированного доступа LLM
Проект от Эндрю Нга обеспечивает оптимизированный подход к работе с несколькими поставщиками LLM, устраняя существенную проблему в процессе разработки ИИ.
Распространение больших языковых моделей (LLM) предоставило разработчикам широкий выбор. Разработчики имеют доступ к передовым моделям от OpenAI, Anthropic, Google, AWS и многих других поставщиков, каждый из них имеет свои собственные уникальные структуры API, механизмы аутентификации и форматы ответов. Эта фрагментация заставила разработчиков бороться с различными API, документацией, специфичной для поставщиков, и требованиями к интеграции. Результатом является повышенная сложность разработки, увеличенные сроки проекта и существенный технический долг, поскольку команды изо всех сил пытаются поддерживать интеграции нескольких поставщиков одновременно.
AiSuite стал революционным решением этой фрагментации, предложив разработчикам то, что можно лучше всего описать как «универсальный адаптер для мира LLM». Работая в качестве тонкой оболочки вокруг существующих клиентских библиотек Python , AiSuite преобразует хаотичный ландшафт множества поставщиков LLM в оптимизированный, унифицированный опыт, в котором приоритет отдается производительности разработчиков и гибкости приложений.
Обзор проекта
Проект от Эндрю Нга обеспечивает оптимизированный подход к работе с несколькими поставщиками LLM, устраняя существенную проблему в процессе разработки ИИ.
Распространение больших языковых моделей (LLM) предоставило разработчикам широкий выбор. Разработчики имеют доступ к передовым моделям от OpenAI, Anthropic, Google, AWS и многих других поставщиков, каждый из них имеет свои собственные уникальные структуры API, механизмы аутентификации и форматы ответов. Эта фрагментация заставила разработчиков бороться с различными API, документацией, специфичной для поставщиков, и требованиями к интеграции. Результатом является повышенная сложность разработки, увеличенные сроки проекта и существенный технический долг, поскольку команды изо всех сил пытаются поддерживать интеграции нескольких поставщиков одновременно.
AiSuite стал революционным решением этой фрагментации, предложив разработчикам то, что можно лучше всего описать как «универсальный адаптер для мира LLM». Работая в качестве тонкой оболочки вокруг существующих клиентских библиотек Python , AiSuite преобразует хаотичный ландшафт множества поставщиков LLM в оптимизированный, унифицированный опыт, в котором приоритет отдается производительности разработчиков и гибкости приложений.
Обзор проекта
InfoWorld
Large language models: The foundations of generative AI
Large language models evolved alongside deep-learning neural networks and are critical to generative AI. Here's a first look, including the top LLMs and what they're used for today.
GenAI - как использовать, чтобы стать умнее, а не глупее?
Несколько исследований показали: использование инструментов генеративного ИИ может снижать нашу способность думать и создавать. Как же использовать их так, чтобы стать умнее, а не глупее?
🧠 Креативность под угрозой
Учёные из Carnegie Mellon University обнаружили, что участники мозговых штурмов, имеющие доступ к Google Search, генерируют меньше уникальных идей — и часто предлагают одни и те же решения в одинаковом порядке. Они назвали это эффектом якоря: увидя примеры, люди застревают на них и не выходят за рамки предложенного.
В исследовании журнала The Journal of Creative Behavior, участники, использовавшие ИИ, ощущали себя менее креативными. Особенно падало чувство уверенности у тех, у кого изначально была неуверенность в своих способностях.
🧬 Снижение мозговой активности при использовании GenAI
MIT Media Lab изучила 54 студента, писавших эссе тремя способами: самостоятельно, с помощью поисковика и с помощью GPT‑4o. Во время написания вживую измерялась активность мозга с помощью ЭЭГ
• При самостоятельной работе зафиксирована высокая мозговая активация в областях, отвечающих за память и креативность.
•При помощи поисковика активность снижалась, но оставалась выше, чем при использовании ИИ.
•А пользователи GPT‑4o показали до 55 % снижение нейронной связи по сравнению с теми, кто трудился самостоятельно .
Итог: при использовании ИИ участники хуже запоминали текст и чувствовали, что работа принадлежит не им. А когда от них неожиданно потребовали написать текст без помощи ИИ — результаты оказались хуже, чем у тех, кто всегда работал самостоятельно.
🔄 Когда и где использование ИИ оправдано
🔑 Главный вывод учёных: используйте ИИ только тогда, когда уже освоили тему — чтобы расширить или улучшить уже созданный вами материал. Если же полагаться на AI с самого начала — вы упускаете критическое мышление и усвоение знаний .
🌐 Групповое мышление и алгоритмы
Не только генеративный ИИ влияет на нас. Алгоритмы соцсетей, подстраиваясь под наши предпочтения, сузят наш кругозор. Это называется эффектом закристаллизованных предпочтений — мы видим всё меньше нового и всё больше того, что уже нравится, то же происходит при работе с чат-ботами: они выдают наиболее распространённые ответы, что приводит к эффекту «эхо‑камеры» — мы слышим повторяющийся голос, а не свой собственный .
🎯 Как правильно использовать GenAI
Чтобы совмещать высокую эффективность с развитием ума:
1. Начинайте без ИИ — напишите текст, составьте план или обдумайте идею самостоятельно.
2. Учитесь традиционно — исследуйте тему через книги, статьи, другие проверенные источники. Лишь после того, как вы самостоятельно погрузились в тему, используйте ИИ для улучшения: новым взглядом, идеями, стилистической полировкой.
Главное правило: сначала бросьте вызов своему мозгу, а потом обращайтесь к технологии — а не наоборот
Генеративный ИИ — мощный помощник, если использовать его разумно. Он может:
• оживить ваш текст,
• добавить свежую перспективу,
• улучшить стиль или структуру.
Однако реальная польза от ИИ раскрывает свой потенциал лишь тогда, когда он дополняет уже проделанную вами умственную работу. Используя его на раннем этапе, вы рискуете утратить собственную интеллектуальную активность, превращаясь из активного автора в пассивного редактора — и теряете возможность развивать критическое мышление и креативность.
Несколько исследований показали: использование инструментов генеративного ИИ может снижать нашу способность думать и создавать. Как же использовать их так, чтобы стать умнее, а не глупее?
🧠 Креативность под угрозой
Учёные из Carnegie Mellon University обнаружили, что участники мозговых штурмов, имеющие доступ к Google Search, генерируют меньше уникальных идей — и часто предлагают одни и те же решения в одинаковом порядке. Они назвали это эффектом якоря: увидя примеры, люди застревают на них и не выходят за рамки предложенного.
В исследовании журнала The Journal of Creative Behavior, участники, использовавшие ИИ, ощущали себя менее креативными. Особенно падало чувство уверенности у тех, у кого изначально была неуверенность в своих способностях.
🧬 Снижение мозговой активности при использовании GenAI
MIT Media Lab изучила 54 студента, писавших эссе тремя способами: самостоятельно, с помощью поисковика и с помощью GPT‑4o. Во время написания вживую измерялась активность мозга с помощью ЭЭГ
• При самостоятельной работе зафиксирована высокая мозговая активация в областях, отвечающих за память и креативность.
•При помощи поисковика активность снижалась, но оставалась выше, чем при использовании ИИ.
•А пользователи GPT‑4o показали до 55 % снижение нейронной связи по сравнению с теми, кто трудился самостоятельно .
Итог: при использовании ИИ участники хуже запоминали текст и чувствовали, что работа принадлежит не им. А когда от них неожиданно потребовали написать текст без помощи ИИ — результаты оказались хуже, чем у тех, кто всегда работал самостоятельно.
🔄 Когда и где использование ИИ оправдано
🔑 Главный вывод учёных: используйте ИИ только тогда, когда уже освоили тему — чтобы расширить или улучшить уже созданный вами материал. Если же полагаться на AI с самого начала — вы упускаете критическое мышление и усвоение знаний .
🌐 Групповое мышление и алгоритмы
Не только генеративный ИИ влияет на нас. Алгоритмы соцсетей, подстраиваясь под наши предпочтения, сузят наш кругозор. Это называется эффектом закристаллизованных предпочтений — мы видим всё меньше нового и всё больше того, что уже нравится, то же происходит при работе с чат-ботами: они выдают наиболее распространённые ответы, что приводит к эффекту «эхо‑камеры» — мы слышим повторяющийся голос, а не свой собственный .
🎯 Как правильно использовать GenAI
Чтобы совмещать высокую эффективность с развитием ума:
1. Начинайте без ИИ — напишите текст, составьте план или обдумайте идею самостоятельно.
2. Учитесь традиционно — исследуйте тему через книги, статьи, другие проверенные источники. Лишь после того, как вы самостоятельно погрузились в тему, используйте ИИ для улучшения: новым взглядом, идеями, стилистической полировкой.
Главное правило: сначала бросьте вызов своему мозгу, а потом обращайтесь к технологии — а не наоборот
Генеративный ИИ — мощный помощник, если использовать его разумно. Он может:
• оживить ваш текст,
• добавить свежую перспективу,
• улучшить стиль или структуру.
Однако реальная польза от ИИ раскрывает свой потенциал лишь тогда, когда он дополняет уже проделанную вами умственную работу. Используя его на раннем этапе, вы рискуете утратить собственную интеллектуальную активность, превращаясь из активного автора в пассивного редактора — и теряете возможность развивать критическое мышление и креативность.
Computerworld
The one secret to using genAI to boost your brain
Multiple studies have found that the use of generative AI tools can harm intelligence and creativity. Here's how to use it to make you smarter, not dumber.
Forwarded from Evening Prophet
Новый привет врачам от ИИ-докторов. На этот раз исследователи создали сложную архитектуру ИИ-агентов (консилиум ИИ-врачей), который способен не только ставить диагнозы вчетверо лучше кожанных, но еще и заботиться об оптимизации расходов на диагностику (спойлер - ИИ без анализов работает лучше врачей с анализами и обследованиями за несколько тысяч долларов ).
Авторы статьи поросята конечно - обозначили результаты врачей на диаграмме крестиками - "как грубо!" (но справедливо увы). Предметом анализа были 304 диагностически сложных клинико-патологических случаев из публикаций New England Journal of Medicine.
Оба описанных инструмента повышения качества ИИ я применяю для своих задач уже несколько месяцев, и они потрясающе эффективны. Первый - создания процедуры общения (тактов, шагов, разделения стадий разбора тема через шаблон) - не просто задать вопрос прочитать ответ, а провести дискуссию с разбором, устроить спор ии-специалистов, прогнать выводы одного чрез критику и редактуру другого и тп - это разбивает проблемы узких контекстов и выводов, вытекающих из вопросов.
Второй метод - сложная архитектура ИИ-команды (конкурентные ИИ-агенты). Я им вообще создаю стабильные роли,CV, списки публикаций и опыта - это помогает им удерживать контекст и структуру роли. В исследовании были созданы следующие типы "докторов":
На первом графике в начале под Microsoft имеется в виду работа комплексной команды ИИ (с разными моделями, их эффективность внутри командной работы сравнивается на втором графике), а графики с упоминаем моделей - это однопроходные результаты разных ИИ. По качеству ИИ-одиночки не сильно хуже, но коллектив сильно экономит деньги.
Тут важен дисклеймер - вообще американская и британская система врачебной помощи далека от совершенства. "Парацетомол, вода и диета" - типичная рекомендация. В России диагностика стоит значительно (почти на порядок) дешевле, и врачи тут ей даже злоупотребляют (гипердиагностика). Это кстати открывает нишу потенциального медицинского туризма в Россию (Турция и Таиланд ее очень успешно развивают это), но это отдельный вопрос, почему мы не умеем в экспорт услуг.
Но в любом случае - ИИ привносит в медицину радикальную революцию, и радикально демократизирует высококачественные медицинские услуги. Врач из провинциального меда уже не будет опасен для здоровья в связке с таким ИИ, поскольку будет консультировать как столичное светило.
Авторы статьи поросята конечно - обозначили результаты врачей на диаграмме крестиками - "как грубо!" (но справедливо увы). Предметом анализа были 304 диагностически сложных клинико-патологических случаев из публикаций New England Journal of Medicine.
В сочетании с моделью o3 OpenAI MAI-DxO достигает 80% диагностической точности — в четыре раза выше, чем средний показатель врачей общей практики в 20%. MAI-DxO также снижает затраты на диагностику на 20% по сравнению с врачами и на 70% по сравнению с одиночным o3. При настройке на максимальную точность MAI-DxO достигает 85,5% точности.
Оба описанных инструмента повышения качества ИИ я применяю для своих задач уже несколько месяцев, и они потрясающе эффективны. Первый - создания процедуры общения (тактов, шагов, разделения стадий разбора тема через шаблон) - не просто задать вопрос прочитать ответ, а провести дискуссию с разбором, устроить спор ии-специалистов, прогнать выводы одного чрез критику и редактуру другого и тп - это разбивает проблемы узких контекстов и выводов, вытекающих из вопросов.
Второй метод - сложная архитектура ИИ-команды (конкурентные ИИ-агенты). Я им вообще создаю стабильные роли,CV, списки публикаций и опыта - это помогает им удерживать контекст и структуру роли. В исследовании были созданы следующие типы "докторов":
• Доктор Гипотеза – поддерживает дифференциальную диагностику с ранжированием вероятностей по трем наиболее вероятным состояниям, обновляя вероятности байесовским способом после каждого нового открытия.
• Dr. Test-Chooser – выбирает до трех диагностических тестов за раунд, которые максимально различают ведущие гипотезы.
• Доктор Челленджер — выступает в роли адвоката дьявола, выявляя потенциальные ошибки привязки, выявляя противоречивые доказательства и предлагая тесты, которые могут опровергнуть текущий ведущий диагноз.
• Доктор Стюардшип – обеспечивает экономически обоснованное медицинское обслуживание, выступая за более дешевые альтернативы, если они диагностически эквивалентны, и налагая вето на малоинформативные дорогостоящие тесты.
• Dr. Checklist – осуществляет скрытый контроль качества, чтобы гарантировать, что модель генерирует допустимые названия тестов и поддерживает внутреннюю согласованность в рассуждениях комиссии.
На первом графике в начале под Microsoft имеется в виду работа комплексной команды ИИ (с разными моделями, их эффективность внутри командной работы сравнивается на втором графике), а графики с упоминаем моделей - это однопроходные результаты разных ИИ. По качеству ИИ-одиночки не сильно хуже, но коллектив сильно экономит деньги.
Тут важен дисклеймер - вообще американская и британская система врачебной помощи далека от совершенства. "Парацетомол, вода и диета" - типичная рекомендация. В России диагностика стоит значительно (почти на порядок) дешевле, и врачи тут ей даже злоупотребляют (гипердиагностика). Это кстати открывает нишу потенциального медицинского туризма в Россию (Турция и Таиланд ее очень успешно развивают это), но это отдельный вопрос, почему мы не умеем в экспорт услуг.
Но в любом случае - ИИ привносит в медицину радикальную революцию, и радикально демократизирует высококачественные медицинские услуги. Врач из провинциального меда уже не будет опасен для здоровья в связке с таким ИИ, поскольку будет консультировать как столичное светило.
Grammarly приобретает Superhuman для ускорения производительности своей ИИ платформы
Grammarly объявила о приобретении почтового клиента Superhuman в стремлении создать свой ИИ для повышения производительности. Приобретение интегрирует более 100 сотрудников Superhuman в Grammarly, включая генерального директора Рахула Вохру.
Обе компании стремятся встроить агентов ИИ Grammarly в платформу Superhuman, чтобы оптимизировать рабочие процессы пользователей и расширить сферу смежных производительных областей, таких как календари и управление задачами.
Grammarly, со штаб-квартирой в Сан-Франциско, Калифорния, США, была основана в 2009 году Алексом Шевченко, Дмитрием Лидером и Максом Литвиным. В 2019 году компания присоединилась к клубу единорогов.
Grammarly объявила о приобретении почтового клиента Superhuman в стремлении создать свой ИИ для повышения производительности. Приобретение интегрирует более 100 сотрудников Superhuman в Grammarly, включая генерального директора Рахула Вохру.
Обе компании стремятся встроить агентов ИИ Grammarly в платформу Superhuman, чтобы оптимизировать рабочие процессы пользователей и расширить сферу смежных производительных областей, таких как календари и управление задачами.
Grammarly, со штаб-квартирой в Сан-Франциско, Калифорния, США, была основана в 2009 году Алексом Шевченко, Дмитрием Лидером и Максом Литвиным. В 2019 году компания присоединилась к клубу единорогов.
grammarly blog
Grammarly to Acquire Superhuman to Accelerate Its AI Productivity Platform
Email becomes central communication surface in company’s vision for agentic future where humans and AI work together Grammarly,…
Mitsubishi Electric инвестирует в стартап Things: будущее PLM c ИИ
Mitsubishi Electric, один из крупнейших мировых производителей промышленного оборудования, объявил об инвестициях в японский стартап Things, разработчика платформы PRISM — AI-усиленной системы управления жизненным циклом продукта (PLM).
Инвестиции осуществлены через ME Innovation Fund, совместный фонд Mitsubishi Electric и Global Brain. Цель — ускорить цифровую трансформацию производственных процессов за счёт интеграции искусственного интеллекта в управление данными, проектированием и эксплуатацией промышленных систем.
🧠 Что делает PRISM
PRISM — это AI‑платформа, которая помогает компаниям:
• 📁 автоматизировать обработку инженерной документации (включая чертежи, спецификации и BOM-листы),
• 🔍 извлекать ключевые сущности и зависимости с помощью NLP-моделей,
• 🛠 ускорять этапы проектирования, тестирования и обслуживания продуктов,
• 📊 создавать адаптивные отчёты и модели рисков на основе жизненного цикла изделия.
Основное преимущество: сокращение затрат и времени за счёт автоматизации и интеллектуальной агрегации разрозненных данных.
🤝 Почему Mitsubishi Electric это важно
Mitsubishi Electric активно внедряет концепции умного производства (Smart Manufacturing) и промышленного ИИ. Комментарий компании подчёркивает:
Инвестиция в Things — часть стратегии по созданию нового поколения решений для цифровых двойников, автоматизации инжиниринга и поддержки принятия решений на всех этапах производства.
🌍 Контекст и перспективы
• Японская промышленность испытывает давление: нехватка квалифицированных кадров, устаревшие PLM-системы и высокие издержки на разработку.
• PRISM предлагает альтернативу традиционным PLM от Siemens, Dassault и PTC — с прицелом на локальную кастомизацию, меньшую цену и AI-by-default архитектуру.
• Mitsubishi планирует интеграцию решения на своих заводах, а также продвижение на глобальные рынки.
Инвестиция в Things отражает ключевой сдвиг: PLM-системы эволюционируют в когнитивные платформы. Такие решения, как PRISM, могут стать критически важными в эпоху, когда данные, автоматизация и ИИ сливаются в единую цепочку создания промышленной ценности.
Mitsubishi Electric, один из крупнейших мировых производителей промышленного оборудования, объявил об инвестициях в японский стартап Things, разработчика платформы PRISM — AI-усиленной системы управления жизненным циклом продукта (PLM).
Инвестиции осуществлены через ME Innovation Fund, совместный фонд Mitsubishi Electric и Global Brain. Цель — ускорить цифровую трансформацию производственных процессов за счёт интеграции искусственного интеллекта в управление данными, проектированием и эксплуатацией промышленных систем.
🧠 Что делает PRISM
PRISM — это AI‑платформа, которая помогает компаниям:
• 📁 автоматизировать обработку инженерной документации (включая чертежи, спецификации и BOM-листы),
• 🔍 извлекать ключевые сущности и зависимости с помощью NLP-моделей,
• 🛠 ускорять этапы проектирования, тестирования и обслуживания продуктов,
• 📊 создавать адаптивные отчёты и модели рисков на основе жизненного цикла изделия.
Основное преимущество: сокращение затрат и времени за счёт автоматизации и интеллектуальной агрегации разрозненных данных.
🤝 Почему Mitsubishi Electric это важно
Mitsubishi Electric активно внедряет концепции умного производства (Smart Manufacturing) и промышленного ИИ. Комментарий компании подчёркивает:
«Мы видим потенциал PRISM как ключевого компонента новой парадигмы производственной информатики — платформы, способной объединить инженерные данные, опыт экспертов и адаптивную логику ИИ».
Инвестиция в Things — часть стратегии по созданию нового поколения решений для цифровых двойников, автоматизации инжиниринга и поддержки принятия решений на всех этапах производства.
🌍 Контекст и перспективы
• Японская промышленность испытывает давление: нехватка квалифицированных кадров, устаревшие PLM-системы и высокие издержки на разработку.
• PRISM предлагает альтернативу традиционным PLM от Siemens, Dassault и PTC — с прицелом на локальную кастомизацию, меньшую цену и AI-by-default архитектуру.
• Mitsubishi планирует интеграцию решения на своих заводах, а также продвижение на глобальные рынки.
Инвестиция в Things отражает ключевой сдвиг: PLM-системы эволюционируют в когнитивные платформы. Такие решения, как PRISM, могут стать критически важными в эпоху, когда данные, автоматизация и ИИ сливаются в единую цепочку создания промышленной ценности.
Analytics India Magazine
Mitsubishi Electric Invests in AI-Assisted PLM Systems Startup ‘Things’ | AIM
Mitsubishi’s 12th investment aims to leverage its manufacturing expertise alongside Things’ GenAI technology to enhance digital transformation in the manufacturing sector.
Google, ИИ и электричество: цена цифрового интеллекта
В этой статье MIT Technology Review поднимаются две взаимосвязанные темы: рост амбиций вокруг AI‑агентов и энергетические издержки масштабирования ИИ‑технологий, особенно на примере Google.
🤖 Хайп вокруг AI‑агентов: ожидания против реальности
AI‑агенты — автономные системы, способные выполнять задачи без постоянного вмешательства человека — стали одним из самых обсуждаемых направлений в ИИ. Однако по данным Gartner, к 2027 году более 40 % таких проектов будут закрыты, не принеся заявленной пользы.
Тем не менее, доля автоматизации растёт: к 2028 году 15 % повседневных решений планируется передавать ИИ‑агентам, а треть корпоративного ПО получит функциональность агента.
— подчёркивают аналитики Gartner.
🔌 Энергия ИИ: Google и скрытые издержки
Рост генеративного ИИ имеет свою обратную сторону. Согласно данным Google, в 2023–2024 году:
• энергопотребление компании выросло на 27 %,
• выбросы парниковых газов увеличились на 51 % по сравнению с 2019 годом.
Это напрямую связано с эксплуатацией и расширением дата‑центров для ИИ‑моделей — таких как Gemini и другие продукты Google DeepMind.
— признали представители Google.
♻️ Неуспех "зелёного перехода"?
Хотя Google остаётся одним из крупнейших покупателей возобновляемой энергии (22 ГВт с 2010 года), её доля в реальном потреблении уменьшается. Причина — взрывной рост нагрузки от ИИ‑инфраструктуры. По оценкам, к 2030 году дата‑центры могут потреблять до 4,5 % всей мировой электроэнергии. Особенно тревожит медленное внедрение перспективных источников, таких как малые модульные реакторы (SMR), на которые компания делает ставку в долгосрочной перспективе.
🧩 Как связаны агенты и электричество?
• ИИ‑агенты требуют непрерывной вычислительной поддержки, особенно в задачах с постоянной адаптацией и обучением.
• Это усиливает нагрузку на дата‑центры и энергетическую инфраструктуру.
• В свою очередь, энергетический дефицит и «углеродные хвосты» могут тормозить развитие автономных ИИ‑моделей и подрывать экологическую репутацию компаний.
✅ Ключевые выводы
1. Агентный ИИ обещает революцию, но на практике сталкивается с ограничениями: техническими, экономическими и инфраструктурными.
2. Google — пример глобальной дилеммы: между инновациями и устойчивостью.
3. Без масштабного пересмотра подходов к энергии, ценой ИИ может стать не цифровой прогресс, а экологическая регрессия.
🎯 Что делать технологическим лидерам?
• Подходить к агентным ИИ‑системам с реализмом, внедряя поэтапные пилоты с понятным ROI.
• Инвестировать в энергоэффективные вычисления и локальную генерацию.
• Вводить экологическую отчётность как обязательный элемент масштабирования ИИ.
ИИ — это не только вопрос интеллекта, но и вопрос ресурса. В борьбе за вычислительную мощность и экологическую ответственность выигрывать будут не только самые умные — но и самые ответственные.
В этой статье MIT Technology Review поднимаются две взаимосвязанные темы: рост амбиций вокруг AI‑агентов и энергетические издержки масштабирования ИИ‑технологий, особенно на примере Google.
🤖 Хайп вокруг AI‑агентов: ожидания против реальности
AI‑агенты — автономные системы, способные выполнять задачи без постоянного вмешательства человека — стали одним из самых обсуждаемых направлений в ИИ. Однако по данным Gartner, к 2027 году более 40 % таких проектов будут закрыты, не принеся заявленной пользы.
Тем не менее, доля автоматизации растёт: к 2028 году 15 % повседневных решений планируется передавать ИИ‑агентам, а треть корпоративного ПО получит функциональность агента.
«Хайп вокруг автономных ИИ‑агентов несопоставим с реальной зрелостью технологий. Мы наблюдаем резкий рост интереса, но результаты пока крайне разрозненные»,
— подчёркивают аналитики Gartner.
🔌 Энергия ИИ: Google и скрытые издержки
Рост генеративного ИИ имеет свою обратную сторону. Согласно данным Google, в 2023–2024 году:
• энергопотребление компании выросло на 27 %,
• выбросы парниковых газов увеличились на 51 % по сравнению с 2019 годом.
Это напрямую связано с эксплуатацией и расширением дата‑центров для ИИ‑моделей — таких как Gemini и другие продукты Google DeepMind.
«ИИ‑продукты требуют колоссальных вычислительных мощностей, и это сказывается на всей нашей энергетической стратегии»,
— признали представители Google.
♻️ Неуспех "зелёного перехода"?
Хотя Google остаётся одним из крупнейших покупателей возобновляемой энергии (22 ГВт с 2010 года), её доля в реальном потреблении уменьшается. Причина — взрывной рост нагрузки от ИИ‑инфраструктуры. По оценкам, к 2030 году дата‑центры могут потреблять до 4,5 % всей мировой электроэнергии. Особенно тревожит медленное внедрение перспективных источников, таких как малые модульные реакторы (SMR), на которые компания делает ставку в долгосрочной перспективе.
🧩 Как связаны агенты и электричество?
• ИИ‑агенты требуют непрерывной вычислительной поддержки, особенно в задачах с постоянной адаптацией и обучением.
• Это усиливает нагрузку на дата‑центры и энергетическую инфраструктуру.
• В свою очередь, энергетический дефицит и «углеродные хвосты» могут тормозить развитие автономных ИИ‑моделей и подрывать экологическую репутацию компаний.
✅ Ключевые выводы
1. Агентный ИИ обещает революцию, но на практике сталкивается с ограничениями: техническими, экономическими и инфраструктурными.
2. Google — пример глобальной дилеммы: между инновациями и устойчивостью.
3. Без масштабного пересмотра подходов к энергии, ценой ИИ может стать не цифровой прогресс, а экологическая регрессия.
🎯 Что делать технологическим лидерам?
• Подходить к агентным ИИ‑системам с реализмом, внедряя поэтапные пилоты с понятным ROI.
• Инвестировать в энергоэффективные вычисления и локальную генерацию.
• Вводить экологическую отчётность как обязательный элемент масштабирования ИИ.
ИИ — это не только вопрос интеллекта, но и вопрос ресурса. В борьбе за вычислительную мощность и экологическую ответственность выигрывать будут не только самые умные — но и самые ответственные.
MIT Technology Review
The Download: AI agents hype, and Google’s electricity plans
Plus: scientists have accused Meta's climate tool of inaccuracies
🧩 GPT-4o обрабатывает видео и эмоции, Midjourney учится стилям, а Google вкатывает AI во все продукты с новой скоростью.м, а Google вкатывает AI во все продукты с новой скоростью.
Здесь разбираем, чем же все-таки Genspark крусе ChatGPT
Каждую неделю — новые фишки, которые не просто юзаем ради прикола, а учимся встраивать в процессы.
Мы собрали папку с экспертами, которые не обсуждают, а делают:
— прокачивают маркетинг через нейроавтоматизации
— внедряют AI в прод, а не в презентации
— тестируют фичи раньше, чем они становятся трендом
— делятся опытом, где сработало, а где — зря тратили время
📂 Рабочая папка контактов, к которым можно обратиться за опытом, решением или партнёрством.
Здесь разбираем, чем же все-таки Genspark крусе ChatGPT
Каждую неделю — новые фишки, которые не просто юзаем ради прикола, а учимся встраивать в процессы.
Мы собрали папку с экспертами, которые не обсуждают, а делают:
— прокачивают маркетинг через нейроавтоматизации
— внедряют AI в прод, а не в презентации
— тестируют фичи раньше, чем они становятся трендом
— делятся опытом, где сработало, а где — зря тратили время
📂 Рабочая папка контактов, к которым можно обратиться за опытом, решением или партнёрством.
OpenAI и Oracle: $30 миллиардов в облако — новая инфраструктура для искусственного интеллекта
OpenAI заключила стратегическое соглашение с Oracle на сумму до $30 млрд — одна из крупнейших сделок в истории облачных технологий. Цель: масштабировать инфраструктуру для обучения и запуска моделей следующего поколения.
🔧 Что известно о сделке
• 💰 Сумма: до $30 миллиардов на много лет вперёд.
• ☁️ Платформа: Oracle Cloud Infrastructure (OCI), которая обещает лучшую цену за обучение моделей ИИ по сравнению с конкурентами.
• 🤝 OpenAI уже начала перенос части вычислительных операций из Azure на OCI — речь идёт о дополнительных нагрузках, а не полном переходе.
📈 Зачем это нужно OpenAI
OpenAI обучает всё более масштабные и ресурсоёмкие модели. GPT-5 и дальнейшие поколения требуют:
• десятков тысяч GPU (в том числе H100 и B100),
• специализированной сетевой архитектуры,
• высокой доступности и скорости дисковой и межсерверной передачи данных.
Oracle обещает низкоуровневую оптимизацию, которую сложно достичь в традиционных гипероблаках.
⚔️ Война облаков: Google, Microsoft, Oracle, Amazon
Это соглашение:
• укрепляет позиции Oracle как инфраструктурного игрока в ИИ-гонке;
• снижает зависимость OpenAI от Azure (при том что Microsoft — её крупнейший инвестор);
• поднимает ставки: теперь все ведущие LLM-компании ищут мультиоблачные стратегии ради масштабируемости и стоимости.
Что дальше?
• Ожидается запуск более гибких систем inference и обучения;
• Возрастёт скорость внедрения agentic AI, мультимодальных моделей и специализированных ИИ для отраслей;
• Возможны новые технологические партнёрства между OpenAI и Oracle — в области Enterprise AI, хостинга моделей, edge‑инференса.
OpenAI укрепляет фундамент под следующий скачок в ИИ.
$30 млрд в облако — это ставка на будущее, где вычисления и ИИ неразделимы и похоже, Oracle теперь на передовой этой гонки.
OpenAI заключила стратегическое соглашение с Oracle на сумму до $30 млрд — одна из крупнейших сделок в истории облачных технологий. Цель: масштабировать инфраструктуру для обучения и запуска моделей следующего поколения.
🔧 Что известно о сделке
• 💰 Сумма: до $30 миллиардов на много лет вперёд.
• ☁️ Платформа: Oracle Cloud Infrastructure (OCI), которая обещает лучшую цену за обучение моделей ИИ по сравнению с конкурентами.
• 🤝 OpenAI уже начала перенос части вычислительных операций из Azure на OCI — речь идёт о дополнительных нагрузках, а не полном переходе.
📈 Зачем это нужно OpenAI
OpenAI обучает всё более масштабные и ресурсоёмкие модели. GPT-5 и дальнейшие поколения требуют:
• десятков тысяч GPU (в том числе H100 и B100),
• специализированной сетевой архитектуры,
• высокой доступности и скорости дисковой и межсерверной передачи данных.
Oracle обещает низкоуровневую оптимизацию, которую сложно достичь в традиционных гипероблаках.
⚔️ Война облаков: Google, Microsoft, Oracle, Amazon
Это соглашение:
• укрепляет позиции Oracle как инфраструктурного игрока в ИИ-гонке;
• снижает зависимость OpenAI от Azure (при том что Microsoft — её крупнейший инвестор);
• поднимает ставки: теперь все ведущие LLM-компании ищут мультиоблачные стратегии ради масштабируемости и стоимости.
Что дальше?
• Ожидается запуск более гибких систем inference и обучения;
• Возрастёт скорость внедрения agentic AI, мультимодальных моделей и специализированных ИИ для отраслей;
• Возможны новые технологические партнёрства между OpenAI и Oracle — в области Enterprise AI, хостинга моделей, edge‑инференса.
OpenAI укрепляет фундамент под следующий скачок в ИИ.
$30 млрд в облако — это ставка на будущее, где вычисления и ИИ неразделимы и похоже, Oracle теперь на передовой этой гонки.
Aibusiness
OpenAI, Oracle Sign $30B Cloud Deal to Fuel AI Project
The deal is part of OpenAI’s Stargate project to build out AI infrastructure in the U.S.
Создание AI-агента на основе BioCypher для биомедицинских знаний
MarkTechPost рассказывает о разработке агрегированного AI-агента, который использует BioCypher для автоматической генерации и запроса биомедицинских онтологических графов знаний (Knowledge Graph) с помощью генеративного ИИ и LLM (large language models)
🛠 Что такое BioCypher и зачем он нужен
BioCypher — это открытая платформа с модульным подходом, позволяющая:
1. Интегрировать разнообразные биомедицинские источники (через адаптеры ETL).
2. Связывать данные со специализированными онтологиями (например, Gene Ontology).
3. Экспортировать результат в Property Graph, SQL, RDF и другие форматы
Цель — упростить создание репрезентативных и легко поддерживаемых графов знаний для исследователей и специалистов.
🌐 Как работает AI‑агент
• Сначала BioCypher строит граф на основе извлечённых биомедданных и онтологий.
•Затем LLM, как GPT, используется для формулировки и уточнения запросов к этому графу.
• Агент может отвечать на сложные вопросы, формируя триплеты (субъект‑предикат‑объект), затем проверяет их корректность на фоне графа — что обеспечивает валидацию и точность
🎯 Преимущества такого подхода
• Скорость: автоматизация сбора и интеграции данных ускоряет работу.
• Надёжность: автоматическая проверка исключает ошибки LLM.
• Гибкость: использование адаптеров делает систему расширяемой.
ИИ-агент выступает не как одиночный LLM-ассистент, а как мост между генеративным интеллектом и структурированными знаниями.
📊 Контекст и перспективы
Параллели можно провести с проектами вроде KGARevion — AI‑агентов, которые создают триплеты, а затем проверяют их через проверенные источники полученных знаний. Это обеспечивает более надёжную работу в критичных задачах биомедицины.
🧭 Выводы и рекомендации
1. BioCypher + LLM — мощное сочетание для задач, требующих структурированных знаний и генеративной гибкости.
2. Валидация на стороне знаний помогает избежать "галлюцинаций" ИИ‑моделей.
3. Такой подход подходит для вопросов: “Назови все белки, участвующие в X‑процессе” или “Как взаимодействуют Y и Z?”, обеспечивая быстрые и обоснованные ответы.
✅ Что дальше?
• Добавление новых адаптеров для поддержки большего числа источников.
• Расширение проверочных механизмов и улучшение пользовательского интерфейса (GUI).
•Более глубокое обучение моделей на основе обновляемых графов знаний.
MarkTechPost рассказывает о разработке агрегированного AI-агента, который использует BioCypher для автоматической генерации и запроса биомедицинских онтологических графов знаний (Knowledge Graph) с помощью генеративного ИИ и LLM (large language models)
🛠 Что такое BioCypher и зачем он нужен
BioCypher — это открытая платформа с модульным подходом, позволяющая:
1. Интегрировать разнообразные биомедицинские источники (через адаптеры ETL).
2. Связывать данные со специализированными онтологиями (например, Gene Ontology).
3. Экспортировать результат в Property Graph, SQL, RDF и другие форматы
Цель — упростить создание репрезентативных и легко поддерживаемых графов знаний для исследователей и специалистов.
🌐 Как работает AI‑агент
• Сначала BioCypher строит граф на основе извлечённых биомедданных и онтологий.
•Затем LLM, как GPT, используется для формулировки и уточнения запросов к этому графу.
• Агент может отвечать на сложные вопросы, формируя триплеты (субъект‑предикат‑объект), затем проверяет их корректность на фоне графа — что обеспечивает валидацию и точность
🎯 Преимущества такого подхода
• Скорость: автоматизация сбора и интеграции данных ускоряет работу.
• Надёжность: автоматическая проверка исключает ошибки LLM.
• Гибкость: использование адаптеров делает систему расширяемой.
ИИ-агент выступает не как одиночный LLM-ассистент, а как мост между генеративным интеллектом и структурированными знаниями.
📊 Контекст и перспективы
Параллели можно провести с проектами вроде KGARevion — AI‑агентов, которые создают триплеты, а затем проверяют их через проверенные источники полученных знаний. Это обеспечивает более надёжную работу в критичных задачах биомедицины.
🧭 Выводы и рекомендации
1. BioCypher + LLM — мощное сочетание для задач, требующих структурированных знаний и генеративной гибкости.
2. Валидация на стороне знаний помогает избежать "галлюцинаций" ИИ‑моделей.
3. Такой подход подходит для вопросов: “Назови все белки, участвующие в X‑процессе” или “Как взаимодействуют Y и Z?”, обеспечивая быстрые и обоснованные ответы.
✅ Что дальше?
• Добавление новых адаптеров для поддержки большего числа источников.
• Расширение проверочных механизмов и улучшение пользовательского интерфейса (GUI).
•Более глубокое обучение моделей на основе обновляемых графов знаний.
MarkTechPost
Building a BioCypher-Powered AI Agent for Biomedical Knowledge Graph Generation and Querying
Building a BioCypher-Powered AI Agent for Biomedical Knowledge Graph Generation and Querying
Perry: ИИ-наставник для техперсонала получил €1,6 млн на масштабирование в Европе
Голландский стартап Perry привлек €1,6 млн от фонда Revent и ангелов из Google и OpenAI, чтобы решить проблему нехватки квалифицированных техников в Европе с помощью AI‑инструментов. Их цель — повысить безопасность, скорость и качество работы на местах в ключевых секторах: от энергии до строительства и телекоммуникаций
Как работает Perry:
Perry превращает смартфон техника в персонального AI-наставника, заменяя PDF‑инструкции, устаревшие мануалы и дорогостоящие очные тренинги. Всё происходит в реальном времени — прямо на месте работы:
• 📸 Захват контекста
Техник запускает мобильное приложение и фиксирует проблему — фото, видео или голосовое описание. AI получает визуальный и текстовый ввод, определяет тип оборудования, модель, локальные условия и окружение (например, наличие других систем, погода, освещённость).
• 🧠 Мгновенная интерпретация через LLM + CV
Модель компьютерного зрения (CV) распознаёт объекты, маркировку, компоненты. Параллельно LLM анализирует описание и «понимает» задачу. Важная особенность: Perry адаптируется к уровню квалификации техника — подсказывает более детально новичку, кратко — опытному.
• 🛠 Динамическая инструкция на лету
Система выдаёт персонализированную пошаговую инструкцию: с визуальными подсказками, схемами, маркированными фото, иногда даже с 3D-анимацией. Всё это локализовано под язык и технический сленг пользователя. Формат — адаптивный: голос, текст или видео.
• 🔁 Интерактив и дообучение
Если техника что-то смущает, он может задать уточняющий вопрос, переслать фото или сделать паузу. AI реагирует и корректирует путь. При этом платформа «учится» — каждый случай обогащает базу знаний, повышая точность рекомендаций в будущем.
Почему это критично для Европы
• За последние 20 лет Европа потеряла 15 млн технических специалистов, и дефицит растёт из‑за старения кадров и слабого притока новых работников.
• Perry действует там, где несколько лет подготовки заменяет AI‑ускоренный onboarding: новые сотрудники быстрее становятся продуктивными и безопасными.
• Пример: энергокомпания Van Vulpen уже внедрила систему и отмечает заметное снижение ошибок и время запуска новых сотрудников.
🤝 Софт и масштаб: мультилингвальность и field-tested UX
• Инструкции автоматически переводятся и упрощаются под уровень языка техников — от Португалии до Польши.
• Разрабатано вместе с техниками «на местах» — UX прост, подходит для смартфонов и оффлайн-сред.
• В перспективе — интеграция live AI‑видеоподдержки: специалист сможет позвонить эксперту через встроенные видеофункции.
🎯 Инвесторы верят: Revent и ангелы
• Revent:
— говорит партнер Lauren Lentz.
• Частные инвесторы из Google и OpenAI также участвовали — сигнал, что решение Perry выходит за пределы узкой ниши.
🚀 Что дальше: планы Perry
• Расширение на Германию, Францию, Великобританию;
• Найм AI‑инженеров и UX‑специалистов;
• Развитие AI‑движка для адаптивного обучения и поддержки — в том числе с видео и multimodal-инструкциями.
Голландский стартап Perry привлек €1,6 млн от фонда Revent и ангелов из Google и OpenAI, чтобы решить проблему нехватки квалифицированных техников в Европе с помощью AI‑инструментов. Их цель — повысить безопасность, скорость и качество работы на местах в ключевых секторах: от энергии до строительства и телекоммуникаций
Как работает Perry:
Perry превращает смартфон техника в персонального AI-наставника, заменяя PDF‑инструкции, устаревшие мануалы и дорогостоящие очные тренинги. Всё происходит в реальном времени — прямо на месте работы:
• 📸 Захват контекста
Техник запускает мобильное приложение и фиксирует проблему — фото, видео или голосовое описание. AI получает визуальный и текстовый ввод, определяет тип оборудования, модель, локальные условия и окружение (например, наличие других систем, погода, освещённость).
• 🧠 Мгновенная интерпретация через LLM + CV
Модель компьютерного зрения (CV) распознаёт объекты, маркировку, компоненты. Параллельно LLM анализирует описание и «понимает» задачу. Важная особенность: Perry адаптируется к уровню квалификации техника — подсказывает более детально новичку, кратко — опытному.
• 🛠 Динамическая инструкция на лету
Система выдаёт персонализированную пошаговую инструкцию: с визуальными подсказками, схемами, маркированными фото, иногда даже с 3D-анимацией. Всё это локализовано под язык и технический сленг пользователя. Формат — адаптивный: голос, текст или видео.
• 🔁 Интерактив и дообучение
Если техника что-то смущает, он может задать уточняющий вопрос, переслать фото или сделать паузу. AI реагирует и корректирует путь. При этом платформа «учится» — каждый случай обогащает базу знаний, повышая точность рекомендаций в будущем.
Почему это критично для Европы
• За последние 20 лет Европа потеряла 15 млн технических специалистов, и дефицит растёт из‑за старения кадров и слабого притока новых работников.
• Perry действует там, где несколько лет подготовки заменяет AI‑ускоренный onboarding: новые сотрудники быстрее становятся продуктивными и безопасными.
• Пример: энергокомпания Van Vulpen уже внедрила систему и отмечает заметное снижение ошибок и время запуска новых сотрудников.
🤝 Софт и масштаб: мультилингвальность и field-tested UX
• Инструкции автоматически переводятся и упрощаются под уровень языка техников — от Португалии до Польши.
• Разрабатано вместе с техниками «на местах» — UX прост, подходит для смартфонов и оффлайн-сред.
• В перспективе — интеграция live AI‑видеоподдержки: специалист сможет позвонить эксперту через встроенные видеофункции.
🎯 Инвесторы верят: Revent и ангелы
• Revent:
«Это решение решает критический общественный вызов — без этих специалистов Европа остановится»,
— говорит партнер Lauren Lentz.
• Частные инвесторы из Google и OpenAI также участвовали — сигнал, что решение Perry выходит за пределы узкой ниши.
🚀 Что дальше: планы Perry
• Расширение на Германию, Францию, Великобританию;
• Найм AI‑инженеров и UX‑специалистов;
• Развитие AI‑движка для адаптивного обучения и поддержки — в том числе с видео и multimodal-инструкциями.
Tech.eu
Perry raises €1.6M to tackle shortage of technical workers with AI
Perry uses AI to deliver field-tested, worker-friendly training tools, enabling multilingual teams across Europe to collaborate and perform safely on-site.
Trae Agent от ByteDance: AI‑разработчик в командной строке
ByteDance (да, та самая компания, что сделала TikTok) выпустила Trae Agent — мощного AI‑ассистента для программистов, который работает прямо из терминала. Это не просто очередной генератор кода — это полноценный LLM-агент, способный планировать, исправлять, тестировать и рефакторить ваш код почти без участия человека. И главное — проект open-source и уже доступен на GitHub
Что умеет Trae?
✅ Выполняет задачи через текстовые команды. Агент сам проанализирует проблему, отредактирует нужный файл и предложит правки. Работает с любыми языками и структурами проектов.
✅ Интерактивный режим. Можно запустить сессию, где агент спрашивает уточнения, строит план и показывает, что собирается сделать, прежде чем вносить изменения.
✅ Работает с разными LLM
Поддерживает:
• GPT-4 и GPT-4o (OpenAI),
• Claude от Anthropic,
• Gemini от Google,
• OpenRouter и другие.
Можно выбрать модель, указав её в конфиге или через переменные среды.
✅ Управляет инструментами
Агент умеет:
• редактировать файлы,
• запускать shell-команды,
• писать и запускать тесты,
• отслеживать ошибки и исправлять их пошагово.
✅ Ведёт лог всех шагов. Trae сохраняет каждое действие, каждый запрос к модели, ответ и изменение кода. Это удобно для отладки, ревью и обучения других агентов.
💡 Что дальше?
ByteDance уже тестирует Trae для:
• автоматической генерации pull-requests,
• AI‑code review,
• CI/CD‑интеграции.
И всё это — с открытым исходным кодом. У Trae уже сотни форков и тысяч звёзд на GitHub, и это только начало.
ByteDance (да, та самая компания, что сделала TikTok) выпустила Trae Agent — мощного AI‑ассистента для программистов, который работает прямо из терминала. Это не просто очередной генератор кода — это полноценный LLM-агент, способный планировать, исправлять, тестировать и рефакторить ваш код почти без участия человека. И главное — проект open-source и уже доступен на GitHub
Что умеет Trae?
✅ Выполняет задачи через текстовые команды. Агент сам проанализирует проблему, отредактирует нужный файл и предложит правки. Работает с любыми языками и структурами проектов.
✅ Интерактивный режим. Можно запустить сессию, где агент спрашивает уточнения, строит план и показывает, что собирается сделать, прежде чем вносить изменения.
✅ Работает с разными LLM
Поддерживает:
• GPT-4 и GPT-4o (OpenAI),
• Claude от Anthropic,
• Gemini от Google,
• OpenRouter и другие.
Можно выбрать модель, указав её в конфиге или через переменные среды.
✅ Управляет инструментами
Агент умеет:
• редактировать файлы,
• запускать shell-команды,
• писать и запускать тесты,
• отслеживать ошибки и исправлять их пошагово.
✅ Ведёт лог всех шагов. Trae сохраняет каждое действие, каждый запрос к модели, ответ и изменение кода. Это удобно для отладки, ревью и обучения других агентов.
💡 Что дальше?
ByteDance уже тестирует Trae для:
• автоматической генерации pull-requests,
• AI‑code review,
• CI/CD‑интеграции.
И всё это — с открытым исходным кодом. У Trae уже сотни форков и тысяч звёзд на GitHub, и это только начало.
GitHub
GitHub - bytedance/trae-agent: Trae Agent is an LLM-based agent for general purpose software engineering tasks.
Trae Agent is an LLM-based agent for general purpose software engineering tasks. - bytedance/trae-agent
Финтех 2.0: агентный ИИ меняет правила игры на рынке финансов
Искусственный интеллект перестал быть дополнительным инструментом в арсенале финтеха — он становится ядром архитектурных и бизнес-изменений, задающим новую траекторию роста. Это ключевой вывод отчёта BCG и QED Investors под названием «Fintech’s Next Chapter: Scaled Winners and Emerging Disruptors».
📈 Рост, устойчивость и зрелость сектора
По данным отчёта:
• В 2024 году финтех-сектор продемонстрировал рост на 21% — в три раза быстрее, чем традиционные банки (7%);
• 69% публичных финтех-компаний уже прибыльны, а средняя EBITDA-маржа достигла 16%;
• Компании с выручкой выше $500 млн в год теперь контролируют 60% совокупной выручки отрасли.
📌 Финтех больше не «молодой и нестабильный» сектор. Он — зрелый, устойчивый и масштабируемый.
🤖 Агентный ИИ — не следующая функция, а новый инфраструктурный слой
Отчёт подчёркивает: ключевым вектором дальнейшего роста станет agentic AI — искусственный интеллект, работающий в виде автономных агентов. Это не просто генерация кода или автоматизация чата — это системы, способные:
• принимать решения на основе контекста в режиме реального времени;
• инициировать действия (например, андеррайтинг или customer support);
• адаптироваться к политике компании, клиентским сценариям и нормативной среде.
💡 Эти системы заменяют не интерфейсы — они заменяют инструкции, переходя от пассивного ответа к активному поведению.
🏦 Новые лидеры смещают центр притяжения капитала
• Челленджеры и API‑банки уводят депозиты у традиционных игроков, показывая рост в +37% против +7% у классических банков.
• Крупные финтех‑игроки (Brex, Klarna, Nubank, Stripe, Revolut) всё чаще используют AI для дифференциации на уровне UX, поддержки, кредитования и аналитики.
• Рынок переходит от венчурной зависимости к гибкому финансированию через private credit, снижая риски и стоимость капитала.
⚙️ Новая логика финтех‑архитектуры
Переход от традиционного «API‑банкинга» к агентной модели означает:
1. AI становится «первоклассным гражданином» архитектуры — не оболочкой, а активным участником бизнес-логики.
2. Индивидуализация обслуживания в масштабах достигается через модели с памятью (memory) и retrieval-based подходы (RAG).
3. Скорость развития продукта определяется не числом разработчиков, а скоростью итерации ИИ.
🔍 Риски и вызовы
• Регуляторный надзор требует встроенной интерпретируемости и аудита: explainability, provenance, traceability.
• UX‑переосмысление: пользователь взаимодействует не с панелью, а с агентом — это требует другой логики интерфейсов и доверия.
• Управление данными и их актуализация становятся критически важными.
📈 Что будет дальше (2025–2027)
• Финтех-игроки без встроенного agentic AI будут терять темп и маржинальность.
• Начнётся консолидация вокруг платформ с масштабируемыми AI-инфраструктурами.
• Пользовательская лояльность будет определяться не брендом, а тем, насколько «умным» и полезным стал финансовый помощник.
🧭 Стратегические действия на сейчас
Для финтех-команд, CTO, CPO и стратегов B2C-продуктов:
1. Переосмыслите ядро вашего предложения: где агент может заменить рутину и создать ценность?
2. Инвестируйте в стек explainable AI и безопасную агентную логику.
3. Постройте собственную стратегию AI-инфраструктуры: от модели до слоёв контекста и памяти.
Искусственный интеллект перестал быть дополнительным инструментом в арсенале финтеха — он становится ядром архитектурных и бизнес-изменений, задающим новую траекторию роста. Это ключевой вывод отчёта BCG и QED Investors под названием «Fintech’s Next Chapter: Scaled Winners and Emerging Disruptors».
📈 Рост, устойчивость и зрелость сектора
По данным отчёта:
• В 2024 году финтех-сектор продемонстрировал рост на 21% — в три раза быстрее, чем традиционные банки (7%);
• 69% публичных финтех-компаний уже прибыльны, а средняя EBITDA-маржа достигла 16%;
• Компании с выручкой выше $500 млн в год теперь контролируют 60% совокупной выручки отрасли.
📌 Финтех больше не «молодой и нестабильный» сектор. Он — зрелый, устойчивый и масштабируемый.
🤖 Агентный ИИ — не следующая функция, а новый инфраструктурный слой
Отчёт подчёркивает: ключевым вектором дальнейшего роста станет agentic AI — искусственный интеллект, работающий в виде автономных агентов. Это не просто генерация кода или автоматизация чата — это системы, способные:
• принимать решения на основе контекста в режиме реального времени;
• инициировать действия (например, андеррайтинг или customer support);
• адаптироваться к политике компании, клиентским сценариям и нормативной среде.
💡 Эти системы заменяют не интерфейсы — они заменяют инструкции, переходя от пассивного ответа к активному поведению.
🏦 Новые лидеры смещают центр притяжения капитала
• Челленджеры и API‑банки уводят депозиты у традиционных игроков, показывая рост в +37% против +7% у классических банков.
• Крупные финтех‑игроки (Brex, Klarna, Nubank, Stripe, Revolut) всё чаще используют AI для дифференциации на уровне UX, поддержки, кредитования и аналитики.
• Рынок переходит от венчурной зависимости к гибкому финансированию через private credit, снижая риски и стоимость капитала.
⚙️ Новая логика финтех‑архитектуры
Переход от традиционного «API‑банкинга» к агентной модели означает:
1. AI становится «первоклассным гражданином» архитектуры — не оболочкой, а активным участником бизнес-логики.
2. Индивидуализация обслуживания в масштабах достигается через модели с памятью (memory) и retrieval-based подходы (RAG).
3. Скорость развития продукта определяется не числом разработчиков, а скоростью итерации ИИ.
🔍 Риски и вызовы
• Регуляторный надзор требует встроенной интерпретируемости и аудита: explainability, provenance, traceability.
• UX‑переосмысление: пользователь взаимодействует не с панелью, а с агентом — это требует другой логики интерфейсов и доверия.
• Управление данными и их актуализация становятся критически важными.
📈 Что будет дальше (2025–2027)
• Финтех-игроки без встроенного agentic AI будут терять темп и маржинальность.
• Начнётся консолидация вокруг платформ с масштабируемыми AI-инфраструктурами.
• Пользовательская лояльность будет определяться не брендом, а тем, насколько «умным» и полезным стал финансовый помощник.
🧭 Стратегические действия на сейчас
Для финтех-команд, CTO, CPO и стратегов B2C-продуктов:
1. Переосмыслите ядро вашего предложения: где агент может заменить рутину и создать ценность?
2. Инвестируйте в стек explainable AI и безопасную агентную логику.
3. Постройте собственную стратегию AI-инфраструктуры: от модели до слоёв контекста и памяти.
BCG Global
Fintech’s Next Chapter: Scaled Winners and Emerging Disruptors
Fueled by investor sentiment, both established fintech winners and upstarts are continuing the shift to a profitable growth mindset.
«Shadow AI»: когда ИИ работает за спиной у ИТ‑службы
Согласно отчету Zluri The State of AI in the Workplace 2025, 80 % ИИ-инструментов, используемых сотрудниками, остаются незамеченными для IT‑отделов и служб безопасности. Эти скрытые решения создают новые уязвимости, а ИТ‑директоры (CISOs) должны вовремя их обнаруживать и контролировать.
🔍 Почему это важно
• Широкое распространение: десятки, а иногда и сотни ИИ‑сервисов внедряются самостоятельно в разных отделах — маркетинге, продажах, HR, инженерии.
• Нулевая видимость: службы безопасности осведомлены не более чем о 20 % этих инструментов.
• Риски с данными: нелегальные ИИ‑решения могут обращаться к сторонним провайдерам, хранить данные на открытых серверах, работать без шифрования или аудита
⚠️ Главные угрозы для компании
1. Утечка информации: скрытые инструменты могут несанкционированно обрабатывать чувствительные данные, что особенно опасно для регулируемых отраслей — от здравоохранения до финансов.
2. Неразмеченные API-ключи и учётки: сервисы создают учётные записи и токены, о которых никто не знает, что увеличивает поверхность атаки и усложняет расследования .
🛡️ Куда двигаться CISOs
• Выявление инструментов: внедрение платформ обнаружения в сети, системах идентификации и SaaS-интеграции, чтобы увидеть, какие ИИ‑сервисы используются .
• Оценка по уровню риска: классификация ИИ‑инструментов по степени доступа к данным, чтобы усиливать контроль там, где риски классифицированы как высокие .
• Принцип минимальной привилегии: ограничивать права, централизованно управлять токенами, регулярно отзывать неиспользуемые ключи
• Интеграция в системы управления: включать ИИ‑инструменты в общий инвентарь IT‑активов и проводить обязательную проверку перед внедрением, как и для SaaS‑сервисов .
• Реакция в реальном времени: настраивать системы оповещений при аномальном использовании, к примеру, загрузке конфиденциальных документов в неизвестную модель .
• Осведомленность сотрудников: организовать обучение и кампании по повышению ответственности, ведь многие используют ИИ‑инструменты по незнанию, а не из злого умысла .
🔑 В итоге
Скрытые ИИ‑решения — это не просто нелегальные приложения, а новые «теневые» уязвимости, которые могут привести к крупным утечкам и проблемам соответствия. Чтобы быть готовыми к рискам, CISOs следует:
• Полностью выявить все используемые ИИ‑сервисы;
• Оценивать и классифицировать риски;
• Интегрировать управление в существующие IT‑процессы;
• Обучать персонал и формировать культуру безопасного использования.
Согласно отчету Zluri The State of AI in the Workplace 2025, 80 % ИИ-инструментов, используемых сотрудниками, остаются незамеченными для IT‑отделов и служб безопасности. Эти скрытые решения создают новые уязвимости, а ИТ‑директоры (CISOs) должны вовремя их обнаруживать и контролировать.
🔍 Почему это важно
• Широкое распространение: десятки, а иногда и сотни ИИ‑сервисов внедряются самостоятельно в разных отделах — маркетинге, продажах, HR, инженерии.
• Нулевая видимость: службы безопасности осведомлены не более чем о 20 % этих инструментов.
• Риски с данными: нелегальные ИИ‑решения могут обращаться к сторонним провайдерам, хранить данные на открытых серверах, работать без шифрования или аудита
⚠️ Главные угрозы для компании
1. Утечка информации: скрытые инструменты могут несанкционированно обрабатывать чувствительные данные, что особенно опасно для регулируемых отраслей — от здравоохранения до финансов.
2. Неразмеченные API-ключи и учётки: сервисы создают учётные записи и токены, о которых никто не знает, что увеличивает поверхность атаки и усложняет расследования .
🛡️ Куда двигаться CISOs
• Выявление инструментов: внедрение платформ обнаружения в сети, системах идентификации и SaaS-интеграции, чтобы увидеть, какие ИИ‑сервисы используются .
• Оценка по уровню риска: классификация ИИ‑инструментов по степени доступа к данным, чтобы усиливать контроль там, где риски классифицированы как высокие .
• Принцип минимальной привилегии: ограничивать права, централизованно управлять токенами, регулярно отзывать неиспользуемые ключи
• Интеграция в системы управления: включать ИИ‑инструменты в общий инвентарь IT‑активов и проводить обязательную проверку перед внедрением, как и для SaaS‑сервисов .
• Реакция в реальном времени: настраивать системы оповещений при аномальном использовании, к примеру, загрузке конфиденциальных документов в неизвестную модель .
• Осведомленность сотрудников: организовать обучение и кампании по повышению ответственности, ведь многие используют ИИ‑инструменты по незнанию, а не из злого умысла .
🔑 В итоге
Скрытые ИИ‑решения — это не просто нелегальные приложения, а новые «теневые» уязвимости, которые могут привести к крупным утечкам и проблемам соответствия. Чтобы быть готовыми к рискам, CISOs следует:
• Полностью выявить все используемые ИИ‑сервисы;
• Оценивать и классифицировать риски;
• Интегрировать управление в существующие IT‑процессы;
• Обучать персонал и формировать культуру безопасного использования.
Help Net Security
AI tools are everywhere, and most are off your radar
Shadow AI is spreading across the workplace, creating security blind spots and data risks that CISOs must identify, manage, and control.
Опыт использования ИИ в работе софтверного архитектора
На конференции OOP Авраам Поупко поделился практическим опытом применения генеративного ИИ в ежедневной работе архитектора ПО. Главное наблюдение: софтверных архитекторов не заменят ИИ, но те, кто умеет эффективно с ним взаимодействовать, получат преимущество.
🤖 Где ИИ действительно полезен
1. Исследование компромиссов
ИИ помогает быстро оценивать варианты архитектурных решений, сравнивать подходы и подбирать наиболее эффективные .
2. Уточнение формулировок
Модели LLM отлично помогают выразить идеи четко и лаконично. Например, при переработке одного из его абзацев ИИ-сервис Gemini предложил более ясный вариант:
Однако Поупко заметил: ИИ иногда добавляет лишнее, например слово «yet», что может изменить смысл.
🌍 Почему ИИ не заменит архитектора
Контекстно-чувственное мышление
Человеческая способность читать ситуацию, понимать невербальные сигналы и нюансы контекста пока находится вне досягаемости для ИИ :
«We know how to read a situation, body language and gauge appropriate behaviour. That is an area where AI is currently very poor at.»
Теория разума (Theory of Mind)
Поупко подчеркивает: задачи архитектора требуют понимания ментальных моделей других людей — что для ИИ почти недостижимо:
Он заключает: понимание выходит за рамки текста и технологий — это контекст и люди .
🧠 Границы использования ИИ
• ИИ отлично справляется с анализом больших объемов текста, превосходя людей по скорости и объемам .
• Однако глубоко контекстуальные решения — вне зоны ИИ — тогда как такие задачи лучше решает человек .
Мысли автора:
1. Архитектурная роль не исчезнет, но изменится: переиграют профессионалы, владеющие ИИ-инструментами .
2. ИИ — мощный ассистент в проработке вариантов и доработке текста.
3. Человеческий архитектор остается незаменимым для контекстуального мышления, понимания команд и эмоционального интеллекта.
🎯 Рекомендации для архитекторов
• Используйте ИИ как инструмент для уточнения формулировок и ускорения анализа, но не полагайтесь на него при принятии окончательных решений.
• Всегда проверяйте результат запускаемого ИИ: добавляет ли он лишние оттенки смысла, как слово «yet» в примере Поупко.
• Сосредоточьтесь на развитии софт-скиллов, понимании контекста и умении интерпретировать неоднозначные ситуации, где ИИ пока бессилен.
На конференции OOP Авраам Поупко поделился практическим опытом применения генеративного ИИ в ежедневной работе архитектора ПО. Главное наблюдение: софтверных архитекторов не заменят ИИ, но те, кто умеет эффективно с ним взаимодействовать, получат преимущество.
🤖 Где ИИ действительно полезен
1. Исследование компромиссов
ИИ помогает быстро оценивать варианты архитектурных решений, сравнивать подходы и подбирать наиболее эффективные .
2. Уточнение формулировок
Модели LLM отлично помогают выразить идеи четко и лаконично. Например, при переработке одного из его абзацев ИИ-сервис Gemini предложил более ясный вариант:
«While AI cannot yet replace human architects due to the deep system, domain, and organizational knowledge required for effective design, it’s a valuable tool for exploring tradeoffs and refining language…»
Однако Поупко заметил: ИИ иногда добавляет лишнее, например слово «yet», что может изменить смысл.
🌍 Почему ИИ не заменит архитектора
Контекстно-чувственное мышление
Человеческая способность читать ситуацию, понимать невербальные сигналы и нюансы контекста пока находится вне досягаемости для ИИ :
«We know how to read a situation, body language and gauge appropriate behaviour. That is an area where AI is currently very poor at.»
Теория разума (Theory of Mind)
Поупко подчеркивает: задачи архитектора требуют понимания ментальных моделей других людей — что для ИИ почти недостижимо:
«I learned about the importance of my Theory of Mind, meaning my ability to create a mental representation of other people’s mental model.»
Он заключает: понимание выходит за рамки текста и технологий — это контекст и люди .
🧠 Границы использования ИИ
• ИИ отлично справляется с анализом больших объемов текста, превосходя людей по скорости и объемам .
• Однако глубоко контекстуальные решения — вне зоны ИИ — тогда как такие задачи лучше решает человек .
Мысли автора:
1. Архитектурная роль не исчезнет, но изменится: переиграют профессионалы, владеющие ИИ-инструментами .
2. ИИ — мощный ассистент в проработке вариантов и доработке текста.
3. Человеческий архитектор остается незаменимым для контекстуального мышления, понимания команд и эмоционального интеллекта.
🎯 Рекомендации для архитекторов
• Используйте ИИ как инструмент для уточнения формулировок и ускорения анализа, но не полагайтесь на него при принятии окончательных решений.
• Всегда проверяйте результат запускаемого ИИ: добавляет ли он лишние оттенки смысла, как слово «yet» в примере Поупко.
• Сосредоточьтесь на развитии софт-скиллов, понимании контекста и умении интерпретировать неоднозначные ситуации, где ИИ пока бессилен.
InfoQ
Experiences from Using AI as a Software Architect
Artificial intelligence excels at refining language and processing large text volumes, but lacks human-like contextual reasoning and emotional intelligence, Avraham Poupko said. Many human traits come into play when doing software architecture. As an architect…
Lovable ведет переговоры о новом раунде на 150 млн. USD
Шведский стартап Lovable, развивающий одноименный сервис «вайб-кодинга», начал переговоры о проведении нового инвестраунда. Согласно данным FT участие в сделке примут Accel, Creandum и 20VC.
Стартап Lovable представлен на рынке с 2023 года. Головной офис находится в Стокгольме. Принадлежащий ему сервис используется клиентами для создания полностью функциональных приложений и сайтов. Иметь технические знания для этого не нужно. Достаточно ввести текстовый запрос.
Объем нового раунда составит 150 млн USD. После закрытия сделки оценка Lovable достигнет 1,8 млрд USD. Предыдущий раунд на 15 млн USD шведская компания закрыла в конце зимы текущего года. На тот момент количество платных подписчиков превышало 30 тыс. чел.
От сервиса Cursor, ориентированного на IT-специалистов, решение Lovable отличается простотой, его основными конкурентами являются Bolt и Replit.
В конце июня стартап анонсировал вывод на рынок ИИ-агента для автоматизации поиска багов и редактирования кода. Размер платы будет зависеть от объема запросов. В материале FT утверждается, что Lovable является самым быстрорастущим европейским стартапом.
Шведский стартап Lovable, развивающий одноименный сервис «вайб-кодинга», начал переговоры о проведении нового инвестраунда. Согласно данным FT участие в сделке примут Accel, Creandum и 20VC.
Стартап Lovable представлен на рынке с 2023 года. Головной офис находится в Стокгольме. Принадлежащий ему сервис используется клиентами для создания полностью функциональных приложений и сайтов. Иметь технические знания для этого не нужно. Достаточно ввести текстовый запрос.
Объем нового раунда составит 150 млн USD. После закрытия сделки оценка Lovable достигнет 1,8 млрд USD. Предыдущий раунд на 15 млн USD шведская компания закрыла в конце зимы текущего года. На тот момент количество платных подписчиков превышало 30 тыс. чел.
От сервиса Cursor, ориентированного на IT-специалистов, решение Lovable отличается простотой, его основными конкурентами являются Bolt и Replit.
В конце июня стартап анонсировал вывод на рынок ИИ-агента для автоматизации поиска багов и редактирования кода. Размер платы будет зависеть от объема запросов. В материале FT утверждается, что Lovable является самым быстрорастущим европейским стартапом.
Ft
Swedish AI start-up Lovable nears $2bn valuation
Two-year-old group set to attract more than $150mn in new funding as investors swarm around AI coding businesses
OpenAI и Американская федерация учителей планируют обучить 400 000 учителей США в области ИИ
OpenAI и Американская федерация учителей (AFT) запускают Национальную академию обучения ИИ , пятилетнюю инициативу, направленную на обучение 400 000 учителей по всем Соединенным Штатам использованию искусственного интеллекта в классе. OpenAI вкладывает 10 млн.$ в эти программы, из которых 8 млн.$ — прямое финансирование и 2 млн.$ — техническая поддержка.
Цель — помочь учителям интегрировать ИИ в свое преподавание, уделяя особое внимание школьным округам с недостаточным уровнем обеспеченности услугами.
Проект поддерживают дополнительные партнеры, включая Microsoft, Anthropic и United Federation of Teachers. Первый учебный центр строится в Нью-Йорке, и планируется открыть еще к 2030 году. Учителя получат доступ к семинарам, онлайн-курсам и практическому обучению, а также приоритетный доступ к инструментам OpenAI, технической поддержке и ресурсам для создания собственных приложений для классов на базе ИИ.
OpenAI и Американская федерация учителей (AFT) запускают Национальную академию обучения ИИ , пятилетнюю инициативу, направленную на обучение 400 000 учителей по всем Соединенным Штатам использованию искусственного интеллекта в классе. OpenAI вкладывает 10 млн.$ в эти программы, из которых 8 млн.$ — прямое финансирование и 2 млн.$ — техническая поддержка.
Цель — помочь учителям интегрировать ИИ в свое преподавание, уделяя особое внимание школьным округам с недостаточным уровнем обеспеченности услугами.
Проект поддерживают дополнительные партнеры, включая Microsoft, Anthropic и United Federation of Teachers. Первый учебный центр строится в Нью-Йорке, и планируется открыть еще к 2030 году. Учителя получат доступ к семинарам, онлайн-курсам и практическому обучению, а также приоритетный доступ к инструментам OpenAI, технической поддержке и ресурсам для создания собственных приложений для классов на базе ИИ.
THE DECODER
OpenAI and the American Federation of Teachers plan to train 400,000 U.S. teachers in AI
OpenAI and the American Federation of Teachers (AFT) are launching the National Academy for AI Instruction, a five-year initiative aimed at training 400,000 teachers across the United States to use artificial intelligence in the classroom.
Meta переманивает топ-менеджера Apple по искусственному интеллекту
Один из ведущих руководителей по искусственному интеллекту Руомин Пан покинул компанию, чтобы присоединиться к Meta.
По данным Bloomberg , Мета предложила Пангу очень высокооплачиваемую работу, предположительно стоимостью в десятки миллионов долларов в год. Панг возглавлял команду «базовых моделей» Apple. Эта группа работает над базовой технологией, лежащей в основе таких функций, как Apple Intelligence и Siri. Это не первый случай, когда Meta нанимает лучших специалистов из Apple или других компаний в сфере ИИ. Недавно компания также наняла высокопоставленных руководителей из OpenAI .
Один из ведущих руководителей по искусственному интеллекту Руомин Пан покинул компанию, чтобы присоединиться к Meta.
По данным Bloomberg , Мета предложила Пангу очень высокооплачиваемую работу, предположительно стоимостью в десятки миллионов долларов в год. Панг возглавлял команду «базовых моделей» Apple. Эта группа работает над базовой технологией, лежащей в основе таких функций, как Apple Intelligence и Siri. Это не первый случай, когда Meta нанимает лучших специалистов из Apple или других компаний в сфере ИИ. Недавно компания также наняла высокопоставленных руководителей из OpenAI .
Bloomberg.com
Apple Loses Its Top AI Models Executive to Meta’s Hiring Spree
Apple Inc.’s top executive in charge of artificial intelligence models is leaving for Meta Platforms Inc., another setback in the iPhone maker’s struggling AI efforts.