TOBEANMLSPECIALIST Telegram 920
С Наступающим Новым годом, друзья!

В эфире праздничный выпуск 🙂 В гостях Сергей Николенко - доктор физико-математических наук, старший научный сотрудник ПОМИ РАН, доцент ФМКН СПбГУ, Head of AI компании Synthesis AI, исследователь в области машинного обучения, в частности глубокого обучения, теоретической информатики и анализа алгоритмов, автор более 200 публикаций в этих и других областях информатики и математики, автор нескольких книг, в том числе бестселлера "Глубокое обучение" (Питер, 2018) и монографии "Synthetic Data for Deep Learning" (Springer, 2021). Почему математики в машинном обучении много, а машинное обучение в математике приходится искать? Могут ли программы перебирать другие программы для решения задач перебором? Почему до сих пор не автоматизировали поиск решений для задач тысячелетия? Решают ли большие языковые модели олимпиадные задачи по математике лучше олимпийцев? Как победить LLM на математической олимпиаде, подсунув ей задачи по геометрии? Можно ли автоматизировать учёного? Что лучшие математики современности думают о модели o1? Могут ли нейросети выводить физические законы? Как понять, что AGI уже здесь? А что делать, если уже здесь? Как написать системный промпт к очередной LLM так, чтобы она не захотела уничтожить человечество? На кого учиться, если кругом все делают роботы? Обо всем этом в выпуске!

https://mlpodcast.mave.digital/ep-67



tgoop.com/toBeAnMLspecialist/920
Create:
Last Update:

С Наступающим Новым годом, друзья!

В эфире праздничный выпуск 🙂 В гостях Сергей Николенко - доктор физико-математических наук, старший научный сотрудник ПОМИ РАН, доцент ФМКН СПбГУ, Head of AI компании Synthesis AI, исследователь в области машинного обучения, в частности глубокого обучения, теоретической информатики и анализа алгоритмов, автор более 200 публикаций в этих и других областях информатики и математики, автор нескольких книг, в том числе бестселлера "Глубокое обучение" (Питер, 2018) и монографии "Synthetic Data for Deep Learning" (Springer, 2021). Почему математики в машинном обучении много, а машинное обучение в математике приходится искать? Могут ли программы перебирать другие программы для решения задач перебором? Почему до сих пор не автоматизировали поиск решений для задач тысячелетия? Решают ли большие языковые модели олимпиадные задачи по математике лучше олимпийцев? Как победить LLM на математической олимпиаде, подсунув ей задачи по геометрии? Можно ли автоматизировать учёного? Что лучшие математики современности думают о модели o1? Могут ли нейросети выводить физические законы? Как понять, что AGI уже здесь? А что делать, если уже здесь? Как написать системный промпт к очередной LLM так, чтобы она не захотела уничтожить человечество? На кого учиться, если кругом все делают роботы? Обо всем этом в выпуске!

https://mlpodcast.mave.digital/ep-67

BY Стать специалистом по машинному обучению




Share with your friend now:
tgoop.com/toBeAnMLspecialist/920

View MORE
Open in Telegram


Telegram News

Date: |

Avoid compound hashtags that consist of several words. If you have a hashtag like #marketingnewsinusa, split it into smaller hashtags: “#marketing, #news, #usa. Administrators Matt Hussey, editorial director at NEAR Protocol also responded to this news with “#meIRL”. Just as you search “Bear Market Screaming” in Telegram, you will see a Pepe frog yelling as the group’s featured image. “[The defendant] could not shift his criminal liability,” Hui said. The court said the defendant had also incited people to commit public nuisance, with messages calling on them to take part in rallies and demonstrations including at Hong Kong International Airport, to block roads and to paralyse the public transportation system. Various forms of protest promoted on the messaging platform included general strikes, lunchtime protests and silent sit-ins.
from us


Telegram Стать специалистом по машинному обучению
FROM American