SZHENOV Telegram 12370
🥸🥸🥸🥸В Школе Бизнеса МГИМО для слушателей программы MBA состоялась лекция основателя ИТ-компании "Кеды профессора" Егошина Константина, посвящённая практическим вопросам применения технологий искусственного интеллекта в рамках бизнес-процессов организаций.

🎤 Эксклюзивно для НОП, Константин Егошин, руководитель ИТ-компании "Кеды профессора", эксперт в области технологий на базе искусственного интеллекта:

В ходе подготовки к лекции пришел к интересному наблюдению: как будто с появлением современного ИИ происходит большой эволюционный переход к новому стандарту взаимодействия человека и машины.

Как выглядит данная эволюция:

1. Код. Всё началось с взаимодействия через программный код. Разработчики писали запросы, ЭВМ что-то делала по алгоритму;

2. Графический интерфейс. Далее, появился графический интерфейс, к которому мы привыкли: есть рабочий стол и мы мышкой водим, по клавиатуре клацаем, что-то происходит.

3. Мультитач. Потом те же ребята из Apple придумали мультитач - экран смартфона с операционной системой, адаптированной под управление пальцами (например, поэтому иконки на наших телефонах большие, чтобы удобно пальцем попадать).

4. Голосовые помощники. Отдельно можно отметить голосовых ассистентов (Siri, Алиса) - они научились переводить голос в команду и активировать нужный алгоритм. Сюда же мы относим всех голосовых роботов, которые появились на линиях поддержки. Наверное, нет человека, которого бы они не бесили.

Но все эти способы взаимодействия человека и машины объединяет один принцип - все они предполагают, что человек должен активировать конкретный алгоритм машины и человек должен подстраиваться под машину, а не наоборот. Например, если Алисе недостаточно четко сформулировать запрос, она не поймет что нужно. А половина задач сотрудников крупных компаний заключается в приведении информации в удобный для машины вид (например, когда мы заполняем информацией карточку в 1С или форму на госуслугах - мы по сути этим и занимаемся).

Мне кажется, что ребята ИИ приносит нам естественный способ взаимодействия человека и технологии. Мы говорим / пишем то, что хотим своими словами, а далее ИИ-модель выдает нам результат, при необходимости сама за нас додумывает или у нас же уточняет, что мы имели в виду, а также ходит в сторонние системы и документы, сама уточняет что ей нужно. Это очень похоже на то, как мы взаимодействуем с другим человеком при решении профессиональных задач.

Вместе со слушателем программы МБА МГИМО мы за несколько секунд обучили продвинутого голосового ассистента на базе ИИ быть продавцом в магазине товаров для организации детских праздников и он выдал результат на уровне хорошего сейла-человека.

Мне кажется, что через лет 5 будет вполне нормально, позвонив в банк, сказать "Соедините меня с роботом", потому что робот будет:
- уметь подстраиваться под удобный для меня тон коммуникации, а для моей бабушки тон и скорость речи будут другими;
- гораздо лучше человека знать базу знаний и выдавать ответы быстрее и без "подождите несколько минут, мне нужно проверить информацию".

Сейчас это кажется не реальным, потому что мы все устали от глупых голосовых ассистентов, но все может очень скоро измениться.


#ЛюдиНОП
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM



tgoop.com/szhenov/12370
Create:
Last Update:

🥸🥸🥸🥸В Школе Бизнеса МГИМО для слушателей программы MBA состоялась лекция основателя ИТ-компании "Кеды профессора" Егошина Константина, посвящённая практическим вопросам применения технологий искусственного интеллекта в рамках бизнес-процессов организаций.

🎤 Эксклюзивно для НОП, Константин Егошин, руководитель ИТ-компании "Кеды профессора", эксперт в области технологий на базе искусственного интеллекта:

В ходе подготовки к лекции пришел к интересному наблюдению: как будто с появлением современного ИИ происходит большой эволюционный переход к новому стандарту взаимодействия человека и машины.

Как выглядит данная эволюция:

1. Код. Всё началось с взаимодействия через программный код. Разработчики писали запросы, ЭВМ что-то делала по алгоритму;

2. Графический интерфейс. Далее, появился графический интерфейс, к которому мы привыкли: есть рабочий стол и мы мышкой водим, по клавиатуре клацаем, что-то происходит.

3. Мультитач. Потом те же ребята из Apple придумали мультитач - экран смартфона с операционной системой, адаптированной под управление пальцами (например, поэтому иконки на наших телефонах большие, чтобы удобно пальцем попадать).

4. Голосовые помощники. Отдельно можно отметить голосовых ассистентов (Siri, Алиса) - они научились переводить голос в команду и активировать нужный алгоритм. Сюда же мы относим всех голосовых роботов, которые появились на линиях поддержки. Наверное, нет человека, которого бы они не бесили.

Но все эти способы взаимодействия человека и машины объединяет один принцип - все они предполагают, что человек должен активировать конкретный алгоритм машины и человек должен подстраиваться под машину, а не наоборот. Например, если Алисе недостаточно четко сформулировать запрос, она не поймет что нужно. А половина задач сотрудников крупных компаний заключается в приведении информации в удобный для машины вид (например, когда мы заполняем информацией карточку в 1С или форму на госуслугах - мы по сути этим и занимаемся).

Мне кажется, что ребята ИИ приносит нам естественный способ взаимодействия человека и технологии. Мы говорим / пишем то, что хотим своими словами, а далее ИИ-модель выдает нам результат, при необходимости сама за нас додумывает или у нас же уточняет, что мы имели в виду, а также ходит в сторонние системы и документы, сама уточняет что ей нужно. Это очень похоже на то, как мы взаимодействуем с другим человеком при решении профессиональных задач.

Вместе со слушателем программы МБА МГИМО мы за несколько секунд обучили продвинутого голосового ассистента на базе ИИ быть продавцом в магазине товаров для организации детских праздников и он выдал результат на уровне хорошего сейла-человека.

Мне кажется, что через лет 5 будет вполне нормально, позвонив в банк, сказать "Соедините меня с роботом", потому что робот будет:
- уметь подстраиваться под удобный для меня тон коммуникации, а для моей бабушки тон и скорость речи будут другими;
- гораздо лучше человека знать базу знаний и выдавать ответы быстрее и без "подождите несколько минут, мне нужно проверить информацию".

Сейчас это кажется не реальным, потому что мы все устали от глупых голосовых ассистентов, но все может очень скоро измениться.


#ЛюдиНОП

BY НОП. Научно-образовательная политика






Share with your friend now:
tgoop.com/szhenov/12370

View MORE
Open in Telegram


Telegram News

Date: |

So far, more than a dozen different members have contributed to the group, posting voice notes of themselves screaming, yelling, groaning, and wailing in various pitches and rhythms. With the sharp downturn in the crypto market, yelling has become a coping mechanism for many crypto traders. This screaming therapy became popular after the surge of Goblintown Ethereum NFTs at the end of May or early June. Here, holders made incoherent groaning sounds in late-night Twitter spaces. They also role-played as urine-loving Goblin creatures. Matt Hussey, editorial director of NEAR Protocol (and former editor-in-chief of Decrypt) responded to the news of the Telegram group with “#meIRL.” Earlier, crypto enthusiasts had created a self-described “meme app” dubbed “gm” app wherein users would greet each other with “gm” or “good morning” messages. However, in September 2021, the gm app was down after a hacker reportedly gained access to the user data. On June 7, Perekopsky met with Brazilian President Jair Bolsonaro, an avid user of the platform. According to the firm's VP, the main subject of the meeting was "freedom of expression."
from us


Telegram НОП. Научно-образовательная политика
FROM American