Переход к естественному взаимодействию человека и технологий
На прошлой неделе проводил лекцию для слушателей MBA МГИМО. В ходе подготовки к лекции пришел к интересному наблюдению: как будто с появлением современного ИИ происходит большой переход к новому стандарту взаимодействия человека и машины.
Как выглядит данная эволюция:
1. Код. Всё началось с взаимодействия через программный код. Разработчики писали запросы, ЭВМ что-то делала по алгоритму;
2. Графический интерфейс. Далее, Стив Джобс подрезал у Xerox и подарил миру графический интерфейс, к которому мы привыкли: есть рабочий стол и мы мышкой водим, по клавиатуре клацаем, что-то происходит.
3. Мультитач. Потом те же ребята из Apple придумали мультитач - экран смартфона с операционной системой, адаптированной под управление пальцами (например, поэтому иконки на наших телефонах большие, чтобы удобно пальцем попадать).
4. Голосовые помощники. Отдельно можно отметить голосовых ассистентов (Siri, Алиса) - они научились переводить голос в команду и активировать нужный алгоритм. Сюда же мы относим всех голосовых роботов, которые появились на линиях поддержки. Наверное, нет человека, которого бы они не бесили.
Но все эти способы взаимодействия человека и машины объединяет один принцип - все они предполагают, что человек должен активировать конкретный алгоритм машины и человек должен подстраиваться под машину, а не наоборот. Например, если Алисе недостаточно четко сформулировать запрос, она не поймет что нужно. А половина задач сотрудников крупных компаний заключается в приведении информации в удобный для машины вид (например, когда мы заполняем информацией карточку в 1С или форму на госуслугах - мы по сути этим и занимаемся).
Мне кажется, что ребята из Open AI уже выдали нам естественный способ взаимодействия человека и технологии. Мы говорим / пишем то, что хотим своими словами, а далее ИИ-модель выдает нам результат, при необходимости сама за нас додумывает или у нас же уточняет, что мы имели в виду, а также ходит в сторонние системы и документы, сама уточняет что ей нужно. Это очень похоже на то, как мы взаимодействуем с другим человеком при решении профессиональных задач.
Вот несколько примеров в подтверждение данной мысли (см. картинки / видео):
1. Старина Билл Гейтс в своей статье от ноября 2023 года утверждает, что совсем скоро человек сможет создать собственное мобильное приложение, просто надиктовав свои пожелания боту. Ему не потребуются знания в программировании и графическом дизайне.
2. CRM-система на базе ИИ, которая говорит "Вам больше не нужно заполнять кучу табличек и полей. Просто общайтесь по почте, в зуме, наша система сама переварит всю инфу и все разложит в CRM-системе".
3. Пример сложного ИИ-агента. Пользователь просит бот сгенерировать ключевые идеи CRM-системы за август. Агент сам разбивает запрос на задачи, обращается к разным системам, рисует дашборд, делает текстовое описание и все это за доли секунды.
4. Вместе со слушателем программы МБА МГИМО мы за несколько секунд обучили продвинутого голосового ассистента Open AI быть продавцом в магазине товаров для организации детских праздников и он выдал результат на уровне хорошего сейла-человека.
В процессе работы с голосовым ассистентом Open AI пришел к осознанию, что через лет 5 будет вполне нормально, позвонив в банк, сказать "Соедините меня с роботом", потому что робот будет:
- уметь подстраиваться под удобный для меня тон коммуникации, а для моей бабушки тон и скорость речи будут другими;
- гораздо лучше человека знать базу знаний и выдавать ответы быстрее и без "подождите несколько минут, мне нужно проверить информацию".
Сейчас это кажется не реальным, потому что мы все устали от "тупых" голосовых ассистентов, но все может очень скоро измениться 🤓
На прошлой неделе проводил лекцию для слушателей MBA МГИМО. В ходе подготовки к лекции пришел к интересному наблюдению: как будто с появлением современного ИИ происходит большой переход к новому стандарту взаимодействия человека и машины.
Как выглядит данная эволюция:
1. Код. Всё началось с взаимодействия через программный код. Разработчики писали запросы, ЭВМ что-то делала по алгоритму;
2. Графический интерфейс. Далее, Стив Джобс подрезал у Xerox и подарил миру графический интерфейс, к которому мы привыкли: есть рабочий стол и мы мышкой водим, по клавиатуре клацаем, что-то происходит.
3. Мультитач. Потом те же ребята из Apple придумали мультитач - экран смартфона с операционной системой, адаптированной под управление пальцами (например, поэтому иконки на наших телефонах большие, чтобы удобно пальцем попадать).
4. Голосовые помощники. Отдельно можно отметить голосовых ассистентов (Siri, Алиса) - они научились переводить голос в команду и активировать нужный алгоритм. Сюда же мы относим всех голосовых роботов, которые появились на линиях поддержки. Наверное, нет человека, которого бы они не бесили.
Но все эти способы взаимодействия человека и машины объединяет один принцип - все они предполагают, что человек должен активировать конкретный алгоритм машины и человек должен подстраиваться под машину, а не наоборот. Например, если Алисе недостаточно четко сформулировать запрос, она не поймет что нужно. А половина задач сотрудников крупных компаний заключается в приведении информации в удобный для машины вид (например, когда мы заполняем информацией карточку в 1С или форму на госуслугах - мы по сути этим и занимаемся).
Мне кажется, что ребята из Open AI уже выдали нам естественный способ взаимодействия человека и технологии. Мы говорим / пишем то, что хотим своими словами, а далее ИИ-модель выдает нам результат, при необходимости сама за нас додумывает или у нас же уточняет, что мы имели в виду, а также ходит в сторонние системы и документы, сама уточняет что ей нужно. Это очень похоже на то, как мы взаимодействуем с другим человеком при решении профессиональных задач.
Вот несколько примеров в подтверждение данной мысли (см. картинки / видео):
1. Старина Билл Гейтс в своей статье от ноября 2023 года утверждает, что совсем скоро человек сможет создать собственное мобильное приложение, просто надиктовав свои пожелания боту. Ему не потребуются знания в программировании и графическом дизайне.
2. CRM-система на базе ИИ, которая говорит "Вам больше не нужно заполнять кучу табличек и полей. Просто общайтесь по почте, в зуме, наша система сама переварит всю инфу и все разложит в CRM-системе".
3. Пример сложного ИИ-агента. Пользователь просит бот сгенерировать ключевые идеи CRM-системы за август. Агент сам разбивает запрос на задачи, обращается к разным системам, рисует дашборд, делает текстовое описание и все это за доли секунды.
4. Вместе со слушателем программы МБА МГИМО мы за несколько секунд обучили продвинутого голосового ассистента Open AI быть продавцом в магазине товаров для организации детских праздников и он выдал результат на уровне хорошего сейла-человека.
В процессе работы с голосовым ассистентом Open AI пришел к осознанию, что через лет 5 будет вполне нормально, позвонив в банк, сказать "Соедините меня с роботом", потому что робот будет:
- уметь подстраиваться под удобный для меня тон коммуникации, а для моей бабушки тон и скорость речи будут другими;
- гораздо лучше человека знать базу знаний и выдавать ответы быстрее и без "подождите несколько минут, мне нужно проверить информацию".
Сейчас это кажется не реальным, потому что мы все устали от "тупых" голосовых ассистентов, но все может очень скоро измениться 🤓
tgoop.com/egoshin_kedprof/215
Create:
Last Update:
Last Update:
Переход к естественному взаимодействию человека и технологий
На прошлой неделе проводил лекцию для слушателей MBA МГИМО. В ходе подготовки к лекции пришел к интересному наблюдению: как будто с появлением современного ИИ происходит большой переход к новому стандарту взаимодействия человека и машины.
Как выглядит данная эволюция:
1. Код. Всё началось с взаимодействия через программный код. Разработчики писали запросы, ЭВМ что-то делала по алгоритму;
2. Графический интерфейс. Далее, Стив Джобс подрезал у Xerox и подарил миру графический интерфейс, к которому мы привыкли: есть рабочий стол и мы мышкой водим, по клавиатуре клацаем, что-то происходит.
3. Мультитач. Потом те же ребята из Apple придумали мультитач - экран смартфона с операционной системой, адаптированной под управление пальцами (например, поэтому иконки на наших телефонах большие, чтобы удобно пальцем попадать).
4. Голосовые помощники. Отдельно можно отметить голосовых ассистентов (Siri, Алиса) - они научились переводить голос в команду и активировать нужный алгоритм. Сюда же мы относим всех голосовых роботов, которые появились на линиях поддержки. Наверное, нет человека, которого бы они не бесили.
Но все эти способы взаимодействия человека и машины объединяет один принцип - все они предполагают, что человек должен активировать конкретный алгоритм машины и человек должен подстраиваться под машину, а не наоборот. Например, если Алисе недостаточно четко сформулировать запрос, она не поймет что нужно. А половина задач сотрудников крупных компаний заключается в приведении информации в удобный для машины вид (например, когда мы заполняем информацией карточку в 1С или форму на госуслугах - мы по сути этим и занимаемся).
Мне кажется, что ребята из Open AI уже выдали нам естественный способ взаимодействия человека и технологии. Мы говорим / пишем то, что хотим своими словами, а далее ИИ-модель выдает нам результат, при необходимости сама за нас додумывает или у нас же уточняет, что мы имели в виду, а также ходит в сторонние системы и документы, сама уточняет что ей нужно. Это очень похоже на то, как мы взаимодействуем с другим человеком при решении профессиональных задач.
Вот несколько примеров в подтверждение данной мысли (см. картинки / видео):
1. Старина Билл Гейтс в своей статье от ноября 2023 года утверждает, что совсем скоро человек сможет создать собственное мобильное приложение, просто надиктовав свои пожелания боту. Ему не потребуются знания в программировании и графическом дизайне.
2. CRM-система на базе ИИ, которая говорит "Вам больше не нужно заполнять кучу табличек и полей. Просто общайтесь по почте, в зуме, наша система сама переварит всю инфу и все разложит в CRM-системе".
3. Пример сложного ИИ-агента. Пользователь просит бот сгенерировать ключевые идеи CRM-системы за август. Агент сам разбивает запрос на задачи, обращается к разным системам, рисует дашборд, делает текстовое описание и все это за доли секунды.
4. Вместе со слушателем программы МБА МГИМО мы за несколько секунд обучили продвинутого голосового ассистента Open AI быть продавцом в магазине товаров для организации детских праздников и он выдал результат на уровне хорошего сейла-человека.
В процессе работы с голосовым ассистентом Open AI пришел к осознанию, что через лет 5 будет вполне нормально, позвонив в банк, сказать "Соедините меня с роботом", потому что робот будет:
- уметь подстраиваться под удобный для меня тон коммуникации, а для моей бабушки тон и скорость речи будут другими;
- гораздо лучше человека знать базу знаний и выдавать ответы быстрее и без "подождите несколько минут, мне нужно проверить информацию".
Сейчас это кажется не реальным, потому что мы все устали от "тупых" голосовых ассистентов, но все может очень скоро измениться 🤓
На прошлой неделе проводил лекцию для слушателей MBA МГИМО. В ходе подготовки к лекции пришел к интересному наблюдению: как будто с появлением современного ИИ происходит большой переход к новому стандарту взаимодействия человека и машины.
Как выглядит данная эволюция:
1. Код. Всё началось с взаимодействия через программный код. Разработчики писали запросы, ЭВМ что-то делала по алгоритму;
2. Графический интерфейс. Далее, Стив Джобс подрезал у Xerox и подарил миру графический интерфейс, к которому мы привыкли: есть рабочий стол и мы мышкой водим, по клавиатуре клацаем, что-то происходит.
3. Мультитач. Потом те же ребята из Apple придумали мультитач - экран смартфона с операционной системой, адаптированной под управление пальцами (например, поэтому иконки на наших телефонах большие, чтобы удобно пальцем попадать).
4. Голосовые помощники. Отдельно можно отметить голосовых ассистентов (Siri, Алиса) - они научились переводить голос в команду и активировать нужный алгоритм. Сюда же мы относим всех голосовых роботов, которые появились на линиях поддержки. Наверное, нет человека, которого бы они не бесили.
Но все эти способы взаимодействия человека и машины объединяет один принцип - все они предполагают, что человек должен активировать конкретный алгоритм машины и человек должен подстраиваться под машину, а не наоборот. Например, если Алисе недостаточно четко сформулировать запрос, она не поймет что нужно. А половина задач сотрудников крупных компаний заключается в приведении информации в удобный для машины вид (например, когда мы заполняем информацией карточку в 1С или форму на госуслугах - мы по сути этим и занимаемся).
Мне кажется, что ребята из Open AI уже выдали нам естественный способ взаимодействия человека и технологии. Мы говорим / пишем то, что хотим своими словами, а далее ИИ-модель выдает нам результат, при необходимости сама за нас додумывает или у нас же уточняет, что мы имели в виду, а также ходит в сторонние системы и документы, сама уточняет что ей нужно. Это очень похоже на то, как мы взаимодействуем с другим человеком при решении профессиональных задач.
Вот несколько примеров в подтверждение данной мысли (см. картинки / видео):
1. Старина Билл Гейтс в своей статье от ноября 2023 года утверждает, что совсем скоро человек сможет создать собственное мобильное приложение, просто надиктовав свои пожелания боту. Ему не потребуются знания в программировании и графическом дизайне.
2. CRM-система на базе ИИ, которая говорит "Вам больше не нужно заполнять кучу табличек и полей. Просто общайтесь по почте, в зуме, наша система сама переварит всю инфу и все разложит в CRM-системе".
3. Пример сложного ИИ-агента. Пользователь просит бот сгенерировать ключевые идеи CRM-системы за август. Агент сам разбивает запрос на задачи, обращается к разным системам, рисует дашборд, делает текстовое описание и все это за доли секунды.
4. Вместе со слушателем программы МБА МГИМО мы за несколько секунд обучили продвинутого голосового ассистента Open AI быть продавцом в магазине товаров для организации детских праздников и он выдал результат на уровне хорошего сейла-человека.
В процессе работы с голосовым ассистентом Open AI пришел к осознанию, что через лет 5 будет вполне нормально, позвонив в банк, сказать "Соедините меня с роботом", потому что робот будет:
- уметь подстраиваться под удобный для меня тон коммуникации, а для моей бабушки тон и скорость речи будут другими;
- гораздо лучше человека знать базу знаний и выдавать ответы быстрее и без "подождите несколько минут, мне нужно проверить информацию".
Сейчас это кажется не реальным, потому что мы все устали от "тупых" голосовых ассистентов, но все может очень скоро измениться 🤓
BY Егошин | Кеды профессора
Share with your friend now:
tgoop.com/egoshin_kedprof/215