Цифровой геноцид ревью: Что нового в UX? Гонзо-новости UX и HCI статей
Давно не было, поэтому немного кратко.
AdaptoML-UX: An Adaptive User-centered GUI-based AutoML Toolkit for Non-AI Experts and HCI Researchers - попытка создать конструктор машинного обучения не для дата-сцайнтистов, а для обычных UX-исследователей и рядовых исполнителей. Непонятно, чем так уж лучше других аналогов, https://github.com/MichaelSargious/AdaptoML_UX но интерфейс есть. Загружаешь эксельку, крутишь нажатиями кнопок, получаешь деревья и т.д. https://arxiv.org/abs/2410.17469
Towards Human-centered Design of Explainable Artificial Intelligence (XAI): A Survey of Empirical Studies. На пути к проектированию объяснимого искусственного интеллекта (XAI), ориентированного на человека: обзор эмпирических исследований - хорошая подборка как должны выглядеть объяснения ИИ и как они могут выглядеть. Я так понимаю, что это в основном про раздел “Почему я это вижу” или “Почему я получил такой ответ” о рексистемах и об ответах ЛЛМ
Статистические, интерактивные объяснения, на основании распределения оценок фичи, комплексные объяснения и тд и тп.
Из интересного - изучается дизайн и формы визуальные, например, есть модалка. которая ОБЯЗАТЕЛЬНО предупреждает о точности прогноза ML - эдакая защита от дурака.
Будет интересно для продактов работающих с рекомендательными системами
https://arxiv.org/html/2410.21183v1
Пишем код рисуя. Sketch2Code: Evaluating Vision-Language Models for Interactive Web Design Prototyping. Sketch2Code, бенчмарк, который оценивает современные модели языка Vision (VLM) для автоматизации преобразования элементарных эскизов в прототипы веб-страниц. Отличается от Фигмы - это низкоуровневые прототипы, которые не просто генерятся, но еще и генерят хтмл-код.
https://arxiv.org/html/2410.16232
Звучит как какой-то отдельный инструмент или режим до того, как начинать собирать детализированный прототип в фигме
Давно не было, поэтому немного кратко.
AdaptoML-UX: An Adaptive User-centered GUI-based AutoML Toolkit for Non-AI Experts and HCI Researchers - попытка создать конструктор машинного обучения не для дата-сцайнтистов, а для обычных UX-исследователей и рядовых исполнителей. Непонятно, чем так уж лучше других аналогов, https://github.com/MichaelSargious/AdaptoML_UX но интерфейс есть. Загружаешь эксельку, крутишь нажатиями кнопок, получаешь деревья и т.д. https://arxiv.org/abs/2410.17469
Towards Human-centered Design of Explainable Artificial Intelligence (XAI): A Survey of Empirical Studies. На пути к проектированию объяснимого искусственного интеллекта (XAI), ориентированного на человека: обзор эмпирических исследований - хорошая подборка как должны выглядеть объяснения ИИ и как они могут выглядеть. Я так понимаю, что это в основном про раздел “Почему я это вижу” или “Почему я получил такой ответ” о рексистемах и об ответах ЛЛМ
Статистические, интерактивные объяснения, на основании распределения оценок фичи, комплексные объяснения и тд и тп.
Из интересного - изучается дизайн и формы визуальные, например, есть модалка. которая ОБЯЗАТЕЛЬНО предупреждает о точности прогноза ML - эдакая защита от дурака.
Будет интересно для продактов работающих с рекомендательными системами
https://arxiv.org/html/2410.21183v1
Пишем код рисуя. Sketch2Code: Evaluating Vision-Language Models for Interactive Web Design Prototyping. Sketch2Code, бенчмарк, который оценивает современные модели языка Vision (VLM) для автоматизации преобразования элементарных эскизов в прототипы веб-страниц. Отличается от Фигмы - это низкоуровневые прототипы, которые не просто генерятся, но еще и генерят хтмл-код.
https://arxiv.org/html/2410.16232
Звучит как какой-то отдельный инструмент или режим до того, как начинать собирать детализированный прототип в фигме
tgoop.com/gulagdigital/2961
Create:
Last Update:
Last Update:
Цифровой геноцид ревью: Что нового в UX? Гонзо-новости UX и HCI статей
Давно не было, поэтому немного кратко.
AdaptoML-UX: An Adaptive User-centered GUI-based AutoML Toolkit for Non-AI Experts and HCI Researchers - попытка создать конструктор машинного обучения не для дата-сцайнтистов, а для обычных UX-исследователей и рядовых исполнителей. Непонятно, чем так уж лучше других аналогов, https://github.com/MichaelSargious/AdaptoML_UX но интерфейс есть. Загружаешь эксельку, крутишь нажатиями кнопок, получаешь деревья и т.д. https://arxiv.org/abs/2410.17469
Towards Human-centered Design of Explainable Artificial Intelligence (XAI): A Survey of Empirical Studies. На пути к проектированию объяснимого искусственного интеллекта (XAI), ориентированного на человека: обзор эмпирических исследований - хорошая подборка как должны выглядеть объяснения ИИ и как они могут выглядеть. Я так понимаю, что это в основном про раздел “Почему я это вижу” или “Почему я получил такой ответ” о рексистемах и об ответах ЛЛМ
Статистические, интерактивные объяснения, на основании распределения оценок фичи, комплексные объяснения и тд и тп.
Из интересного - изучается дизайн и формы визуальные, например, есть модалка. которая ОБЯЗАТЕЛЬНО предупреждает о точности прогноза ML - эдакая защита от дурака.
Будет интересно для продактов работающих с рекомендательными системами
https://arxiv.org/html/2410.21183v1
Пишем код рисуя. Sketch2Code: Evaluating Vision-Language Models for Interactive Web Design Prototyping. Sketch2Code, бенчмарк, который оценивает современные модели языка Vision (VLM) для автоматизации преобразования элементарных эскизов в прототипы веб-страниц. Отличается от Фигмы - это низкоуровневые прототипы, которые не просто генерятся, но еще и генерят хтмл-код.
https://arxiv.org/html/2410.16232
Звучит как какой-то отдельный инструмент или режим до того, как начинать собирать детализированный прототип в фигме
Давно не было, поэтому немного кратко.
AdaptoML-UX: An Adaptive User-centered GUI-based AutoML Toolkit for Non-AI Experts and HCI Researchers - попытка создать конструктор машинного обучения не для дата-сцайнтистов, а для обычных UX-исследователей и рядовых исполнителей. Непонятно, чем так уж лучше других аналогов, https://github.com/MichaelSargious/AdaptoML_UX но интерфейс есть. Загружаешь эксельку, крутишь нажатиями кнопок, получаешь деревья и т.д. https://arxiv.org/abs/2410.17469
Towards Human-centered Design of Explainable Artificial Intelligence (XAI): A Survey of Empirical Studies. На пути к проектированию объяснимого искусственного интеллекта (XAI), ориентированного на человека: обзор эмпирических исследований - хорошая подборка как должны выглядеть объяснения ИИ и как они могут выглядеть. Я так понимаю, что это в основном про раздел “Почему я это вижу” или “Почему я получил такой ответ” о рексистемах и об ответах ЛЛМ
Статистические, интерактивные объяснения, на основании распределения оценок фичи, комплексные объяснения и тд и тп.
Из интересного - изучается дизайн и формы визуальные, например, есть модалка. которая ОБЯЗАТЕЛЬНО предупреждает о точности прогноза ML - эдакая защита от дурака.
Будет интересно для продактов работающих с рекомендательными системами
https://arxiv.org/html/2410.21183v1
Пишем код рисуя. Sketch2Code: Evaluating Vision-Language Models for Interactive Web Design Prototyping. Sketch2Code, бенчмарк, который оценивает современные модели языка Vision (VLM) для автоматизации преобразования элементарных эскизов в прототипы веб-страниц. Отличается от Фигмы - это низкоуровневые прототипы, которые не просто генерятся, но еще и генерят хтмл-код.
https://arxiv.org/html/2410.16232
Звучит как какой-то отдельный инструмент или режим до того, как начинать собирать детализированный прототип в фигме
BY Цифровой геноцид
Share with your friend now:
tgoop.com/gulagdigital/2961