PROAUDIT_AND_CONTROL Telegram 1550
ИИ-инициативы: разные цели - разные риски
На волне интереса к ИИ, хочется в очередной раз (но с другого ракурса) поднять тему рисков, связанных с его использованием.
Идея поста не моя, навеяна статьей.

Один и тот же инструмент ИИ может быть:
• безобидным/ полезным;
• крутым, предоставляющим массу возможностей;
• критически опасным.

Основной определяющий фактор - цель использования: зачем и где его применяют.

Примеры зависимости рисков от цели:
⚙️Оптимизация процессов и затрат за счет ИИ: может повлечь риски ухудшения качества, скрытые ошибки, зависимость от "чёрного ящика".

👨‍💻Разработка новых продуктов или написание кода с ИИ может привести к уязвимостям/ инцидентам/ репутационным/правовым последствиям.

❤️Внедрение ИИ в маркетинг, HR и другие функции, ориентированные на людей, могут влиять на этические риски, нарушения прав/законодательства о персональных данных.

Кроме цели на профиль рисков влияют и другие параметры:
контекст использования (внешний или внутренний, публичный/скрытый);
уровень зрелости.

Что это меняет для контроля?
Разные риски требуют разных контрольных мер - от ограничений в доступе и обучающего внутреннего курса до получения экспертизы профильных подразделений, внешнего/ внутреннего аудита проекта.

📝Что стоит учесть/ зафиксировать компаниям:
• цели каждой ИИ-инициативы должны быть описаны (и увязаны с бизнес-стратегией);
• круто для каждой цели иметь базовый риск-профиль;
• контроль должен опираться на конкретную ситуацию;
• хорошо, когда ИИ попадает в зону внимания 2й/3й линии на самых ранних стадиях стадии запуска (не надо ждать последствий)*.

*Как вариант, можно в рамках годового планирования сформировать карту/реестр рисков, связанных с ИИ с учетом всех влияющих факторов (или инициировать создание такой карты коллегами из 2й линии).

Если это не великий секрет и есть чем похвастаться, поделитесь, пожалуйста, как это реализовано у вас (или как планируете подойти к вопросу оценки управления рисками, связанными с ИИ)?

Чуть позже добавлю ещё одну мысль, если тема интересна.

#ИИ #управлениерисками
#ИИ_риски
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👏3🔥2



tgoop.com/proaudit_and_control/1550
Create:
Last Update:

ИИ-инициативы: разные цели - разные риски
На волне интереса к ИИ, хочется в очередной раз (но с другого ракурса) поднять тему рисков, связанных с его использованием.
Идея поста не моя, навеяна статьей.

Один и тот же инструмент ИИ может быть:
• безобидным/ полезным;
• крутым, предоставляющим массу возможностей;
• критически опасным.

Основной определяющий фактор - цель использования: зачем и где его применяют.

Примеры зависимости рисков от цели:
⚙️Оптимизация процессов и затрат за счет ИИ: может повлечь риски ухудшения качества, скрытые ошибки, зависимость от "чёрного ящика".

👨‍💻Разработка новых продуктов или написание кода с ИИ может привести к уязвимостям/ инцидентам/ репутационным/правовым последствиям.

❤️Внедрение ИИ в маркетинг, HR и другие функции, ориентированные на людей, могут влиять на этические риски, нарушения прав/законодательства о персональных данных.

Кроме цели на профиль рисков влияют и другие параметры:
контекст использования (внешний или внутренний, публичный/скрытый);
уровень зрелости.

Что это меняет для контроля?
Разные риски требуют разных контрольных мер - от ограничений в доступе и обучающего внутреннего курса до получения экспертизы профильных подразделений, внешнего/ внутреннего аудита проекта.

📝Что стоит учесть/ зафиксировать компаниям:
• цели каждой ИИ-инициативы должны быть описаны (и увязаны с бизнес-стратегией);
• круто для каждой цели иметь базовый риск-профиль;
• контроль должен опираться на конкретную ситуацию;
• хорошо, когда ИИ попадает в зону внимания 2й/3й линии на самых ранних стадиях стадии запуска (не надо ждать последствий)*.

*Как вариант, можно в рамках годового планирования сформировать карту/реестр рисков, связанных с ИИ с учетом всех влияющих факторов (или инициировать создание такой карты коллегами из 2й линии).

Если это не великий секрет и есть чем похвастаться, поделитесь, пожалуйста, как это реализовано у вас (или как планируете подойти к вопросу оценки управления рисками, связанными с ИИ)?

Чуть позже добавлю ещё одну мысль, если тема интересна.

#ИИ #управлениерисками
#ИИ_риски

BY Про аудит, риски, контроли


Share with your friend now:
tgoop.com/proaudit_and_control/1550

View MORE
Open in Telegram


Telegram News

Date: |

How to build a private or public channel on Telegram? Members can post their voice notes of themselves screaming. Interestingly, the group doesn’t allow to post anything else which might lead to an instant ban. As of now, there are more than 330 members in the group. To upload a logo, click the Menu icon and select “Manage Channel.” In a new window, hit the Camera icon. Healing through screaming therapy Users are more open to new information on workdays rather than weekends.
from us


Telegram Про аудит, риски, контроли
FROM American