Суть услуги
ИИ — это новое поле, правовая база ещё активно развивается. Разные страны вводят разные правила. Вчера можно было, сегодня нельзя. Непоследование может привести к штрафам, судам, запретам. Важно знать какие ограничения и требования при использовании ИИ в вашей стране и в вашей отрасли.
Ключевые правовые вопросы:
Почему это важно:
Процесс консультирования - 5 этапов (3-4 недели)
Этап 1: Анализ вашей ситуации (2-3 дня)
Этап 2: Изучение применяемого законодательства (3-4 дня)
Этап 3: Анализ рисков и несоответствий (3-4 дня)
Этап 4: Разработка стратегии соответствия (2-3 дня)
Этап 5: Документирование и подготовка документов (2-3 дня)
Основное законодательство и требования
Федеральное законодательство России:
Требования Банка России (для финансовых учреждений):
Требования для государственных учреждений:
Требования для здравоохранения:
Типичные правовые риски
Риск 1: Использование персональных данных без согласия
Описание: Компания обучила модель на данных клиентов которые не дали согласие на использование их данных.
Последствия: Штраф до 1000000 рублей. Суд. Запрет на использование данных.
Как избежать: Получить явное согласие на использование данных. Документировать согласие. Обеспечить право клиента отозвать согласие.
Риск 2: Дискриминация при принятии решений
Описание: ИИ-система дает разные результаты для разных групп людей (например мужчины получают кредит чаще чем женщины).
Последствия: Штраф. Судебные иски. Репутационный урон. Запрет на систему.
Как избежать: Тестировать систему на справедливость. Убрать дискриминирующие признаки. Документировать как обеспечена справедливость.
Риск 3: Ответственность за ошибку системы
Описание: ИИ-система дала неправильный результат (например неправильный диагноз) и произошёл ущерб.
Последствия: Компания может быть подана в суд. Нужно выплатить компенсацию.
Как избежать: Четко определить в контракте что система это только рекомендация. Указать что финальное решение принимает человек. Обеспечить прозрачность системы.
Риск 4: Использование чужих данных для обучения
Описание: Компания обучила модель на данных которые не имеет права использовать (например скопировала с интернета).
Последствия: Иск за нарушение авторских прав. Штраф. Запрет на использование модели.
Как избежать: Использовать только данные которые имеете право использовать. Получить лицензию на данные. Или использовать синтетические данные.
Риск 5: Утечка конфиденциальных данных из системы
Описание: Конфиденциальные данные которые использовались при обучении вытащили из модели.
Последствия: Штраф по закону о защите данных. Судебные иски от клиентов. Репутационный урон.
Как избежать: Использовать differential privacy при обучении. Зашифровать данные. Ограничить доступ к модели.
Примеры из реальной практики
Пример 1: Банк штрафован на 1 млн рублей
Что произошло: Банк использовал ИИ-систему для принятия решений по кредитам. Система дискриминировала женщин — они получали отказ в 25% случаев вместо 10% у мужчин. Регулятор узнал и штрафовал банк.
Чему мы научились: Нужно тестировать систему на справедливость. Нужно документировать что система справедлива.
Пример 2: IT-компания запретили использовать модель
Что произошло: IT-компания разработала модель которая анализирует фотографии людей. Использовала данные которые скачала с интернета без разрешения. Правообладатели подали в суд. Модель был запрещена.
Чему мы научились: Нужно получить разрешение на использование данных. Или использовать данные которые имеешь право использовать.
Пример 3: Государственное учреждение использует ИИ неправильно
Что произошло: Госучреждение использовало ИИ для принятия финальных решений (например распределение жилья). По закону система может только помогать, решение принимает человек.
Чему мы научились: Для государственных систем есть особые требования. Нужно строго их соблюдать.
Пример 4: Компания собрала данные без согласия
Что произошло: Компания обучила модель на данных клиентов которые не дали согласие на использование. Регулятор штрафовал компанию на 500000 рублей.
Чему мы научились: Нужно получить согласие на использование персональных данных. Документировать согласие.
Пример 5: Утечка данных из модели
Что произошло: Исследователи показали что из модели можно вытащить личные данные клиентов. Компания получила репутационный урон и штраф.
Чему мы научились: Нужно защищать конфиденциальность данных. Использовать differential privacy.
Что получает клиент
Кому это нужно
Результаты консультирования