Проблемы определения и регулирования ИИ
Ключевые тезисы
- Отсутствует единое определение искусственного интеллекта, что затрудняет его регулирование.
- Генеративный ИИ обладает специфическими проблемами: «чёрный ящик», обучение на непроверенных данных, облачная инфраструктура.
- ИИ создаёт серьёзные риски: снижение интеллектуальных способностей, правовые нарушения, снятие ответственности и возникновение нового класса власти.
Что такое искусственный интеллект?
В настоящее время нет официального определения ИИ, хотя его внедрение активно продвигается. Автор предлагает свою формулировку:
Искусственный интеллект — это набор компьютерных технологий, имитирующих когнитивные функции человека.
ИИ можно разделить на две группы:
Алгоритмический ИИ — работает по заданному алгоритму с предсказуемыми шагами (пример: антивирус).
Самообучающийся ИИ — строится на больших данных и обучается самостоятельно (пример: большие языковые модели).
Особенности и проблемы генеративного ИИ
Генеративный ИИ создаёт («генерирует») что-то самостоятельно, что приводит к ключевым проблемам.
«Чёрный ящик»
Система работает непрозрачно. Разработчик не может точно предсказать, какой ответ выдаст модель. Это невозможно отладить традиционными методами, и на сложные вопросы модель каждый раз может давать немного разные ответы. Эта проблема неотъемлема от генеративного ИИ и не может быть устранена.
Обучение на больших данных
Модели обучаются на огромных массивах данных, содержание которых часто неизвестно и неконтролируемо. Это создаёт риски для безопасности.
Пример: В систему распознавания «доверенных лиц» можно добавить тысячи неизвестных людей, и они также будут получать доступ, что невозможно проверить.
Облачность инфраструктуры
Инфраструктура генеративного ИИ обычно размещена за границей. В России есть лишь одна ограниченная модель (GigaChat). Все остальные запросы и данные утекают за рубеж, где их могут отслеживать, включая спецслужбы.
Кейс: Человек, анализирующий возможные атаки через иностранный ИИ, получал неправильные ответы, а затем на его компьютер начали поступать вирусы. Система «смотрит» на пользователя одновременно с тем, как пользователь смотрит в нее.
Уверенность модели как функция
Модель может объяснить, почему дала тот или иной ответ, но это запрограммированная функция, не означающая, что система действительно «знает» причину. Люди начинают отчеловечивать ИИ, что приводит к ошибкам в восприятии.
Ключевые риски применения ИИ
Снижение интеллектуальных способностей
В образовании массовое использование ИИ студентами для написания работ (по опросам ~87%) приводит к тому, что работодатели не могут оценить реальные знания и навыки выпускников. Это огромный риск для системы образования.
Правовые риски
- Нарушение конституционных прав: ИИ принимает решения относительно человека без должных оснований.
- Ошибки и ложные обвинения: Уже есть случаи, когда системы распознавания ложно идентифицировали людей как преступников, и им приходилось доказывать свою непричастность.
- Использование в судах: Судьи начинают использовать ИИ для написания решений. Были случаи, когда адвокаты пытались оспорить такие решения, но суды отклоняли ходатайства, ссылаясь на свободу судьи в выборе методов.
- Снятие ответственности: Чиновники могут перекладывать ответственность на машину («машина решила»).
Политический риск: возникновение нового класса власти
Реальная власть может перейти к тем, кто контролирует ИИ, а не к тем, кто формально отдает приказы. Эти контроллеры могут принимать решения, противоречащие указаниям начальства.
Борьба с присвоением субъектности ИИ
Существуют опасные «слухи или желания» — предать ИИ субъектность, то есть право самостоятельно принимать решения. Автор и его рабочая группа в рамках разработки закона категорически борются с этой идеей, поскольку это означает, что «электронный болван» будет принимать решения о людях, допуская ошибки. Человека можно спросить и привлечь к ответственности, а ИИ — нет.
Выводы
Генеративный искусственный интеллект — мощная, но проблемная технология с фундаментальными особенностями («чёрный ящик», неконтролируемые данные, облачность). Его внедрение создаёт комплексные риски для образования, права, безопасности и социальной структуры. Ключевая задача регулирования — не допустить присвоения ИИ субъектности и сохранить человеческую ответственность за принимаемые решения.