Этот конспект не сохранится

Закроешь вкладку — потеряешь. Зарегистрируйся — и он будет в библиотеке навсегда.

Telegram

Ваш конспект

YouTubeЛекция Натальи Касперской в МИЭМ НИУ ВШЭ: "Кибербезопасность и ИИ"

🔍 Проблемы определения и регулирования ИИ

Ключевые тезисы

  • Отсутствует единое определение искусственного интеллекта, что затрудняет его регулирование.
  • Генеративный ИИ обладает специфическими проблемами: «чёрный ящик», обучение на непроверенных данных, облачная инфраструктура.
  • ИИ создаёт серьёзные риски: снижение интеллектуальных способностей, правовые нарушения, снятие ответственности и возникновение нового класса власти.

🎯 Что такое искусственный интеллект?

В настоящее время нет официального определения ИИ, хотя его внедрение активно продвигается. Автор предлагает свою формулировку:
Искусственный интеллект — это набор компьютерных технологий, имитирующих когнитивные функции человека.

ИИ можно разделить на две группы:

  • ✅ Алгоритмический ИИ — работает по заданному алгоритму с предсказуемыми шагами (пример: антивирус).
  • ✅ Самообучающийся ИИ — строится на больших данных и обучается самостоятельно (пример: большие языковые модели).

⚠️ Особенности и проблемы генеративного ИИ

Генеративный ИИ создаёт («генерирует») что-то самостоятельно, что приводит к ключевым проблемам.

🔥 «Чёрный ящик»

Система работает непрозрачно. Разработчик не может точно предсказать, какой ответ выдаст модель. Это невозможно отладить традиционными методами, и на сложные вопросы модель каждый раз может давать немного разные ответы. Эта проблема неотъемлема от генеративного ИИ и не может быть устранена.

📊 Обучение на больших данных

Модели обучаются на огромных массивах данных, содержание которых часто неизвестно и неконтролируемо. Это создаёт риски для безопасности.

Пример: В систему распознавания «доверенных лиц» можно добавить тысячи неизвестных людей, и они также будут получать доступ, что невозможно проверить.

☁️ Облачность инфраструктуры

Инфраструктура генеративного ИИ обычно размещена за границей. В России есть лишь одна ограниченная модель (GigaChat). Все остальные запросы и данные утекают за рубеж, где их могут отслеживать, включая спецслужбы.

Кейс: Человек, анализирующий возможные атаки через иностранный ИИ, получал неправильные ответы, а затем на его компьютер начали поступать вирусы. Система «смотрит» на пользователя одновременно с тем, как пользователь смотрит в нее.

💡 Уверенность модели как функция

Модель может объяснить, почему дала тот или иной ответ, но это запрограммированная функция, не означающая, что система действительно «знает» причину. Люди начинают отчеловечивать ИИ, что приводит к ошибкам в восприятии.

🚨 Ключевые риски применения ИИ

📉 Снижение интеллектуальных способностей

В образовании массовое использование ИИ студентами для написания работ (по опросам ~87%) приводит к тому, что работодатели не могут оценить реальные знания и навыки выпускников. Это огромный риск для системы образования.

⚖️ Правовые риски

  • Нарушение конституционных прав: ИИ принимает решения относительно человека без должных оснований.
  • Ошибки и ложные обвинения: Уже есть случаи, когда системы распознавания ложно идентифицировали людей как преступников, и им приходилось доказывать свою непричастность.
  • Использование в судах: Судьи начинают использовать ИИ для написания решений. Были случаи, когда адвокаты пытались оспорить такие решения, но суды отклоняли ходатайства, ссылаясь на свободу судьи в выборе методов.
  • Снятие ответственности: Чиновники могут перекладывать ответственность на машину («машина решила»).

🏛️ Политический риск: возникновение нового класса власти

Реальная власть может перейти к тем, кто контролирует ИИ, а не к тем, кто формально отдает приказы. Эти контроллеры могут принимать решения, противоречащие указаниям начальства.

🛑 Борьба с присвоением субъектности ИИ

Существуют опасные «слухи или желания» — предать ИИ субъектность, то есть право самостоятельно принимать решения. Автор и его рабочая группа в рамках разработки закона категорически борются с этой идеей, поскольку это означает, что «электронный болван» будет принимать решения о людях, допуская ошибки. Человека можно спросить и привлечь к ответственности, а ИИ — нет.

Выводы
Генеративный искусственный интеллект — мощная, но проблемная технология с фундаментальными особенностями («чёрный ящик», неконтролируемые данные, облачность). Его внедрение создаёт комплексные риски для образования, права, безопасности и социальной структуры. Ключевая задача регулирования — не допустить присвоения ИИ субъектности и сохранить человеческую ответственность за принимаемые решения.

🤖 Проблемы и риски регулирования ИИ — конспект на EchoNote