
В своей недавней статье Тануша Тьяги, научный сотрудник Центра цифровых обществ при Observer Research Foundation, поднимает один из самых сложных вопросов цифровой эпохи – как заставить искусственный интеллект «забыть» человека. В то время как Индия вводит новые законы о защите данных, техническая реальность работы ИИ ставит под сомнение саму возможность полного удаления информации, заставляя юристов и разработчиков искать принципиально новые подходы к конфиденциальности.
Право на забвение – концепция, рожденная в Европе, – дает людям возможность контролировать свои персональные данные и не быть вечно привязанными к своему прошлому. Наиболее известным прецедентом стало дело Google Spain v. González, после которого поисковые системы обязали удалять ссылки на устаревшую или неактуальную информацию по запросу пользователей. Позже этот принцип был закреплен в статье 17 Общего регламента по защите данных ЕС (GDPR), превратив «стирание» данных в юридически закрепленное право.
Индия последовала этому примеру, приняв в 2023 году Закон о защите цифровых персональных данных (DPDP). Документ предоставляет гражданам право требовать удаления своих данных, если они больше не нужны для первоначальных целей или если было отозвано согласие на их обработку. На бумаге все выглядит просто и ясно. Однако применение этой нормы к системам искусственного интеллекта вскрывает огромный разрыв между законодательными ожиданиями и техническими возможностями.
Проблема в том, что ИИ не «хранит» данные в традиционном понимании, как файлы на жестком диске. Он «учится» на них, усваивая закономерности и встраивая их в свою внутреннюю структуру. Даже после удаления исходного набора данных влияние этой информации может сохраняться в поведении модели, позволяя косвенно восстановить или сделать выводы о личной информации. Таким образом, простое удаление перестает быть решением, и возникает необходимость переосмыслить само понятие «стирания» в эпоху ИИ.
На стыке права и технологий появляется новая концепция – «машинное разучивание». Это процесс, позволяющий избирательно «забывать» определенные точки данных уже обученной моделью. Существует два основных подхода. Первый – «точное разучивание» – предполагает полное удаление данных и переобучение модели с нуля. Хотя этот метод юридически безупречен, он абсолютно непрактичен для крупных систем, таких как большие языковые модели. Их переобучение требует огромных вычислительных мощностей, наносит вред окружающей среде и является непомерно дорогим. Требование применять такой метод сделало бы использование ИИ практически невозможным.
Второй подход – «приблизительное разучивание», при котором алгоритмы корректируют внутренние параметры модели, чтобы уменьшить влияние удаляемых данных. Этот метод более реалистичен, но не дает стопроцентной гарантии забвения. Он лишь снижает вероятность того, что модель будет воспроизводить информацию или полагаться на нее. Это ставит перед регуляторами сложный выбор: требовать технического совершенства, рискуя затормозить инновации, или согласиться на «разумную эффективность»?
Индия, стремящаяся стать одним из лидеров в области ИИ, может предложить миру прагматичный подход. Вместо буквального «стирания» данных можно перейти к концепции «функционального стирания». Это означает, что фокус смещается с полного удаления математического следа информации на обеспечение того, чтобы данные больше не влияли на решения, принимаемые системой в отношении конкретного человека. Модели должны быть скорректированы так, чтобы предотвратить извлечение этих данных, а сами данные – удалены из обучающих наборов.
Мир стоит на пороге новой реальности, где память машин отличается от человеческой. Право на забвение, созданное для мира, где информацию можно было просто удалить, требует адаптации. Задача Индии и других стран состоит не в том, чтобы заставить машины забывать идеально, а в том, чтобы они перестали помнить так, как это имеет значение для защиты частной жизни человека, не ставя крест на технологическом прогрессе.