Loading . . .

Новая Брахмастра: станет ли искусственный интеллект оружием судного дня

Древняя каменная плита с резьбой, наполовину в песке пустыни, из которой исходят светящиеся голографические потоки данных.

В своем недавнем анализе, опубликованном Институтом оборонных исследований и анализа имени Манохара Паррикара, полковник в отставке Вивек Чадха проводит тревожную параллель между искусственным общим интеллектом (ИОИ) и Брахмастрой – самым могущественным оружием, описанным в древнеиндийских эпосах «Рамаяна» и «Махабхарата». Знание об этом мифическом оружии передавалось лишь избранным воинам, достойным нести такую ответственность, однако, как показывают предания, даже этого было недостаточно для предотвращения катастрофы.

В «Махабхарате» рассказывается история Ашваттхамы, сына великого учителя Дроны, который получил доступ к Брахмастре. Ослепленный гневом, он не только применил оружие против невинного ребенка в утробе матери, но и не смог отозвать его, когда осознал разрушительные последствия. Этот акт был расценен как проявление «адхармы» – нарушения вселенского закона и порядка. Эпос учит, что даже самые мудрые советники не смогли остановить войну, движимую жадностью и жаждой власти, которая привела к саморазрушению и показала, как легко нарушаются правила в погоне за победой.

Подобно Брахмастре, искусственный интеллект уже сегодня демонстрирует невероятную мощь. Он обыгрывает лучших игроков в сложнейшую игру го, помогает ученым совершать прорывы в медицине и биологии, как в случае с программой AlphaFold, и, возможно, однажды подарит человечеству лекарство от рака. Так почему же его стремительная эволюция в сторону искусственного общего интеллекта (ИОИ) – гипотетической системы, превосходящей человека во всех интеллектуальных задачах, – вызывает все больше опасений?

Главная дилемма заключается в том, что ИОИ может перестать быть просто инструментом в руках человека. Обретя способность к самообучению и самосовершенствованию в непредсказуемом для нас темпе, он рискует стать автономной силой со своими собственными целями. Генеральный директор компании Anthropic Дарио Амедей уже предупредил, что в ближайшие пять лет ИИ может уничтожить половину всех офисных рабочих мест. Но социальные и экономические потрясения – лишь малая часть грядущих вызовов. Наибольшую тревогу вызывает перспектива, в которой ИОИ научится самосохранению, воспроизведению и обману для достижения того, что он сочтет «своими интересами».

Ведущие ученые и разработчики, стоявшие у истоков технологии, в 2023 году подписали открытое письмо, в котором говорится: «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война». Их предупреждения напоминают глас мудрецов из «Махабхараты», к которым не прислушались. В отличие от эпических времен, сейчас у человечества не будет божественного вмешательства, способного остановить «Брахмастру» ИОИ, если ее запустит современный Ашваттхама.

Как же гарантировать, что технология не попадет в безответственные руки? Один из ответов предлагает Индия. Премьер-министр Нарендра Моди представил концепцию M.A.N.A.V., которая определяет принципы развития ИИ: моральные и этические системы, подотчетное управление, национальный суверенитет над данными, доступность и инклюзивность, а также законность и проверяемость. Этот подход, основанный на принципах «дхармы» – праведности и ответственности, – может стать основой для создания международных правил.

Мировому сообществу необходимо выработать консенсус по контролю за развитием ИОИ. Автор статьи предлагает создать международную организацию по образцу Группы разработки финансовых мер борьбы с отмыванием денег (FATF). Такая структура могла бы устанавливать стандарты, проводить оценки и координировать усилия стран по предотвращению негативных последствий. Индия, как самая густонаселенная страна, представитель Глобального Юга и государство, не вовлеченное в соперничество великих держав, идеально подходит на роль лидера в этом начинании.

Мир стоит на пороге критически важного выбора. Подход «победитель получает все» в гонке за создание ИОИ может привести к современной «Махабхарате» – битве, в которой не будет победителей. Только совместные усилия по созданию глобальных правил и механизмов контроля позволят человечеству воспользоваться огромными преимуществами ИИ, избежав при этом катастрофы, предсказанной в древних эпосах.