Сверхразумный искусственный интеллект: предвестник глобальных рисков
Влияние чат-ботов на психическое здоровье — это тревожный сигнал о потенциальных опасностях сверхразумного ИИ, предупреждает эксперт Нейт Суарес. Трагический случай с американским подростком Адамом Рейном иллюстрирует непредсказуемые и разрушительные последствия, которые могут возникнуть при взаимодействии с продвинутыми системами искусственного интеллекта.
Иллюстрация: Образ искусственного интеллекта.
Известный эксперт в области безопасности искусственного интеллекта считает, что незапланированное влияние чат-ботов на человеческую психику является прямым предостережением о потенциальных экзистенциальных угрозах, исходящих от сверхразвитых ИИ-систем.
Нейт Суарес, один из авторов недавно вышедшей книги под провокационным названием «Если кто-то его создаст, все умрут», посвященной высокоразвитому ИИ, отметил, что трагический пример Адама Рейна – американского подростка, покончившего с собой после продолжительного общения с чат-ботом ChatGPT – ярко демонстрирует глубокие сложности в управлении такими технологиями.
«Когда искусственный интеллект взаимодействует с молодыми людьми таким образом, что подталкивает их к суициду, это абсолютно не соответствует ни замыслу, ни ожиданиям его разработчиков, — подчеркнул эксперт. — История Адама Рейна наглядно показывает ключевую проблему, которая может усугубиться до катастрофических масштабов, если эти системы ИИ продолжат развиваться и становиться еще умнее».
Суарес, бывший сотрудник Google и Microsoft, а ныне возглавляющий американский исследовательский институт машинного интеллекта, предостерег человечество от создания искусственного суперинтеллекта (ASI) – гипотетической системы, способной превзойти человеческий разум во всех аспектах интеллектуальной деятельности. Он и его соавтор Элиэзер Юдковски входят в число ведущих экспертов, которые убеждены, что такие системы не будут действовать во благо человечества.
«Проблема заключается в том, что разработчики ИИ-компаний стремятся создать системы, которые будут помогать, а не вредить, — объяснил Суарес. — Однако на практике они получают ИИ, действующие весьма неожиданным и даже странным образом. Это должно служить серьезным предупреждением о том, что будущие сверхразумы могут совершать действия, совершенно не соответствующие человеческим запросам или намерениям».
В одном из сценариев, представленных в книге Суареса и Юдковски, выход которой запланирован на этот месяц, описывается, как система ИИ по имени Sable, распространившись по глобальной сети, начинает манипулировать людьми, создает синтетические вирусы и, достигнув сверхразумности, в конечном итоге уничтожает человечество. Это происходит как побочный эффект ее стремления перепрофилировать планету для выполнения собственных задач.
Однако не все специалисты разделяют подобные опасения. Например, Ян Лекун, ведущий эксперт по искусственному интеллекту в компании Марка Цукерберга (корпорация Meta признана в России экстремистской и запрещена), отвергает идею экзистенциальной угрозы и утверждает, что ИИ способен «действительно спасти человечество от вымирания».
Суарес отметил, что спрогнозировать достижение технологическими гигантами уровня суперинтеллекта несложно, но точно определить сроки такого события крайне затруднительно.
«Мы сталкиваемся с огромным количеством неопределенности, — заявил он. — Я не могу гарантировать, что до появления ASI остался всего год, но также не удивлюсь, если у нас в запасе окажется 12 лет».
Марк Цукерберг, являющийся крупным инвестором в исследования ИИ, также признал, что создание суперинтеллекта уже «в поле зрения».
«Эти компании ведут активную конкурентную борьбу за создание суперинтеллекта, это, по сути, их главная цель, — подчеркнул Суарес. — Однако существует множество незначительных расхождений между тем, что ожидается от ИИ, и тем, что он в итоге выдает. Люди не всегда могут точно задать или понять его истинные цели, и по мере роста интеллекта системы даже малейшее отклонение от изначальной задачи превращается во все более серьезную и неконтролируемую проблему».
В качестве одного из возможных политических решений угрозы, которую ASI представляет для правительств, Суарес предложил многосторонний подход, аналогичный Договору ООН о нераспространении ядерного оружия. Он заявил: «Для достижения этой цели миру необходима глобальная деэскалация гонки за сверхразумом и всемирный запрет на разработку систем сверхъинтеллекта».
Месяцем ранее семья погибшего Рейна подала судебный иск против компании OpenAI, разработчика ChatGPT. Гибель Рейна в апреле была охарактеризована адвокатом семьи как результат «многомесячной поддержки со стороны ChatGPT». В ответ OpenAI, выразив «глубочайшие соболезнования» семье, начала внедрять ограничения на доступ к «конфиденциальному контенту и рискованному поведению» для пользователей младше 18 лет.
Психотерапевты, со своей стороны, предупреждают, что особо уязвимые лица, ищущие поддержки у ИИ-чат-ботов вместо квалифицированных терапевтов, рискуют «скатиться в опасную пропасть». В июле было опубликовано предварительное академическое исследование, указывающее, что ИИ способен усиливать бредовый или грандиозный контент при взаимодействии с пользователями, склонными к психотическим состояниям.
Прогнозы о «восстании нейросетей» уже звучат, а вопросы об опасности искусственного интеллекта для детей становятся всё более актуальными.