По их мнению, создание AGI может спровоцировать ответные меры или саботаж со стороны других стран, стремящихся обладать самыми мощными возможностями ИИ в обороне. Вместо этого Шмидт и Ван предлагают сосредоточиться на методах сдерживания, таких как кибератаки, чтобы вывести из строя опасные проекты ИИ.
Шмидт и Ван верят в потенциал ИИ для общества, например, в разработке лекарств и повышении производительности. Однако правительства рассматривают ИИ как ключевое средство в обороне, и оба эксперта опасаются, что страны вступят в гонку за создание оружия с искусственным интеллектом.
С их точки зрения, важно избежать гонки вооружений, как это было в случае с ядерным оружием. Шмидт и Ван считают, что национальные государства должны сдерживаться в разработке ИИ, чтобы не стать жертвами гонки машин для убийства, управляемых ИИ.
Однако Шмидт и Ван активно развивают ИИ-технологии для оборонного сектора. Компания White Stork разрабатывает технологии для автономных беспилотников, а Scale AI недавно подписала контракт с Министерством обороны США на создание ИИ-агентов для военного планирования и операций.
Эти действия, несмотря на предостережения, подчеркивают сложность ситуации. В конце концов, правительственные и частные компании работают в условиях конфликта интересов, поскольку каждая страна стремится поддерживать свой военно-промышленный комплекс.
Основатель Anduril, Палмер Лаки, утверждает, что точечные удары с помощью ИИ-беспилотников безопаснее, чем ядерные удары или установка мин, так как они минимизируют зону поражения и могут быть более целенаправленными. Его компания уже поставляет Украине беспилотники, которые нацеливаются на российскую технику.
Тем не менее, Шмидт и Ван предостерегают от излишней уверенности в безопасности ИИ. Уже сейчас военные используют беспилотники и ИИ-системы для принятия смертоносных решений, что вызывает этические вопросы. Например, израильская армия недавно использовала неисправные ИИ-системы для принятия решений, что лишь усугубляет риски.
Кроме того, Шмидт и Ван обсуждают опасности так называемого «сверхинтеллекта». Однако многие современные ИИ-модели всё ещё остаются далёкими от истинного сверхразума и часто показывают ошибки, такие как неверные решения или непредсказуемое поведение. Это ставит под сомнение возможность быстрой реализации их видения.
Вместо того чтобы просто предостерегать, Шмидт и Ван предлагают решения, которые, по их мнению, помогут справиться с угрозами ИИ. Они, как и другие лидеры в области технологий, утверждают, что их продукция может служить ответом на вызовы, связанные с безопасностью ИИ.
Однако критики (и в их числе Сэм Альтман из OpenAI) утверждают, что попытки драматизировать риски ИИ могут быть направлены на политическое влияние в Вашингтоне. В этом контексте предложения Шмидта и Ванга могут быть восприняты как попытка продвигать свои технологии, обещая «безопасную версию» ИИ.
Тем не менее, несмотря на предупреждения, США продолжают двигаться в сторону лидерства в области ИИ, а недавние предложения по созданию Манхэттенского проекта ИИ, предложенные Конгрессом, только усиливают эту тенденцию. В этом контексте страны, такие как Китай, могут ответить на угрозу созданием собственных технологий или кибератаками.
Неясно, как мировое сообщество может прийти к согласию по этому вопросу. В таких условиях идеи саботажа и защита от угроз ИИ могут стать важным элементом стратегии.
Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!