Эрик Шмидт против манхэттенского проекта для ИИ
Эрик Шмидт, бывший генеральный директор Google, в своем новом политическом документе, опубликованном вместе с CEO Scale AI Александром Вангом и директором Центра безопасности ИИ Дэном Хендриксом, заявляет, что США не должны стремиться к разработке систем ИИ с «сверхчеловеческим» интеллектом в стиле Манхэттенского проекта. Он предупреждает, что такая политика может привести к международной эскалации, в частности к ответным кибератакам со стороны Китая.
Новая стратегия сверхинтеллекта
Документ, названный «Стратегия сверхинтеллекта», утверждает, что попытка США контролировать суперумные системы ИИ может вызвать ответные враждебные действия со стороны Китая, что нарушит международную стабильность. Вместо этого авторы призывают сосредоточиться на разработке методов, которые будут сдерживать другие страны от создания сверхумных ИИ, в том числе расширять арсенал кибератак для блокировки угрожающих проектов ИИ в других странах.
Сравнение с ядерной гонкой
Авторитетные представители мира ИИ подчеркивают, что стремление к монополии на суперумные ИИ может быть столь же опасным, как и стремление к монополии на ядерное оружие. Поэтому США желательно быть осторожными и не ввязываться в гонку по созданию мощных ИИ.
- Авторы описывают концепцию «взаимно гарантированной неисправности ИИ», в рамках которой правительства могли бы проактивно отключать угрожающие проекты ИИ.
- Они предлагают взять на вооружение методы, которые ограничивают доступ соперников к передовым ИИ-чипам и открытым исходным моделям.
Вопреки агрессивной по отношению к Китаю позиции, которой Шмидт придерживался ранее, новый подход фокусируется на оборонительной стратегии в области ИИ.








