Иван Филипов
Опубликовано: 08:06, 04 ноябрь 2023
Технологии

В преддверии первого мирового саммита по безопасности ИИ ведущие эксперты опубликовали открытое письмо

https://fra1.digitaloceanspaces.com/gadgets/2023/11/04075655/0%D0%A4%D0%BE%D1%82%D0%BE%D0%AD%D0%BA%D1%81%D0%BF.jpg

В Великобритании 1 и 2 ноября 2023 года прошел первый Международный саммит по безопасности ИИ. В преддверии этого события открытое письмо подписали ведущие эксперты в области искусственного интеллекта со всего мира. В документе, адресованном правительствам стран и международному сообществу, содержится призыв к разработке и ратификации договора о безопасности ИИ. Также там говорится о необходимости создать для этого рабочую группу в рамках Саммита.

Специалисты подчеркивают, что в договоре должно быть сказано о всемирных ограничениях на объем вычислений для обучения какой-либо модели ИИ, а также о создании организации по безопасности ИИ по аналогии с «ЦЕРН», которая займется объединением ресурсов, опыта и знаний в деле безопасности ИИ, а также комиссии по соблюдению договора, роль которой будет аналогична роли Международного агентства по атомной энергии (МАГАТЭ).

Международный договор должен быть создан с целью обеспечить для всех людей доступ к благам ИИ, сократив при этом катастрофические риски, которые представляют для человечества системы искусственного интеллекта. Для этого следует предотвратить бесконтрольное масштабирование возможностей ИИ.

Ученый из Китая Йи Цзэн заметил: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться. Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».

Письмо подписали такие известные личности, как ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер.

Ctrl
Enter
Заметили ошЫбку
Выделите текст и нажмите Ctrl+Enter
Обсудить (0)
Другие материалы рубрики: