Общество

Эксперты призывают создать международные институты и правила для регулирования развития ИИ

4 ноября 2023

Накануне первого мирового саммита, посвященного безопасности ИИ, эксперты, в том числе ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, подписали открытое письмо. В нем содержится призыв к «разработке и ратификации договора о безопасности ИИ, который получит широкое одобрение во всем международном сообществе, созданию рабочей группы на Саммите по безопасности ИИ в Великобритании при широкой международной поддержке для разработки плана для этого.”

Такой международный договор о безопасности ИИ должен включать несколько основных компонентов, в том числе:

●          Всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ.

●          “ЦЕРН” по безопасности ИИ: масштабное совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ.

●          Комиссию по соблюдению договора: она должна отвечать за мониторинг соблюдения договора, ее роль должна быть аналогична роли Международного агентства по атомной энергии (МАГАТЭ).

Целями такого договора являются:

●          Снижение катастрофических рисков, которые системы искусственного интеллекта представляют для человечества, путем предотвращения бесконтрольного масштабирования возможностей искусственного интеллекта.

●          Обеспечение доступа к благам ИИ для всех людей.

Эта коалиция научных экспертов, лидеров бизнеса и государственного управления примечательна тем, что находится в авангарде международного регулирования ИИ: некоторые из подписавшихся лиц входят в Консультативный орган высокого уровня ООН по ИИ или входят в число немногих избранных экспертов, приглашенных на Международный саммит по безопасности ИИ, который состоялся в Лондоне 1 и 2 ноября 2023 года.

Китайский учёный Йи Цзэн заявил: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться». Йи Цзэн добавил: «Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».

Инициативу открытого письма возглавил британский прогнозист Толга Билге.

Lifestyle

Сольный концерт Жени Львовской на СИГНОН Open Air Fest 2023 состоялся накануне выхода дебютного альбома певицы

В преддверии выхода дебютного альбома певица Женя Львовская выступила с сольным концертом на музыкальном фестивале…

Экономика

В Москве завершена реализация премиального этажа гостиницы «Салют» на Ленинском проспекте

В Москве завершен проект по разработке дизайна и комплексному оснащению премиального этажа гостиницы «Салют» на…

Экономика

В Шанхайском международном выставочном центре пройдет выставка China Cycle 2026

Ожидается, что международная велосипедная выставка China International Bicycle Fair 2026 (China Cycle 2026) откроется 5–8…

Экономика

SINEXCEL поддерживает реализацию проекта создания хранилища энергии мощностью 7,5 МВт / 15,04 МВтч в Румынии

Компания SINEXCEL поддерживает реализацию проекта развертывания аккумуляторного хранилища энергии мощностью 7,5 МВт / 15,04 МВтч…