Консультативный орган ООН по искусственному интеллекту опубликовал свой итоговый отчет, в котором изложены семь ключевых рекомендаций по устранению рисков, связанных с искусственным интеллектом, и устранению пробелов в управлении. Доклад был опубликован в четверг и будет представлен на саммите ООН в сентябре.
Орган, состоящий из 39 членов, назначенный ООН в прошлом году, предложил создать глобальный орган, который будет предлагать объективную и достоверную научную информацию об ИИ. Эта панель поможет уравнять уровень информации между разработчиками ИИ и остальным населением, предоставляя всестороннее представление о предмете и его развитии.
Консультативный орган предупреждает о рисках монополизации ИИ
Кроме того, в докладе содержится призыв к новым политическим обсуждениям о том, как управлять ИИ. Предлагаемые меры включают создание биржи стандартов ИИ. Это будет способствовать разработке международных руководящих принципов . Согласно отчету, это в дальнейшем поможет странам обмениваться информацией о лучших способах регулирования использования технологий искусственного интеллекта.
В своем отчете консультативный орган также предупредил о рисках монополизации ИИ несколькими крупными транснациональными корпорациями. Чтобы смягчить эти риски, ООН рекомендовала создать Глобальную сеть развития потенциала искусственного интеллекта. Это будет сделано для улучшения управления в странах, которым не хватает инфраструктуры или персонала для решения проблемы регулирования ИИ.
См. также: Конгресс США «обременен» более чем 100 законопроектами, связанными с ИИ.
Одна из главных рекомендаций отчета — создание глобального фонда искусственного интеллекта. Этот фонд будет призван помочь заполнить пробелы в сотрудничестве и наращивании потенциала. Это облегчит доступность управления ИИ во всех странах, независимо от уровня их технологического развития.
ООН предлагает глобальную систему данных искусственного интеллекта для повышения подотчетности
Другая рекомендация отчета заключается в том, что должна существовать глобальная система данных ИИ. При наличии этой структуры было бы легче возложить на операции ИИ большую ответственность за управление данными, конфиденциальность и решения, принимаемые алгоритмами. Консультативный орган заявил, что такие меры важны для укрепления общественного доверия к ИИ и предотвращения его неправильного использования.
Кроме того, Великобритания проведет 21 и 22 ноября в Сан-Франциско конференцию по вопросам безопасности ИИ. Мероприятие будет состоять из нескольких семинаров и сессий, направленных на улучшение мер безопасности и рекомендаций по развитию ИИ. Эта конференция проводится накануне саммита AI Action Summit, который пройдет во Франции в феврале 2025 года. Темой обсуждения станут безопасность и регулирование ИИ.