- Ученые ИИ предупреждают о возможных угрозах ИИ, если люди потеряют контроль.
- Эксперты призывают страны принять глобальный план действий в чрезвычайных ситуациях для борьбы с рисками.
- Они выразили сожаление по поводу отсутствия передовых технологий, способных противостоять вреду ИИ.
Ученые, занимающиеся искусственным интеллектом, забили тревогу по поводу потенциальной опасности искусственного интеллекта. В своем заявлении группа экспертов предупредила о возможности потери людьми контроля над ИИ и призвала к созданию глобально скоординированной системы регулирования.
Ученые, сыгравшие роль в разработке технологии искусственного интеллекта, выразили обеспокоенность по поводу ее потенциальных вредных последствий, если ее не остановить. Они подчеркнули нынешнее отсутствие передовой науки для «контроля и защиты» систем ИИ, заявив, что «потеря человеческого контроля или злонамеренное использование этих систем ИИ может привести к катастрофическим последствиям для всего человечества».
Читайте также: OpenAI запускает новую модель искусственного интеллекта, которая «думает», прежде чем ответить
Джиллиан Хэдфилд, ученый-юрист и профессор Университета Джонса Хопкинса, подчеркнула острую необходимость принятия мер регулирования. Она подчеркнула нынешнюю нехватку технологий, позволяющих контролировать или сдерживать ИИ, если он превзойдет контроль человека.
Призыв к глобальному плану действий в чрезвычайных ситуациях
Ученые подчеркнули необходимость «глобального плана действий в чрезвычайных ситуациях», который позволит странам выявлять и устранять угрозы, исходящие от ИИ. Они подчеркнули, что безопасность ИИ — это глобальное общественное благо, требующее международного сотрудничества и управления.
Эксперты предложили три ключевых процесса регулирования ИИ:
- Установление протоколов реагирования на чрезвычайные ситуации
- Внедрение системы стандартов безопасности
- Проведение тщательного исследования безопасности ИИ
Говоря о чрезвычайной ситуации, связанной с принятием новых нормативных руководящих принципов, эксперты заявили, что безопасность ИИ — это глобальное общественное благо, которое требует международного сотрудничества и управления. Они выдвинули три ключевых процесса, связанных с регулированием ИИ. Ученые рекомендовали разработать протоколы реагирования на чрезвычайные ситуации, внедрить систему стандартов безопасности и провести адекватные исследования по безопасности ИИ.
Страны по всему миру предпринимают шаги по разработке правил и руководящих принципов для смягчения растущих рисков, связанных с ИИ. В Калифорнии были предложены два законопроекта, AB 3211 и SB 1047 , призванные защитить общественность от потенциального вреда, причиняемого ИИ. AB 3211 фокусируется на обеспечении прозрачности, проводя различие между искусственным интеллектом и контентом, созданным человеком. SB 1047 возлагает на разработчиков ИИ ответственность за потенциальный вред, причиненный их моделями.
Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.