Так что предлагают эксперты?
1. Введение обязательных стандартов безопасности:
Разработка “многоуровневой защиты” (defence in depth) – использование нескольких независимых мер безопасности, чтобы предотвратить возможные угрозы.
Обязательное проведение “кейсов безопасности” (safety cases) – разработчики должны доказывать, что их модели не превышают допустимый уровень риска перед запуском.
2. Государственный контроль и аудит.
Внешний аудит – независимые эксперты должны оценивать риски перед выпуском моделей.
Введение “регистра рисков” (risk register) – компаниям будет предписано отслеживать и документировать возможные угрозы ИИ.
3. Ограничения на распространение мощных моделей:
Контроль вычислительных мощностей – установление лимитов на ресурсы, доступные для тренировки ИИ, чтобы предотвратить создание неконтролируемых систем.
Введение ограничений на открытые модели (open-weight AI), так как они сложнее поддаются регулированию.
4. Защита от преднамеренного злоупотребления
Создание системы информаторов (whistleblower protection), чтобы сотрудники компаний могли анонимно сообщать о нарушениях.
Разработка if-then commitments – набор правил, ограничивающих опасные способности моделей при достижении определённых порогов мощности.
5. Международное сотрудничество:
Разработка глобальных норм и единых правил для регулирования ИИ.
Создание платформы для обмена информацией между государствами, исследователями и технологическими компаниями.
Как-то так.
1. Введение обязательных стандартов безопасности:
Разработка “многоуровневой защиты” (defence in depth) – использование нескольких независимых мер безопасности, чтобы предотвратить возможные угрозы.
Обязательное проведение “кейсов безопасности” (safety cases) – разработчики должны доказывать, что их модели не превышают допустимый уровень риска перед запуском.
2. Государственный контроль и аудит.
Внешний аудит – независимые эксперты должны оценивать риски перед выпуском моделей.
Введение “регистра рисков” (risk register) – компаниям будет предписано отслеживать и документировать возможные угрозы ИИ.
3. Ограничения на распространение мощных моделей:
Контроль вычислительных мощностей – установление лимитов на ресурсы, доступные для тренировки ИИ, чтобы предотвратить создание неконтролируемых систем.
Введение ограничений на открытые модели (open-weight AI), так как они сложнее поддаются регулированию.
4. Защита от преднамеренного злоупотребления
Создание системы информаторов (whistleblower protection), чтобы сотрудники компаний могли анонимно сообщать о нарушениях.
Разработка if-then commitments – набор правил, ограничивающих опасные способности моделей при достижении определённых порогов мощности.
5. Международное сотрудничество:
Разработка глобальных норм и единых правил для регулирования ИИ.
Создание платформы для обмена информацией между государствами, исследователями и технологическими компаниями.
Как-то так.