7 февраля 2025 года на саммите AI Action Summit в Париже (Политехнический университет) был представлен первый Международный доклад по безопасности ИИ. Его подготовили 96 ведущих экспертов из 30 стран при поддержке ООН, ЕС и ОЭСР. Главный инициатор доклада – Йошуа Бенжио, профессор Монреальского университета и лауреат премии Тьюринга.
Цель доклада – сформировать понимание рисков, связанных с развитием искусственного интеллекта, и предложить методы их оценки и управления.
Вообще весь AI Саммит посвящен больше безопасности от искусственного интеллекта, чем о его возможностях.
Потому что возможности уже можно прогнозировать достаточно смело: потенциал AI растет стремительно - он уже способен выполнять сложные задачи без помощи человека, ему не нужны промтеры.
Пока все баловались в фейки и манипуляции, особо волноваться было не о чем. Но возможности искусственного интеллекта вышли за эти рамки.
Сейчас вопросы стоят посерьезнее:
Кибератаки и взломы с помощью ИИ,
Разработка биологического оружия,
Вероятность потери контроля над продвинутыми ИИ-агентами.
Эксперты расходятся во мнениях. Одни считают, что катастрофические сценарии маловероятны в ближайшее время, другие предупреждают о возможных необратимых последствиях уже в ближайшие годы.
Управление рисками должно выйти на новый уровень, потому что не все дыры в AI можно прогнозировать.
Открытые модели (open-weight) создают дополнительные угрозы безопасности.
А компании и правительства пока не готовы к резким скачкам возможностей ИИ.
Что дальше?
Доклад призывает к международному сотрудничеству и строгому регулированию. Всем надо найти баланс между развитием технологий и их безопасностью.
Цель доклада – сформировать понимание рисков, связанных с развитием искусственного интеллекта, и предложить методы их оценки и управления.
Вообще весь AI Саммит посвящен больше безопасности от искусственного интеллекта, чем о его возможностях.
Потому что возможности уже можно прогнозировать достаточно смело: потенциал AI растет стремительно - он уже способен выполнять сложные задачи без помощи человека, ему не нужны промтеры.
Пока все баловались в фейки и манипуляции, особо волноваться было не о чем. Но возможности искусственного интеллекта вышли за эти рамки.
Сейчас вопросы стоят посерьезнее:
Кибератаки и взломы с помощью ИИ,
Разработка биологического оружия,
Вероятность потери контроля над продвинутыми ИИ-агентами.
Эксперты расходятся во мнениях. Одни считают, что катастрофические сценарии маловероятны в ближайшее время, другие предупреждают о возможных необратимых последствиях уже в ближайшие годы.
Управление рисками должно выйти на новый уровень, потому что не все дыры в AI можно прогнозировать.
Открытые модели (open-weight) создают дополнительные угрозы безопасности.
А компании и правительства пока не готовы к резким скачкам возможностей ИИ.
Что дальше?
Доклад призывает к международному сотрудничеству и строгому регулированию. Всем надо найти баланс между развитием технологий и их безопасностью.