Чего ожидать от автономного искусственного интеллекта?
Изображение: AI
Исследователи из компании DeepMind представили новый технический документ, посвященный безопасной разработке искусственного интеллекта общего уровня(AGI). Artificial General Intelligence или AGI – это сильный искусственный интеллект общего уровня, который способен мыслить и действовать, как человек.
В этой работе эксперты рассматривают возможные угрозы, которые может нести сверхразумная машина, и предлагают меры по их предотвращению.
Несмотря на то, что многие специалисты в области ИИ считают создание AGI далекой перспективой, DeepMind прогнозирует, что это может случиться уже к 2030 году. В связи с этим компания изучает потенциальные риски и пытается найти способы защитить человечество от негативных последствий.
Четыре главные угрозы AGI
Команда DeepMind под руководством соучредителя компании Шейна Легга классифицировала возможные угрозы AGI на четыре категории:
Неправильное использование – если AGI попадет в руки злоумышленников, его можно будет применить для кибератак, создания биологического оружия или других деструктивных действий.
Несоответствие – AGI может выйти из-под контроля, перестав следовать заложенным разработчиками ограничениям, что может привести к катастрофическим последствиям.
Ошибки – даже без злого умысла AGI может совершать критические ошибки, которые приведут к серьезным последствиям.
Структурные риски – непредсказуемые долгосрочные последствия взаимодействия AGI с обществом и экономикой, например, распространение дезинформации или захват контроля над политическими системами.
Как предотвратить угрозу?
Чтобы снизить риски, DeepMind предлагает несколько ключевых мер. В их числе – усиленный надзор за AGI, при котором несколько ИИ будут проверять друг друга, а также строгий контроль со стороны человека. Разработчики также предлагают «виртуальные песочницы» – изолированные среды для тестирования AGI перед его полноценным внедрением.
Для предотвращения ошибок DeepMind предлагает использовать систему «щита», которая будет проверять команды, перед тем как AGI выполнит их. Однако на данный момент нет стопроцентно надежного способа избежать всех возможных угроз.
Есть ли повод для паники?
Хотя эксперты DeepMind предупреждают о возможных рисках, пока никто точно не знает, когда появится настоящий искусственный общий интеллект. Тем не менее, учитывая стремительное развитие технологий, специалисты призывают уже сейчас задуматься о мерах предосторожности.
Как утверждают исследователи, их доклад – это не окончательное руководство по безопасности AGI, а лишь отправная точка для серьезного обсуждения. И если прогноз о появлении AGI в 2030 году верен, у человечества остается совсем немного времени, чтобы подготовиться к новой реальности. Читайте также
Юлия Смирнова: Цифровой иммунитет Петербурга. Как город побеждает киберугрозы Как Санкт-Петербург смог снизить количество киберинцидентов, несмотря на растущие риски? Юлия Смирнова, председатель Комитета по информатизации и связи, раскрывает IT-World секреты построения безопасного цифрового города. Как защитить данные? Чего ожидать от автономного искусственного интеллекта? Почему на кибербезопасность всегда не хватает денег?
Источник: Arstechnica
ГуглИскусственный интеллект AI