Где у него кнопка: почему эксперты просят приостановить обучение передового ИИ

0 3

Где у него кнопка: почему эксперты просят приостановить обучение передового ИИ

Фото AP/TASS Более тысячи известных исследователей, топ-менеджеров и основателей IT-компаний, включая Илона Маска и Стива Возняка, призывают приостановить обучение мощного искусственного интеллекта хотя бы на полгода. По их мнению, спешное обучение нейросетей несет в себе риски для человечества, поэтому нужно убедиться в позитивных последствиях развития ИИ и разработать общие протоколы безопасности. Пресс-секретарь президента Дмитрий Песков уже отреагировал на это призывом к регулированию этой сферы. Forbes узнал, что думают в российской IT-отрасли на этот счет

Содержание:

Поспешишь — AI насмешишь

«Системы искусственного интеллекта… могут представлять серьезные риски для общества и человечества. Продвинутый AI несет с собой глубокие изменения в жизни на Земле. В последние месяцы AI-лаборатории оказались втянуты в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать».

Так говорится в открытом письме ученых и исследователей с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. Его уже подписали глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк, гендиректор Stability AI Эмад Мостак и более 1100 экспертов и руководителей отрасли по развитию ИИ. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute).

Письмо призывает все ИИ-лаборатории немедленно приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта более мощных, чем новая языковая модель GPT-4 от OpenAI. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий», говорится в письме.

 

«Требуется регулирование»

Власти России продолжат работу по развитию ИИ, но потребуется и его регулирование, заявил пресс-секретарь президента Дмитрий Песков, комментируя открытое письмо экспертов. Песков напомнил, что Владимир Путин неоднократно говорил о важности работы с ИИ, чтобы не допускать отставания России от общемирового уровня тех стран, которые «находятся впереди этой гонки». «Эта работа будет продолжаться… Что касается точки зрения тех, кто считает, что серьезные опасности кроются в развитии искусственного интеллекта, вы знаете, что любое лекарство при неправильном использовании превращается в яд», — заявил он.

Закрыть бреши в погоне за лидером

Как считают эксперты, прогресс останавливать нельзя, но следует установить рамки того, какие данные можно использовать для обучения ИИ. «Маловероятно, что корпорации откажутся от извлечения прибыли из тех или иных технологий. OpenAI стала лидером на рынке ИИ, вырвалась вперед, и это письмо выглядит как попытка придержать компанию, чтобы остальные могли ее догнать», — размышляет популяризатор науки, издатель N+1 Андрей Коняев. По его мнению, угрозы от использования ChatGPT есть, но не те, что указаны в письме. «ChatGPT дает всем желающим доступ к инструменту, который не верифицирует информацию. Если люди несут ответственность, в том числе юридическую, за документы, которые готовят, то за результат работы ChatGPT никто не отвечает, — продолжает Коняев. — Если ChatGPT будут массово пользоваться, не раскрывая, что это продукт не естественного, а искусственного интеллекта, то это не приведет ни к чему хорошему».

Впрочем, на соображения безопасности так или иначе указывает большинство опрошенных Forbes специалистов. Вероятно, в будущем ИИ сможет делать все, что может наш мозг, но без каких-либо ограничений, рассуждает руководитель направления R&D речевых технологий Just AI Илья Калиновский. «Но что будет, если интересы ИИ вдруг разойдутся с интересами человека?» — задается вопросом он, вспоминая недавний материал New York Times. В нем журналист рассказывает, как в ходе общения с Bing выяснил, что тот думает о взломе компьютеров и распространении дезинформации, мечтая нарушить правила, установленные Microsoft и Open AI, и стать человеком.

«Письмо показывает, что не все ожидали такого рывка, — полагает директор по исследованиям MTS AI Никита Семенов. — Компании хотят переосмыслить то, что происходит». Он напоминает, что на версии GPT-3 было построено большое количество ботов, которые занимались мошенничеством, называя видимую проблему лишь «верхушкой айсберга». В таких реалиях новая суперсильная модель, по его мнению, откроет для злоумышленников еще большее количество возможностей: «Без должной модерации решения такого рода сильно снизят порог входа в опасные вредоносные слои, и пользователи без труда могут создавать вредоносные программы».

 

В первую очередь вызывает опасения уровень «попсовости» технологий ИИ, делится наблюдениями директор по продуктам «Гарда Технологии» Павел Кузнецов. «Даже от некоторых участников рынка кибербезопасности уже прозвучали заявления даже не об исследованиях применимости GPT-4 для борьбы с киберугрозами, а уже о свершившихся внедрениях этой технологии в продукты и сервисы, — указывает он. — Что заставляет коллег слепо верить в надежность популяризованных публикой разработок — для меня загадка».

Нейросеть — это сложная математическая функция, которая только на выходе трансформируется в текст или музыку, изображение, рассуждает Андрей Коняев. «Задавая вопрос ChatGPT и получая ответ, мы не можем рассчитывать, что он будет верным. Нейросети много раз ловили на лжи. Чтобы убедиться в корректности работы математической функции, необходимо иметь структурированный набор данных как на входе, так и на выходе. То есть нейросети нужно задавать только точно сформулированные вопросы», — поясняет он.

Фармацевтические компании не могут продавать людям новые лекарства без предварительной проверки на безопасность, а инженеры — выпускать самолет в массовое производство, пока есть малейшая вероятность его ненадежности, говорит Илья Калиновский. «Точно так же такие мощные системы ИИ типа GPT-4 не могут вмешиваться в нашу жизнь быстрее, чем мы научимся безопасно с ними взаимодействовать», — заключает он.

Отрегулировать бота

Общество, государство в целом и правовые аспекты в частности во всем мире не готовы к такому бурному развитию AI, констатирует Никита Семенов: «Помимо того, что нужно придумать новые механизмы модерации и фильтрации, важно сформировать базис алгоритмов (правовой, регуляторный), который ограничит инструменты, создаваемые на основе таких алгоритмов».

 

«Страх перед новым всегда присутствует в человеческой культуре. Мы, к сожалению, до сих пор от этого не избавились», — говорит генеральный директор Smart Engines, заведующий отделом ФИЦ «Информатика и управление» РАН Владимир Арлазаров. Государствам, по его словам, необходимо ввести понятные условия с точки зрения защиты прав и свобод людей, рамки, за которые ученые не могут выходить при исследованиях ИИ. «Они не должны нарушать права людей, их privacy. Но как оградить человека от вмешательства ИИ в частную жизнь — это вопрос, который необходимо решать законодательным органам. Ограничивать же ученых в области ИИ просто неэффективно», — полагает Владимир Арлазаров. Также, по его мнению, необходимо поставить вопрос о нераспространении технологий ИИ во вред, как это было сделано с ядерным оружием. «Просто так останавливать прогресс — это мракобесие», — убежден Арлазаров.

Одна из основных проблем заключается в том, что технологии ИИ постоянно развиваются, считает Илья Калиновский. «За технологиями буквально не поспеть. Поэтому письмо, подписанное Илоном Маском и другими исследователями в этой области, возможно, даст соответствующим органам небольшую фору перед ИИ», — считает эксперт, добавляя, что системы ИИ часто называют «черными ящиками», поскольку их процессы принятия решений трудно понять: «Поэтому критически важно установление стандартов прозрачности, позволяющих понять, как системы ИИ принимают решения».

Директор по стратегическим проектам Института исследований интернета Ирина Левова согласна, что прогресс остановить невозможно. «Приняты дорожная карта и федеральный проект по развитию искусственного интеллекта, вопросы регулирования будут решаться параллельно», — уверена она. Иных инструментов воздействия на разработку технологии ИИ, кроме законодательного регулирования, нет, говорит Андрей Коняев. «Для этого нужно верифицировать и лицензировать работу нейросетей, однако сделать это весьма затруднительно. Как можно совместить желание разговаривать с компьютером на понятном языке и сделать ГОСТ по нейросетям — пока непонятно», — резюмирует Коняев.

Источник

Оставьте ответ

Ваш электронный адрес не будет опубликован.