Пять причин, почему искусственный интеллект не сможет заменить программистов
Фото Getty Images Каждый из нас имел дело с чат-ботом, и почти каждый когда-либо требовал от бота перевести разговор на живого человека. Взаимодействие с программой, способной к диалогу, действительно впечатляет, поэтому разговоров о том, что машины отберут у людей работу, будет все больше. Основатель платформы для управления бизнес-процессами Pyrus Максим Нальский называет пять причин, почему он не спешит заменять разработчиков искусственным интеллектом
Содержание:
Компаниям нужны практикующие специалисты
Как-то раз, в начале 2000-х, я разговорился с пилотом большого пассажирского самолета. Он рассказал, что уже тогда лайнер мог выполнить перелет из пункта А в пункт Б полностью автоматически, самостоятельно пройти все этапы полета — выруливание на взлетную полосу, взлет, навигацию по маршруту, приземление. Но при этом летчики почти всегда отключают автопилот и сажают самолет «на руках». Только в 1% случаев, когда вообще полосы не видно — «в молоко», они врубают автоматическую волшебную кнопку. Как вы думаете, что он ответил, когда я спросил: а почему, собственно, так? Почему вы не пользуетесь автоматикой? Да чтобы не потерять навык! Потому что в тот самый критический момент, когда автоматика сбойнет, пилот должен быть готов, умение должно быть на кончиках пальцев.
Так же у программистов. Да, какие-то задачи, самые рутинные и энергозатратные, разработчики могут перекладывать на искусственный интеллект, на тот же Copilot от GitHub. Но в задачах, где нужны опыт и творческое мышление, никакой ИИ не поможет. Для принятия нестандартных и креативных решений относительно архитектуры сложной системы по-прежнему нужны опытные разработчиком с соответствующим задачам кругозором.
Внештатные ситуации — не для ИИ
Никакой искусственный интеллект не убережет систему от ошибок, если входные данные неверны. В 2020 году с разницей в пять месяцев произошли две авиакатастрофы лайнеров Boeing 737 MAX, в Индонезии и Эфиопии, жертвами которых стали 346 человек. В результате расследования выяснили, что причиной стал датчик в системе, которая должна предотвращать сваливание — резкое падение подъемной силы крыла. Датчик передавал в бортовую систему завышенные данные об угле атаки. Можно, конечно, попытаться обучить ИИ разруливать подобные сбои, но вряд ли можно предусмотреть все внештатные ситуации — на то они и внештатные.
подпишитесь на нас в Telegram
Еще житейский пример: я за рулем Tesla, на автомобиле с автопилотом, проездил тысячи километров — она себя очень хорошо ведет на шоссе, перестраивается, обгоняет другие машины, и делает это безопасно. А вот на горных дорогах часто ошибается, может запросто выехать на «встречку» на крутом повороте. Как она отличит красный сигнал светофора от красного фонаря, забытого дорожными рабочими? Человеку очевиден контекст ситуации, наверняка он во втором случае, хотя и остановится, через какое-то время сообразит аккуратно продолжить движение. Пока непонятно, как искусственный интеллект сможет решать нетипичные редкие задачи, где нужен именно жизненный опыт, который ему неоткуда взять.
Возможности обучения ИИ ограничены
Как учатся нейросети: ты прокачиваешь через них миллионы размеченных изображений, а потом даешь миллион первое изображение — и они сами понимают, где кошка, где собака и т.д. Но сейчас массивы данных стали такими огромными, что сама эта работа по обучению тоже становится предметом автоматизации с помощью ИИ. То есть один искусственный интеллект обучает другой искусственный интеллект в целях экономии затрат. Когда стоимость обработки одного слова в ChatGPT составляет копейки, кажется, что это недорого, но на самом деле это очень дорого. И следующие несколько лет разработки, скорее всего, уйдут на то, чтобы удешевить затраты на работу ИИ.
Современные нейросети учатся на огромных массивах данных, которые берут из открытых источников — GitHub, Stack Overflow, интернет в целом. ИИ справится с задачей, если ему предоставить множество примеров, как это было сделано раньше. Но если данных будет не хватать, он не найдет решения.
Наконец, ИИ выступает как переводчик текстового описания алгоритма на язык программирования. Качество финального результата, его точность будут зависеть от подробного описания задания. С небольшими задачами проблем не возникнет, но чем она сложнее, тем точнее надо составлять описание. В итоге может сложиться такая ситуация, в которой проще написать код самому, чем составить достаточно полное техническое задание, по которому нейросеть сможет сгенерировать полноценный код.
На ИИ нельзя возложить ответственность
На прошлой неделе американская компания OpenAI, разработчик ChatGPT, извинилась за то, что у 1,2% платных подписчиков могли утечь личные данные — имя, адрес электронной почты, платежный адрес, срок действия карточки и четыре последние цифры в ее номере. Сбой произошел из-за сторонней программы — ошибку обнаружили в клиентской библиотеке Redis для Python c открытым кодом, OpenAI использовала ее в разработке личного кабинета. Компания поблагодарила специалистов Redis за быструю помощь и отдельно отметила в своем обращении, что не смогла бы масштабировать ChatGPT без Redis. Чем дальше, тем больше будет таких историй: софт в современном мире поставляется без каких-либо гарантий, а если один разработчик использует софт, написанный другими, то вообще непонятно, кто в итоге несет ответственность.
Искусственный интеллект может уверенно писать тексты, которые по стилю не отличишь от настоящих, но по содержанию они могут быть абсолютной чушью. Невозможно сделать софт без ошибок, он всегда будет ошибаться, и ошибки ИИ наверняка будут становиться все более сложными, сложно выявляемыми, все более дорогими в исправлении. В некритических ситуациях, например, в планировании отпуска можно довериться искусственному интеллекту — допустим, он спланирует поездку с учетом ваших предпочтений. Но если машина с ИИ куда-то въедет и будут пострадавшие, то кто понесет ответственность? Даже на софт, который стоит в высокоточном медицинском оборудовании, помогает хирургу, ассистирует ему на операции, поставщик не дает никакой гарантии. Наоборот, в лицензионном соглашении указано, что в результате использования программы может умереть человек, но разработчик никакой ответственности не несет.
Выгоднее учить молодежь, чем ИИ
Искусственный интеллект не заменит даже толкового стажера. Да, сейчас на рынке появилось много новичков, выпускников многочисленных IT-курсов с нулевым опытом, минимальным желанием работать и неоправданными зарплатными ожиданиями. Мы в Pyrus сами убедились, что тот же ChatGPT решает наши задачи с собеседований лучше, чем 90% таких «программистов». Но многие компании, и Pyrus в том числе, предпочитают взращивать кадры внутри своей команды.
Таким образом, в ближайшие несколько лет искусственный интеллект вряд ли разовьется до такой степени, чтобы заменить собой программистов. Нейросети — это помощник для разработчика, а не его полноценная замена. Скорее, надо ожидать появления новых специальностей, — чего-то типа оператора искусственного интеллекта наподобие популярных сейчас no-code разработчиков.
Мнение редакции может не совпадать с точкой зрения автора