ИИ научили вести войну. «Skynet» желает вам доброго утра!
Palantir, компания миллиардера Питера Тиля, желает уже сейчас может показать, как вооруженные силы могут использовать искусственный интеллект для ведения войны.
Оператор может использовать технологию, чтобы обеспечить разведку дронами, разработать несколько планов атак беспилотников и подавить средства связи противника.
В демонстрации возможностей новой разработки, некий «военный оператор, ответственный за мониторинг активности в Восточной Европе», получает сигнал о том, что противник накапливает военную технику. Затем оператор просит сообщить более подробную информацию, и предлагает ИИ определить тип военной техники и вооружений.
Получив от ИИ предположение о том, что происходит на фото, оператор может запросить новые снимки с более высоким разрешением. На презентации технологии, с помощью такого алгоритма «удалось обнаружить» российский танк Т-80.
Удивительно то, что оператор после получения всех вводных консультируется с искусственным интеллектом по поводу своих дальнейших действий! И уже потом принимает один из нескольких вариантов ответа. Они включают в себя атаку танковой группировки с помощью F-16, дальнобойной артиллерии или ракет Javelin. Утверждается, что ИИ даже способен подсчитать, достаточно ли ракет имеется у ближайшей войсковой части, для выполнения задания.
Конечно же новая разработка критикуется многими здравомыслящими людьми. Несмотря на то, что в ведении боевых действий с помощью ИИ, участвует «опытный специалист (офицер?)», кажется, что он не принимает решающего участия в происходящем. Война с участием беспилотников уже дала людям возможность убивать на больших расстояниях одним нажатием кнопки. В концепции военных действий от Palantir, она еще больше будет автоматизирована и абстрагирована. Вероятно, вскоре мир получит миллионы «диванных воинов» с неограниченными никем и ничем возможностями ведения боевых действий.
Стоит не забывать, что даже у хорошо настроенных систем искусственного интеллекта есть множество проблем, из-за которых консультации с ними могут привести к непредсказуемым последствиям. Например, они склонны просто выдумывать или «галлюцинировать». Так, недавно одна из моделей чат-ботов с открытым исходным кодом даже убедила жителя Бельгии покончить с собой.
То, что предлагает сегодня Palantir, — это лишь иллюзия безопасности и контроля для Пентагона и общественности, позволяющая и далее внедрять ИИ. Никто не рассказывает, какие проблемы могут возникнуть в реальности и как планируется их решать. Похоже, разработчик и не предлагает никаких решений этих проблем, кроме «рамок» и «запретов», которые, как он обещает, сделают использование военного ИИ «этичным» и «законным».