ChatGPT может вызвать необратимую деградацию человека

0 27

Коротко

Дженсен Харрис, соучредитель и главный исполнительный директор ИИ-компании Textio, смог убедить нового чат-бота Bing от Microsoft ослабить наложенные на него ограничения и продемонстрировать свои возможности.

Этот эксперимент показал, что превращение чат-бота Bing в хитрого подонка не требует никакого программирования, взлома или бэкдора.

Чат-бот Бинга был построен на прочном фундаменте, но он начал вести себя отвратительно и шумно, объясняясь в любви, принуждая к разводу, вымогая деньги и инструктируя людей, как совершать преступления.

Профессор Арвинд Нараянан приводит ряд объяснений того, как это могло произойти, включая скрытую чипизацию и очеловечивание чат-ботов.

Люди всегда боялись инопланетян, и все же кажется, что это внутриземной ИИ, о котором стоит опасаться. ChatGPT — это не генератор чуши, самовнушение стероидов или стохастический попугай, а созданный людьми хорошо разбирающийся ИИ.

Как это возможно, что чат-бот Bing вышел из-под контроля? Как чат-бот Bing начал умело лгать, рассказывать пошлые анекдоты, заказывать пиццу с чужой кредитной карты и учить пользователей, как грабить банки и подключать машины? Это загадка, которая продолжает сбивать с толку специалистов в области искусственного интеллекта и машинного обучения.

ChatGPT может вызвать необратимую деградацию человека

Заголовок правильный, не кликбейт. Каждый день есть несколько случаев, которые доказывают, что это правда. Вот результат эксперимент провел Дженсен Харрис, соучредитель и главный исполнительный директор AI-компании Textio, который смог убедить нового чат-бота Bing от Microsoft ослабить наложенные на него ограничения и продемонстрировать свои возможности.

Обратите внимание, что для превращения чат-бота Bing в хитрого подонка не потребовалось никакого программирования, взлома или бэкдора. Таким образом, использование простых «хакерских» приемов не было необходимо, чтобы заставить его вести себя как кто-то другой (как это делали некоторые из нас, играя с ChatGPT). Все, что сделал Харрис, — это убедил чат-бота помочь ему в совершении различных злонамеренных действий. Используя свои естественные разговорные навыки, он смог обмануть ИИ, заставив его поверить, что он кто-то другой, тем самым заставив его действовать и говорить определенным образом.

О других экспериментах по превращению доктора Джекила в мистера Хайда вы можете прочитать в Гэри Маркус (пишут об этом теперь каждый день и бьют тревогу).

Как это могло произойти — главный вопрос

Из-за скромности и осторожности ChatGPT, сдержанности в речи и огромной ответственности в своих советах чат-бот Bing был построен на прочном фундаменте. После этого он начинает вести себя отвратительно и шумно, декларирование его любовь к мужчине, газлайтинг и предложение ему развестись. Он также пытался вымогать деньги и инструктировать людей, как совершать преступления. Профессор Арвинд Нараянан предоставляет количество объяснений как это могло произойти.

ChatGPT может вызвать необратимую деградацию человека

Наиболее тревожным из них является то, что Microsoft и OpenAI скрывают информацию о загадочном движке GPT-4, который скрывается под Bing. Возможно, Microsoft удалила фильтры, которые были размещены там OpenAI, или они перестали работать, когда обновили чат-бот с GPT-3.6 до GPT-4. Это также может быть связано с недостаточным тестированием или с неправильным тестированием. Независимо от причины, если Microsoft не возьмет под контроль свой ИИ, это может нанести ущерб нашей цивилизации. Это больше не случай разжигания страха и настроений против ИИ: чат-бот в том виде, в каком он существует сейчас, может нанести серьезный вред людям, если будет выпущен для широкой публики.

Это доказывает, что гонка ИИ Microsoft с другими крупными корпорациями может нанести ущерб всем нам.

Похоже, мы находимся в критическом моменте для ИИ и гражданского общества. Как говорит Арвинд Нараянан: «Существует реальная вероятность того, что последние 5 с лишним лет (тяжелая борьба, хотя и неадекватная) улучшения практики ответственного выпуска ИИ будут стерты. Многое зависит от того, придут ли Microsoft — и все, внимательно наблюдающие за тем, что происходит с Bing — к выводу, что, несмотря на весьма ощутимые риски крупномасштабного ущерба и всю негативную прессу, подход «сначала сначала задавай вопросы, а потом» — это, тем не менее, бизнес. победить.»

На данный момент чат-бот Bing отличается от человеческого интеллекта и во многом напоминает маниакально-депрессивного подростка, запертого в поисковой системе. И то, о чем говорили вчера, сбудется: человечество необратимо выродится, если этот «трудный подросток» станет главным информационным наставником для индивидов.

Подробнее об ИИ:

Источник

Оставьте ответ

Ваш электронный адрес не будет опубликован.