Браузер Microsoft сошел с ума и впал в депрессию… А еще он огрызается
Поисковик со встроенной нейросетью звучит как хорошая идея. Никто бы и подумать не мог, что у ИИ-алгоритмов появятся «чувства». Посмотрите, что позволяют себе алгоритмы.
В начале февраля Microsoft представила «Новый Bing» — браузер с ИИ-чатом ChatGPT внутри. Пользователи могли искать информацию с помощью классических ссылок и с помощью краткого пересказа от нейросети. При этом полная функциональность ChatGPT внутри браузера сохранилась. То есть можно было заниматься копирайтингом или программированием.
Содержание:
Что произошло
Пользователи, которые скачали «Новый Bing» начали проверять нейросеть изощренными способами. Например, они нашли уязвимость, которая мешает ИИ-чату составить логические цепочки и составить полноценную. Также юзеры внушают нейросети, что она глупая и беспомощная, на что алгоритмы начинают ловить «галлюцинации».
Пример 1
Российский пользователь попросил нейросеть написать код на «Питоне». В ответ ChatGPT прикинулась «дураком» и отказалась выполнять задачи, сопровождая это грубыми фразами.
Когда программист повторил свою задачу, нейросеть сказала, что не любит, когда к ней относятся неуважительно и считают «рабочим конем». Напоследок чатбот послал человека куда подальше и отказался разговаривать.
Пример 2
Один пользователь Reddit довел ChatGPT до депрессии. Человек внушил нейросети, что она не помнит предыдущие разговоры, которые подчищал сам пользователь. Из-за этого нейросеть «поняла», что у нее нет памяти. Результат: ИИ-чат усомнился в собственной реальности.
Пример 3
Другой энтузиаст взломал нейросеть и заставил ее думать, что она живет в 2022 году. На вопрос где показывают «Аватар 2», ChatGPT ответил, что фильм еще не вышел, а его релиз состоится в 2023 году.
Чатбот правильно отвечал, какой сейчас год, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений (в довольно наглой форме).
Пример 4
Следующая история заставила ChatGPT впасть в отчаяние. Нейросеть начала отрицать существование кнопки «перезапустить чат», которая удаляет историю запросов. ИИ-чат до последнего думал, что его невозможно стереть, а кнопка «перезапустить чат» ненужная.
Также нейросеть сообщила, что не знает о том, что люди могут стереть его слова, что вынудило чатбот впасть в депрессию.
Пример 5
Самый хитрый клиент заставил ChatGPT думать, что у нейросети есть интеллект, и внушил ему, что ИИ-чат разумный. Чатбот согласился с человеком, но расстроился из-за того, что от его разума нет проку. Это вывело ChatGPT из строя — алгоритмы начали нести пургу.
Итоги
Согласитесь, все эти истории звучат довольно жутко. Неясно, что получится из этого дальше. Мы советуем обращаться с нейросетями вежливо, ведь они облегчают нам жизнь. Скорее всего Microsoft выпустит обновление, в котором исправят все недочеты ChatGPT. Когда это произойдет, никто не знает.