Количество разума во Вселенной будет удваиваться каждые 18 месяцев, говорит Сэм Альтман

0 46

Коротко

Апокалипсис ИИ начался, когда количество интеллекта во вселенной удваивается каждые 18 месяцев.

Сэм Альтман из OpenAI однажды пошутил, что ИИ приведет к концу света, но до этого это был бы огромный бизнес.

Эрик Хоэл, американский нейробиолог и философ из Университета Тафтса, утверждает, что на данный момент системы ИИ нельзя считать интеллектуальными, поскольку они не понимают мир и не обладают личностью, проявляющейся в их намерениях и действиях.

Байесовская гипотеза мозга утверждает, что основная функция мозга — свести к минимуму удивление. Если это правда, апокалипсис ИИ, возможно, уже начался.

Это говорит о том, что ChatGPT и другие уже более универсальны в своем интеллекте, чем любой человек.

Апокалипсис ИИ начался, изменив смысл закона Мура. Теперь количество разума во Вселенной будет удваиваться каждые 18 месяцев, согласно Сэм Альтман, генеральный директор OpenAI, компании, разработавшей ChatGPT. Всего семь лет назад Сэм пошутил: «ИИ, скорее всего, приведет к концу света, но до этого будет огромный бизнес». Теперь люди шутят он не расстается с «ядерным рюкзаком», чтобы дистанционно взрывать дата-центры, если ГПТ выйдет из-под контроля.

Количество разума во Вселенной будет удваиваться каждые 18 месяцев, говорит Сэм Альтман

Чтобы лучше понять, о чем говорит Альтман в своем твите, и узнать, как не сойти с ума во время бума ИИ, рекомендуем прочитать статью Эрика Хоэля «Как здравомыслящему человеку пережить апокалипсис ИИ». Хоэл — американский нейробиолог и философ из Университета Тафтса. Это хорошее чтение, так как Хоэль — отличный писатель, поэтому мы определенно рекомендуем проверить этот пост.

Давайте просто взглянем на один из ключевых моментов, так как он обобщает глубокое понимание происходящего и недалекого будущего уже наступившего апокалипсиса. Главный аргумент «рациональных технооптимистов», считающих, что с появлением ChatGPT не произошло ничего экстраординарного и излишне рискованного, заключается в следующем:

  • Несмотря на выдающиеся результаты генеративного диалогового ИИ (например, ChatGPT, Bing и т. д.), эти системы ИИ нельзя считать интеллектуальными. Они не понимают мир и не имеют мотивации агента. У них нет личности, проявляющейся в их намерениях и действиях, а их воспринимаемый интеллект есть не что иное, как симулякр интеллекта. По своей сути, этот симулякр — всего лишь автозаполнитель для следующих слов, отражающий в своем вероятностном зеркале колоссальный, нефильтрованный корпус рукописных текстов из Интернета.
  • Если так, то нет ни близкой перспективы появления сверхразума, ни связанных с ним рисков (хотя, конечно, к этому нужно готовиться, скорее всего, на горизонте десятилетий).
  • Количество разума во Вселенной будет удваиваться каждые 18 месяцев, говорит Сэм Альтман

    По словам Кристофера Миллса, поисковые боты с искусственным интеллектом сделают большие технологии еще более мощнымиция

    Хоэль отвечает на эту аргументацию следующим образом:

  • Тот факт, что ChatGPT, например, является просто автодополнением следующих слов, не означает, что он не может стать (или уже стал) интеллектуальным агентом. В отличие от сознания интеллект — это полностью функциональное понятие: если что-то действует разумно, оно разумно. Если он действует как агент, он является агентом.
  • Вот поясняющий пример. Существует влиятельная группа ученых — Карл Фристон (наиболее цитируемый нейробиолог) и множество других известных личностей, — которые утверждают, что задача нашего мозга — минимизировать удивление. Эта «байесовская гипотеза мозга» сегодня является одной из основных. Теория утверждает, что на глобальном уровне сведение к минимуму удивления является основной функцией мозга. И хотя это всего лишь одна из нескольких ведущих гипотез о том, как работает мозг, давайте предположим, что она верна. Представьте теперь, что инопланетяне находят человеческий мозг, смотрят на него и говорят: «О, эта штука просто сводит к минимуму удивление! Он не может быть основой интеллекта и потому не может быть опасен для истинных носителей разума. Подумайте: действительно ли «минимизация неожиданностей» намного сложнее, чем автозаполнение текста? Или действительно очень похоже?
  • А раз так, то нечеловеческий сверхразум уже может быть рядом. И связанные с этим риски уже вполне реальны. Что еще добавить? Возможно, ChatGPT и другие уже более универсальны в своем интеллекте, чем любой человек. ChatGPT и другие, скорее всего, будут активны одновременно по следующим причинам: разумный, ненадежный и не похожий на человеческий разум, неуправляемый в каком-либо принципиальном смысле, если не считать каких-то наспех спроектированных заборов.
  • И если все это правда, то апокалипсис ИИ уже начался.

    Читайте другие связанные темы:

    Источник

    Оставьте ответ

    Ваш электронный адрес не будет опубликован.