Корнельский университет: ИИ — это абсолютное оружие обмана, против которого мы бессильны
Коротко
Стэнфордский эксперимент выявил непреодолимую уязвимость языковой интуиции людей, обнаружив низкую вероятность выявления авторства ИИ.
Это связано со способностью ИИ, такого как ChatGPT, создавать подделки настолько искусно, что люди не могут отличить их от правды.
Новый «Стэнфордский эксперимент» выявил непреодолимая уязвимость языковой интуиции людей. Из-за этого вероятность того, что мы идентифицируем авторство ИИ, сильно снижается.
В результате революции ChatGPT сегодня во всем мире возникают многочисленные опасения. Наиболее очевидным является то, что ИИ, такой как ChatGPT, способен создавать подделки настолько искусно, что люди не могут отличить их от правды. Результаты проведенных испытаний продемонстрировали огромную способность ChatGPT к обману. Однако было неясно, как работает эта сверхспособность — чем обладает ИИ, что может заставить очень умных и образованных людей поверить в то, что он делает?
Прочитайте больше: 20+ лучших чат-ботов Telegram AI 2023 года |
Чтобы ответить на этот вопрос, Стэнфордская лаборатория социальных сетей в сотрудничестве с Исследовательским центром Корнелльского университета провела новый «Стэнфордский эксперимент».
Результат серии из шести экспериментов с участием 4,600 человек является сенсационным и удручающим.
Людям было поручено определить, были ли самопрезентации написаны человеком или искусственным интеллектом. По мнению исследователей, самопрезентация является одним из наиболее личных и последовательных элементов языковой коммуникации, поскольку наше отношение к любому высказыванию во многом зависит от того, кто (как мы полагаем) является его автором.
В основе языкового восприятия людей лежат эвристики. Термин «эвристика» относится к умственным упрощениям, которые люди используют для принятия решений, решения проблем и вынесения суждений. Это помогает людям облегчить умственную нагрузку и избежать когнитивной перегрузки.
«Вычислительный анализ особенностей языка показывает, что человеческим суждениям о языке, созданном ИИ, препятствуют интуитивные, но ошибочные эвристики, такие как связывание местоимений от первого лица, использование сокращений или семейных тем с письменным языком человека», — говорится в исследовании. Эксперименты показали, что при восприятии текста, написанного ИИ, люди автоматически используют те же эвристики, что и при общении с другими людьми. И это принципиальная ошибка. Дело в том, что для нас это интуитивно понятные эвристики, а ИИ легко их считывает и оперирует ими, как таблицей умножения.
В результате ИИ может использовать эвристику для создания текста, который люди воспринимают как «более человеческий, чем человеческий». Это значительно увеличивает обманчивый потенциал текстов и речи ИИ, побуждая нас доверять этому «самому человечному человеку» больше, чем утверждениям реальных людей.
Вероятность того, что люди идентифицируют самопрезентацию, написанную ИИ, составляет 50/50. Еще хуже обстоят дела в романтических отношениях людей. Почти 70% взрослых не может отличить любовное письмо, написанное ChatGPT, от письма, написанного человеком.
Подробнее о ChatGPT: