67% в пользу экзистенциальной угрозы: результаты дебатов Мунка об ИИ
Отредактировано и проверено фактами
Коротко
Планетарный референдум о судьбе человечества вызвал споры о рисках ИИ, и эксперты и власти выразили разные мнения по этому поводу.
Революция ChatGPT ускорила разработку гуманоидного ИИ, что привело к переходу от гипотетического обсуждение практических соображений экзистенциальных рисков ИИ.
Это разногласие привело к противоречивым подходам властей развитых стран, что привело к колебаниям и противоречиям в их действиях.
Общественное мнение может сыграть решающую роль в устранении рисков, связанных с ИИ, выступая в роли бабочки, вес которой может изменить баланс мнений.
Чтобы улучшить ваше взаимодействие с местным языком, иногда мы используем плагин автоматического перевода. Обратите внимание, что автоперевод может быть неточным, поэтому читайте оригинал статья для точной информации.
Недавно состоялась репетиция планетарного референдума о судьбах человечества, пролить свет на мнения и опасения, связанные с рисками, связанными с ИИ. Революция ChatGPT ускорила сроки создания гуманоидного ИИ (AGI), вызвав переход от гипотетических дискуссий к практическим рассмотрениям экзистенциальных рисков ИИ.
Отредактировано и проверено фактами
Как и в случае с другими экзистенциальными рисками, такими как ядерная, климатическая и биологическая опасность, мнения специалистов и экспертов относительно оценки риска ИИ разделились. С одной стороны, некоторые эксперты подчеркивают значительные экзистенциальные риски ИИ и призывают к неотложному вниманию и действиям. С другой стороны, есть те, кто утверждает, что эти риски еще не материализовались, и их следует устранять только тогда, когда они это сделают.
Расхождение профессиональных мнений привело к противоречивым подходам властей в развитых странах. Это разногласие привело к колебаниям и противоречиям в их действиях по развитию ИИ. Специалисты и власти оказываются в ситуации, аналогичной Буриданов осел, где шансы сделать выбор между противоположными альтернативами столь же вероятны, как и шансы погибнуть. Реализация «стратегии осла», которая замедляет развитие ИИ, считается наихудшим из возможных подходов, поскольку она препятствует технологическому прогрессу без эффективного смягчения или снижения рисков ИИ.
Общество сейчас находится в удручающем затруднительном положении, раздираемом противоречивыми мнениями специалистов и властей. В решении проблемы рисков ИИ общественное мнение может сыграть решающую роль, действуя как бабочка, вес которой может склонить балансирующую планку мнений в одну сторону.
Результаты первой репетиции планетарного референдума были обнародованы во время The Munk Debate на Artificial Intelligence. Участники дебатов, Джошуа Бенжио и Макс Тегмарк, представляющие позицию «Да», и Мелани Митчелл и Ян ЛеКун, представляющие позицию «Нет», обсудили вопрос: «Представляют ли исследования и разработки ИИ экзистенциальную угрозу?» До дебатов опрос перед дебатами показал, что 67% зрителей были склонны согласиться с понятием экзистенциальной угрозы, а 33% не согласились. После дебатов распределение немного изменилось: 64% высказались за экзистенциальную угрозу и 36% выступили против (3% изменили свою позицию с «Да» на «Нет»).
Примечательно, что рынок прогнозов, открытый за две недели до дебатов, предполагал, что Ян ЛеКун выйдет победителем с позицией «Нет». Однако со временем настроения изменились, и к концу дебатов только 25% участников рынка сохраняли уверенность в таком исходе.
Хотя еще неизвестно, изменит ли этот эффект бабочки шкалу мнений о судьбе человечества в контексте развития ИИ, вряд ли он окажет значительное влияние. Истинным катализатором изменения мнений может стать катастрофический глобальный инцидент, такой как пандемия ментального вируса, которая имеет немалые шансы произойти к концу этого года (после запланированного выпуска GPT 5) или в первой половине 2024 года (после запланированного выпуска GPT 6).
Поскольку дебаты продолжаются, будущие последствия развития ИИ и связанные с ним риски остаются неопределенными. Дискуссии о потенциальном влиянии ИИ на человечество продолжаются, и только время покажет истинные масштабы этих опасений.
Подробнее об ИИ: