Росс Андерсон обсуждает коллапс модели ИИ как растущую проблему в онлайн-контенте
Отредактировано и проверено фактами
Коротко
Росс Андерсон предупреждает о потенциальных рисках, связанных с интеллектуальным упадком будущих поколений больших языковых моделей (LLM), которые стали основным инструментом редактирования и создания новых текстов.
Коллапс модели можно предотвратить, если понять и смягчить риски, связанные с генеративный ИИ.
Чтобы улучшить ваше взаимодействие с местным языком, иногда мы используем плагин автоматического перевода. Обратите внимание, что автоперевод может быть неточным, поэтому читайте оригинал статья для точной информации.
Всего за шесть месяцев генеративный ИИ добился значительных успехов, привлекая внимание всего мира. ChatGPT, яркий пример этой технологии, быстро завоевал популярность и широкое распространение. Однако известный эксперт Росс Андерсон предупреждает о потенциальные риски связано с интеллектуальным упадком будущих поколений моделей.
Росс Андерсон — пионер в области техники безопасности и ведущий специалист по поиску уязвимостей в системах и алгоритмах безопасности. В качестве члена Королевской инженерной академии и профессора Кембриджского университета он внес большой вклад в область информационной безопасности, формируя модели угроз в различных секторах.
Отредактировано и проверено фактами
Теперь Андерсон поднимает тревогу о глобальной угрозе человечеству…крах больших языковых моделей (LLM). До недавнего времени большая часть текста в Интернете создавалась людьми. LLM теперь стали основным инструментом для редактирования и создания новых текстов, заменяя контент, созданный людьми.
Этот сдвиг поднимает важные вопросы: куда приведет эта тенденция и что произойдет, когда LLM будут доминировать в Интернете? Последствия выходят за рамки одного только текста. Например, если музыкальная модель обучается произведениям Моцарта, последующим поколениям может не хватать блеска оригинала и давать более низкие результаты, сравнимые с мюзиклом «Сальери». С каждым последующим поколением возрастает риск снижения качества и интеллекта.
Эта концепция может напомнить вам фильм «множественность», с Майклом Китоном в главной роли, где клонирование приводит к снижению интеллекта и увеличению глупости каждого последующего клона.
То же самое может произойти и с LLM. Обучение модели контентом, созданным моделью, приводит к необратимым дефектам и ухудшению качества текста с течением времени. Исходное распределение контента искажается, что приводит к притоку бессмысленной информации. Распределения Гаусса сходятся, и в крайних случаях текст может стать бессмысленным. Последующие поколения могут даже неправильно воспринимать реальность из-за ошибок, допущенных их предшественниками. Это явление известно как «коллапс модели».
Последствия коллапса модели значительны:
✔️ Интернет становится все более наполненным бессмысленным контентом.
✔️ Люди, потребляющие этот контент, могут невольно стать менее информированными и потерять интеллектуальные способности.
К счастью, есть надежда. Андерсон предполагает, что коллапс модели можно предотвратить, предлагая проблеск оптимизма на фоне опасений. Чтобы узнать больше о возможных решениях и о том, как избежать ухудшения качества онлайн-информации, мы рекомендуем вам продолжить изучение.
Хотя генеративный ИИ подает надежды, важно сохранять бдительность и решать возникающие проблемы. Понимая и снижая риски, связанные с крахом модели, мы можем работать над использованием преимуществ этой технологии, сохраняя при этом целостность информации в Интернете.
Подробнее об ИИ: