Спам-боты, управляемые GPT, бросают вызов онлайн-платформам

0 1

Отредактировано и проверено фактами

Коротко

Спам-боты, управляемые GPT, стали серьезной проблемой на таких платформах, как Twitter и Telegram, нацеленные на нежелательные рекламные акции.

Эти сложные программы искусственного интеллекта могут анализировать и воспроизводить контекст поста, делая их вмешательство более органичным и трудным для идентификации.

Чтобы улучшить ваше взаимодействие с местным языком, иногда мы используем плагин автоматического перевода. Обратите внимание, что автоперевод может быть неточным, поэтому читайте оригинал статья для точной информации.

Появился новый тип помех в виде спам-ботов, управляемых GPT. Эти сложные программы искусственного интеллекта открыли новую страницу в сборнике спама, часто нацеливая сообщения на таких платформах, как Twitter и Telegram, с нежелательными рекламными акциями.

Спам-боты, управляемые GPT, бросают вызов онлайн-платформам

Отредактировано и проверено фактами

Эти GPT-спам-боты могут анализировать и воспроизводить контекст сообщения, что делает их вмешательство более естественным и трудным для обнаружения, чем обычный спам прошлого. Это ставит под сомнение традиционные защитные меры, поскольку многие из них неэффективны. В настоящее время этих ботов можно идентифицировать только по их быстрому времени отклика, что позволяет вручную вмешиваться и удалять их.

Постоянный шквал спама утомляет создателей и администраторов. Многие операторы каналов на таких платформах, как Telegram, заявили о своем желании иметь специализированный сервис, который может распознавать и удалять эти изощренные спам-комментарии в ответ на эту растущую потребность. Эти операторы, считающие себя «модераторами как услугой», готовы инвестировать в решение и выразили готовность платить 20–30 долларов в месяц или использовать модель выставления счетов на основе использования в зависимости от количества постов или сообщений. которые смотрят.

Однако на этом трудности не заканчиваются. Существует надвигающаяся волна GPT-спамеров, которые, как ожидается, станут еще более опытными по мере развития технологий, возможно, используя такие стратегии, как задержки ответа или использование различных личностей ИИ, которые взаимодействуют друг с другом. Различие между пользователями-людьми и ботами в таких обстоятельствах становится сложной задачей.

Сейчас читают:

Даже технические гиганты бьются над проблемой. OpenAI сделал шаг к решению этой проблемы, разработав детектор текста, предназначенный для идентификации контента, созданного ИИ. К сожалению, их усилия потерпели неудачу, поскольку проект был заморожен из-за низкой точности детектора. как сообщает TechCrunch в июле 2023 г..

Администраторы платформы не единственные, кого беспокоит увеличение количества спам-ботов, использующих GPT. Задача отделения аутентичного контента от материалов, созданных искусственным интеллектом, теперь стоит даже перед менеджерами социальных сетей и стартапами. Это обстоятельство подчеркивает острую необходимость и дает возможность для новых инициатив и проектов, которые могут создать эффективные решения для противодействия передовым методам спама современной эпохи.

Достижения в языковых моделях и последствия для дезинформации в Интернете

Пользователи отметили практичность и почти человеческую разговорную способность GPT. Однако те же самые возможности, которые вызвали восхищение, также вызывают опасения по поводу возможного неправильного использования.

Учитывая способность ИИ имитировать человеческие реакции, существуют опасения, связанные с его использованием в злонамеренных целях. Эксперты из научных кругов, кибербезопасности и ИИ подчеркивают потенциальное использование GPT злонамеренными лицами для распространения пропаганды или разжигания беспорядков на цифровых платформах.

Исторически сложилось так, что распространение дезинформации требовало значительного вмешательства человека. Внедрение усовершенствованных систем обработки языка может увеличить масштаб и охват операций влияния. таргетинг на социальные сети, что приводит к более адаптированным и, следовательно, потенциально более убедительным кампаниям.

Платформы социальных сетей в предыдущих случаях были свидетелями скоординированных усилий по распространению дезинформации. Например, в преддверии выборов в США в 2016 г. Агентство интернет-исследований, базирующееся в Санкт-Петербурге, запустил масштабную кампанию. Их цель, как установил сенатский комитет по разведке в 2019 году, должно было повлиять на отношение электората к кандидатам в президенты.

В январском отчете подчеркивается, что появление языковых моделей, управляемых искусственным интеллектом, может увеличить распространение вводящего в заблуждение контента. Контент может не только увеличиваться в объеме, но и улучшаться в убедительном качестве, из-за чего обычным интернет-пользователям будет сложно распознать его подлинность.

Джош Голдштейн, связанный с Джорджтаунским центром безопасности и новых технологий и участвовавший в исследовании, упомянул способность генеративных моделей создавать большие объемы уникального контента. Такая возможность может позволить лицам со злым умыслом распространять различные рассказы, не прибегая к повторяющемуся контенту.

Несмотря на усилия таких платформ, как Telegram, Twitter и Facebook противодействуют фейковым аккаунтамэволюция языковых моделей угрожает насытить эти платформы более обманчивыми профилями. Винсент Конитцер, профессор информатики Университета Карнеги-Меллона, отметил, что передовые технологии, такие как ChatGPT, может значительно увеличить распространение поддельных профилей, что еще больше стирает границы между настоящими пользователями и автоматизированными учетными записями.

Недавние исследования, в том числе статья г-на Гольдштейна и отчет охранной фирмы WithSecure Intelligence, подчеркнули мастерство генеративные языковые модели в создании вводящих в заблуждение новостных статей. Эти ложные рассказы, когда они распространяются социальные платформы, может повлиять на общественное мнение, особенно в решающие избирательные периоды.

Рост дезинформации, которому способствуют передовые системы искусственного интеллекта, такие как Chat-GPT, ставит вопрос: должны ли онлайн-платформы принимать более активные меры? Хотя некоторые утверждают, что платформы должны строго помечать сомнительный контент, проблемы сохраняются. Луис А. Нуньес Амарал, сотрудник Северо-Западного института сложных систем, прокомментировал проблемы платформ, сославшись как на стоимость мониторинга каждого поста, так и на непреднамеренный рост вовлеченности, который вызывают такие разногласия.

Подробнее об ИИ:

Источник

Оставьте ответ