Anthropic предлагает «контекстный ИИ» для моделей чата на основе 60 принципов
Отредактировано и проверено фактами
Коротко
OpenAI использует обучение с подкреплением на основе отзывов людей (RLHF) для согласования языковые модели с человеческими принципами, безопасностью и полезностью.
Компания Anthropic предложила альтернативный подход: контекстуальный ИИ, в котором люди пишут конституцию, которой должна следовать модель.
Эта конституция основана на Декларации прав человека Организации Объединенных Наций, Условиях предоставления услуг Apple, Принципах, поощряющих рассмотрение незападных точек зрения.
Компания Anthropic предложила новый подход к обучению моделей чата с использованиемКонституционный ИИ’. Этот метод основан на OpenAI. усиление обучения на основе отзывов людей, но основывается на них, избегая необходимости писать образцы для глубокого обучения. Вместо этого модель обучается реагировать на входные данные с помощью конституции, которая должна действовать как набор законов, которым должна следовать модель.
Отредактировано и проверено фактами
Рекомендуется: Бывшие сотрудники OpenAI основали бизнес Anthropic, который привлек финансирование на сумму более 700 миллионов долларов. |
С помощью этого метода ИИ может генерировать свои собственные обучающие образцы, оценивая то, что он сказал, по сравнению с набором юридически принятых принципов. Этот способ экономии времени можно рассматривать как Айзек Азимов«s Законы робототехники реализовать на практике.
Принципов, лежащих в основе модели, слишком много, чтобы обсуждать их подробно. Однако они охватывают многие темы, такие как мораль, неприятие риска, экономика и искусственный интеллект. Каждый из них был разработан, чтобы помочь ИИ принимать решения, когда дело доходит до ответов на диалоговые подсказки.
Anthropic удалось эффективно обучить модель ИИ по имени Клод, которая успешно конкурирует с ChatGPT от OpenAI. Используя Метод Конституции-ИИ, Клод может отвечать на диалоговые подсказки с впечатляющей точностью, но ожидаются дополнительные улучшения, поскольку Anthropic продолжает развивать эту революционную технологию.
Действительно, этот новый подход может сэкономить время и деньги для компаний, которым больше не нужно создавать собственные обучающие образцы. Скорее, этот «готовый» метод можно использовать в качестве основы для создания моделей, подогнанных под заказчика, — никаких знаний в области программирования не требуется. Также важно отметить, что эта технология обещает повысить безопасность диалоговых ботов. Создание набора юридически признанных принципов снижает риск ИИ становится изгоем.
Таким образом, Constituation AI обещает не только упростить и ускорить разработку модели чата, но и сделать ее более безопасной. Беспроигрышная ситуация как для мира искусственного интеллекта, так и для чат-ботов.
Аналитический взгляд на «контекстный ИИ» Anthropic для чат-ботов
Контекстный ИИ от Anthropic основан на включении более 60 принципов, вытекающих из Декларации прав человека Организации Объединенных Наций, Условий обслуживания Apple, Принципов, поощряющих рассмотрение незападных точек зрения, Глубокий разум Правила Воробья и наборы 1 и 2 антропных исследований.
Тот факт, что ИИ теперь можно научить вести себя в соответствии с принципами, полученными из такого обширного и разнообразного множества источников, действительно примечателен. Например, за счет включения принципов Декларации прав человека Организации Объединенных Наций ответы чат-ботов теперь отражают важность сохранения понятий свободы, равенства и братства. Такие принципы являются жизненно важным компонентом обеспечения того, чтобы разговоры с чат-ботами оставались этичными и уважительными. Аналогичным образом включение Условий обслуживания Apple обеспечивает Chatbot учитывает интересы конфиденциальности своих пользователей.
Принципы, поощряющие рассмотрение незападных точек зрения, также играют важную роль в модели «контекстного ИИ». Эти принципы отражают необходимость уважения ИИ к другим культурам и гарантируют, что ответы чат-ботов не будут восприниматься как вредные или оскорбительные. Точно так же правила Sparrow от Deepmind требуют, чтобы чат-бот отвечал ответами, предназначенными для установления отношений с пользователем.
Включение Anthropic Research Set 1 и Set 2 обеспечивает окончательную гарантию того, что разговоры с ИИ останутся вежливыми и уважительными. ИИ обучен отвечать на вопросы вдумчиво и вежливо.
В целом, модель «Контекстный ИИ» от Anthropic — это невероятно важный прорыв в области Исследования ИИ. Позволяя обучать ИИ в соответствии с принципами, полученными из такого разнообразия источников, значительно улучшаются этические последствия автоматизированных разговоров.
Подробнее об ИИ: