OpenAI: ИИ потенциально может причинить много вреда людям, но пытаться остановить прогресс — не вариант
Отредактировано и проверено фактами
Коротко
Документ OpenAI «Планирование для AGI и не только» предлагает постепенное, медленное внедрение более сложных и «умных» моделей, организацию независимых аудитов больших систем и ограничение вычислительных ресурсов.
OpenAI хочет, чтобы ИИ был в равной степени открыт для всех и создавал более последовательные и управляемые модели чтобы уменьшить предвзятость и нежелательное поведение.
Чтобы улучшить ваше взаимодействие с местным языком, иногда мы используем плагин автоматического перевода. Обратите внимание, что автоперевод может быть неточным, поэтому читайте оригинал статья для точной информации.
OpenAI недавно опубликовал документ под названием «Планирование AGI и не только». В нем излагаются общие идеи, которыми руководствуется компания в своих действиях по мере того, как мир приближается к разработке AGI (искусственного общего интеллекта).
Отредактировано и проверено фактами
Рекомендуется: Как сделать контент ChatGPT и AI незаметным в 2023 году |
OpenAI считает, что, хотя ИИ может причинить значительный вред людям, попытки остановить прогресс невозможны. В результате мы должны научиться поддерживать это улучшение, чтобы оно существенно не ухудшилось.
Документ можно найти здесь. Выделим из него несколько важных элементов:
Вместо того, чтобы создавать суперкрутой большой ИИ и тут же выпускать его в мир, OpenAI будет постепенно вводить более сложные и «умные» модели. Предполагается, что постепенно увеличивающиеся возможности ИИ не шокируют мир, давая людям время на то, чтобы приспособиться, адаптировать экономику и выстроить процедуры взаимодействия с ИИ.
В целом документ указывает на правильное направление. Однако возник небольшой конфликт между «не будем сразу показывать крутые модели публике, а будем говорить о них штатам» и «люди должны знать о прогрессе ИИ». Короче, будем ждать подробных разъяснений от OpenAI по всем темам.
Подробнее об ИИ: