OpenAI: ИИ потенциально может причинить много вреда людям, но пытаться остановить прогресс — не вариант

0 0

Отредактировано и проверено фактами

Коротко

Документ OpenAI «Планирование для AGI и не только» предлагает постепенное, медленное внедрение более сложных и «умных» моделей, организацию независимых аудитов больших систем и ограничение вычислительных ресурсов.

OpenAI хочет, чтобы ИИ был в равной степени открыт для всех и создавал более последовательные и управляемые модели чтобы уменьшить предвзятость и нежелательное поведение.

Чтобы улучшить ваше взаимодействие с местным языком, иногда мы используем плагин автоматического перевода. Обратите внимание, что автоперевод может быть неточным, поэтому читайте оригинал статья для точной информации.

OpenAI: ИИ потенциально может причинить много вреда людям, но пытаться остановить прогресс — не вариант

OpenAI недавно опубликовал документ под названием «Планирование AGI и не только». В нем излагаются общие идеи, которыми руководствуется компания в своих действиях по мере того, как мир приближается к разработке AGI (искусственного общего интеллекта).

OpenAI: ИИ потенциально может причинить много вреда людям, но пытаться остановить прогресс — не вариант

Отредактировано и проверено фактами

Рекомендуется: Как сделать контент ChatGPT и AI незаметным в 2023 году

OpenAI считает, что, хотя ИИ может причинить значительный вред людям, попытки остановить прогресс невозможны. В результате мы должны научиться поддерживать это улучшение, чтобы оно существенно не ухудшилось.

Документ можно найти здесь. Выделим из него несколько важных элементов:

  • OpenAI хочет, чтобы AGI помогал людям преуспевать во всех аспектах их жизни, как в экономическом, так и в научном плане.
    Вместо того, чтобы создавать суперкрутой большой ИИ и тут же выпускать его в мир, OpenAI будет постепенно вводить более сложные и «умные» модели. Предполагается, что постепенно увеличивающиеся возможности ИИ не шокируют мир, давая людям время на то, чтобы приспособиться, адаптировать экономику и выстроить процедуры взаимодействия с ИИ.
  • OpenAI предлагает всем организациям официально принять вышеупомянутый принцип (постепенно внедрять мощный ИИ). Альтман также рекомендует ограничить количество вычислительных ресурсов, которые могут использоваться для обучения моделей, и организовать беспристрастный аудит основных систем, прежде чем они станут доступны для широкой публики. Вместо того, чтобы участвовать в соревнованиях типа «кто первым выкатит более крутую и крупную модель?» OpenAI просит предприятия работать вместе повысить безопасность ИИ.
  • OpenAI считает крайне важным, чтобы правительства были проинформированы о тренировках, которые превышают определенный масштаб. Это интригующая концепция, и мы хотели бы узнать больше о планы OpenAI имеет в связи с этим. Сначала это предложение не кажется мне таким уж замечательным.
  • OpenAI попытается разработать более надежные и управляемые модели, которые, скорее всего, ограничат предвзятость и неблагоприятное поведение в ИИ. Подход, используемый OpenAI в этом случае, заключается в том, чтобы сделать модель доступной для широкой публики в очень ограниченной форме, а также предоставить пользователям возможность персонализировать ее. Поскольку потребители не смогут ничего там «персонализировать», я не уверен, как это поможет модели в целом стать менее предвзятой. Если только это не освобождает фирму от ответственности за действия модели.
  • В целом документ указывает на правильное направление. Однако возник небольшой конфликт между «не будем сразу показывать крутые модели публике, а будем говорить о них штатам» и «люди должны знать о прогрессе ИИ». Короче, будем ждать подробных разъяснений от OpenAI по всем темам.

    Подробнее об ИИ:

    Источник

    Оставьте ответ

    Ваш электронный адрес не будет опубликован.