Виталик Бутерин выделяет конфиденциальность как столп децентрализации в цифровую эпоху

0 0

Коротко

Виталик Бутерин опубликовал статью, в которой изложил свою точку зрения на то, почему конфиденциальность остается важнейшим компонентом децентрализованных систем, предложив философское и техническое обоснование этой позиции.


                Виталик Бутерин выделяет конфиденциальность как столп децентрализации в цифровую эпоху

Соучредитель Ethereum Виталик Бутерин опубликовал статью, в которой изложил свою точку зрения на то, почему конфиденциальность остается критически важным компонентом децентрализованных систем, предлагая философскую и техническую основу для этой позиции. По его словам, конфиденциальность играет жизненно важную роль в защите децентрализации, поскольку контроль над информацией часто напрямую трансформируется во власть. Без механизмов, которые защищают данные пользователей, существует риск того, что централизованные субъекты могут получить непропорциональное влияние на цифровые экосистемы.

Он отмечает, что достижения в области ИИ ускоряют сбор и обработку персональных данных, часто способами, которые люди могут не осознавать в полной мере. Эта растущая способность к наблюдению — в сочетании с будущими разработками, такими как интерфейсы мозг-компьютер — вызывает опасения относительно того, насколько глубоко внешние системы могут проникнуть в личное пространство, возможно, даже до такой степени, что будут интерпретировать мысли. В то же время криптографические технологии развиваются быстро, предоставляя пользователям более мощные инструменты, чем когда-либо прежде, для защиты своих политикой конфиденциальности. онлайн. Такие методы, как доказательства с нулевым разглашением (ZK-SNARK), полностью гомоморфное шифрование (FHE) и появляющиеся формы сокрытия данных, открывают новые возможности для безопасного, приватного взаимодействия, сохраняющего как анонимность, так и проверяемость.

В своей статье Виталик Бутерин излагает три основные причины, по которым он считает конфиденциальность необходимой: она поддерживает индивидуальную свободу, позволяя людям делать выбор без внешнего осуждения; она поддерживает общественную стабильность, поддерживая необходимые границы внутри систем; и она способствует инновациям, обеспечивая безопасный, избирательный обмен данными, который не ставит под угрозу безопасность или этику.

Он идет дальше, утверждая, что сама по себе конфиденциальность может быть движущей силой общественного прогресса. Используя программируемую криптографию, можно разрабатывать гибкие системы, которые управляют тем, как данные передаются или скрываются на основе конкретных потребностей. Например, доказательства с нулевым разглашением (ZKP) могут позволить пользователям продемонстрировать, что они являются уникальными личностями, не раскрывая свою личность, что может быть полезно для борьбы с ботами или обеспечения соблюдения ограничений использования без ущерба для анонимности. 

Он также выделяет практические приложения, такие как Privacy Pools — финансовые инструменты, сохраняющие конфиденциальность, которые могут помочь идентифицировать незаконных участников без создания бэкдоров для слежки. В этой модели пользователи могут доказать, что их средства не происходят из источников, занесенных в черный список, что делает систему как частной, так и подотчетной. Другие примеры включают в себя системы защиты от мошенничества на устройствах, которые фильтруют сообщения без загрузки персональных данных на внешние серверы, и проверку цепочки поставок на основе блокчейна с использованием ZKP для подтверждения происхождения продукта без раскрытия конфиденциальных данных. 

Содержание:

Риски конфиденциальности и решения в эпоху искусственного интеллекта 

Виталик Бутерин далее прокомментировал состояние конфиденциальности в эпоху ИИ. Он отметил, что ChatGPT недавно анонсировала функцию, которая позволяет ИИ использовать прошлые разговоры пользователей в качестве контекстной ссылки в будущих взаимодействиях. Хотя эта разработка повышает способность системы предоставлять более релевантные ответы, она также отражает более широкий сдвиг в траектории ИИ — в сторону более глубокой интеграции с персональными данными. Потенциальные преимущества этого подхода велики, поскольку анализ предыдущих взаимодействий может помочь адаптировать будущие обмены к индивидуальным предпочтениям. Однако это также поднимает сложные вопросы о конфиденциальности и доверии в цифровую эпоху.

Заглядывая вперед, он считает вероятным, что некоторые инструменты ИИ начнут собирать все больше личной информации, включая онлайн-поведение, историю общения и даже биометрические данные. Хотя компании часто заявляют, что эти данные остаются конфиденциальными, реальность не всегда соответствует идеалу. Один из упомянутых инцидентов касался того, что пользователь получил вопрос, предназначенный для кого-то другого, возможно, из-за системной ошибки. Неясно, было ли это подлинным нарушением конфиденциальности или галлюцинацией ИИ, который сфабриковал вопрос и ответ. В любом случае, такие ситуации подчеркивают, насколько сложно может быть независимо проверить, как на самом деле используются пользовательские данные — или используются ли они вообще для обучения модели.

Сейчас читают:

Опасения становятся еще более серьезными, когда ИИ используется для широкомасштабного наблюдения без согласия. Такие технологии, как распознавание лиц, уже используются правительствами для наблюдения за гражданами и подавления инакомыслия, демонстрируя, как быстро эти инструменты могут быть перепрофилированы таким образом, что это поставит под угрозу индивидуальные свободы. Однако самая тревожная граница еще впереди: возможное использование ИИ для интерпретации человеческих мыслей и поведения на беспрецедентном уровне.

Это привело к спекуляциям о двух противоположных вариантах будущего. В одном случае ИИ превращается во всемогущую силу, постоянно анализирующую персональные данные — как люди пишут, ведут себя и думают — во всех аспектах их жизни. В другом случае конфиденциальность сохраняется за счет осознанного выбора дизайна, что позволяет обществам извлекать выгоду из ИИ, не жертвуя автономией или достоинством.

Существует несколько перспективных стратегий для поддержки этого более сбалансированного пути. Одна из них предполагает локальное выполнение вычислений на устройстве пользователя, а не использование внешних серверов. Многие повседневные задачи ИИ, такие как транскрипция голоса или распознавание изображений, могут эффективно выполняться таким образом, что повышает как скорость, так и конфиденциальность. Локальная обработка также может устранить необходимость обмена данными по сетям, что снижает подверженность потенциальным нарушениям.

Другое решение заключается в передовых криптографических методах, таких как FHE, которые позволяют выполнять вычисления на зашифрованных данных без необходимости их предварительной расшифровки. Хотя FHE когда-то считался непрактичным из-за высоких вычислительных затрат, он становится все более жизнеспособным, особенно для задач, включающих большие языковые модели (LLM), которые структурно подходят для оптимизированной реализации. Когда в вычислении участвуют несколько сторон, безопасные многосторонние вычисления и связанные с ними методы, такие как искаженные схемы, могут гарантировать, что ни одна сторона не получит доступ к закрытым входам.

Наконец, критически важно обеспечить прозрачность самого оборудования. Например, устройства, способные интерпретировать данные мозга, должны соответствовать стандартам с открытым исходным кодом и внешней проверке. Такие технологии, как IRIS, могут помочь подтвердить, что устройства функционируют так, как обещано. Этот же принцип можно применить и в других местах, например, камеры наблюдения, запрограммированные на удаление отснятого материала, если только они не вызваны определенными событиями, такими как чрезвычайные ситуации или акты насилия, с рандомизированными проверками сообщества для проверки соответствия.

В совокупности эти подходы иллюстрируют, что можно заниматься инновациями в области ИИ, сохраняя при этом надежную защиту персональных данных. Задача не только техническая, но и этическая, требующая осознанных решений о том, насколько далеко общество готово зайти в достижении баланса между полезностью и конфиденциальностью.

Баланс между конфиденциальностью и наблюдением в технологически развитом обществе

В своей книге 2008 года «Несовершенное будущее» либертарианский мыслитель Дэвид Фридман предложил спекулятивные идеи о том, как новые технологии могут изменить общество. Одной из тем, которую он исследовал, была развивающаяся связь между конфиденциальностью и наблюдением. Он представил себе возможное будущее, в котором возросшая цифровая конфиденциальность может уравновесить растущее присутствие наблюдения в физических пространствах. Это взаимодействие, хотя и сложное, потенциально может привести к обществу, которое выиграет от сокращения физического насилия, не жертвуя основными свободами, которые конфиденциальность — особенно в цифровой среде — помогает поддерживать.

Видение Фридмана предполагает, что такой мир, хотя и не идеален, может быть одним из лучших результатов. Это был бы мир, в котором гражданские свободы, открытый дискурс и индивидуальная автономия остаются нетронутыми, защищенными от чрезмерного влияния путем поддержания степени непрозрачности, которая позволяет социальным, политическим и интеллектуальным системам функционировать без постоянного воздействия. Это резко контрастирует с более антиутопической альтернативой, где конфиденциальность разрушается как в физической, так и в цифровой сферах, возможно, даже распространяясь на когнитивную конфиденциальность. В этом сценарии нормализация навязчивого наблюдения может достичь кульминации в будущем, где сами мысли будут контролироваться под видом правовых или безопасных рамок — результат, который может вызвать общественную реакцию только после того, как катастрофические утечки или утечки данных раскроют всю степень этих вторжений.

Баланс между конфиденциальностью и прозрачностью уже давно является основополагающим элементом функционирующих обществ. Хотя некоторые ограничения конфиденциальности могут быть оправданы, более широкая проблема заключается в поддержании равновесия. Например, определенные политические шаги — такие как стремление устранить пункты о неконкуренции в трудовых договорах — можно рассматривать как конструктивные ограничения корпоративной конфиденциальности. Такие меры могут заставить компании более свободно делиться институциональными знаниями, косвенно способствуя большей инновационности и экономической мобильности. Хотя это действительно представляет собой сокращение конфиденциальности со стороны корпораций, можно утверждать, что общественные выгоды перевешивают издержки.

Однако, если смотреть вперед, то большей угрозой могут оказаться не такие изолированные компромиссы, как эти, а скорее системный дисбаланс. По мере развития технологий существует риск того, что могущественные субъекты — будь то правительства или крупные корпорации — получат все более глубокий доступ к персональным и поведенческим данным, в то время как общественность останется в неведении относительно того, как используется ее собственная информация или как принимаются решения от ее имени. Это неравенство грозит укрепить дисбаланс власти и подорвать доверие к институтам.

По этой причине обеспечение осмысленной, справедливой защиты конфиденциальности для всех людей становится ключевым приоритетом. Продвижение инструментов сохранения конфиденциальности, которые являются прозрачными, открытыми и доступными, — это не просто техническая задача, но и моральный императив, который может помочь определить, какое общество мы построим в грядущие десятилетия.

Источник

Оставьте ответ