💬 Как криптовалюта может помочь защитить ИИ

Как криптовалюта может помочь защитить ИИ 👑 Premium-робот: получай более 20-ти торговых идей в день!
Размер текста

Как криптовалюта может помочь защитить ИИ

И криптовалюта, и ИИ добились значительного прогресса за последние несколько лет.

Криптовалюта праздновала такие успехи, как DeFi и совсем недавно DeSci.

ИИ отпраздновал такие успехи, как AlphaFold2 и совсем недавно ChatGPT.

Еще в 2018 году Питер Тиль указал на противоречия между децентрализующими силами криптографии и централизующими силами ИИ, придумав термин «Криптовалюта либертарианская, ИИ коммунистическая». Здесь я хочу доказать, что мы можем чему-то научиться, объединив их.

Почему? Потому что навыки и подходы, отточенные сообществом безопасности и криптографии, могут открыть полезные приложения ИИ и снизить риски ИИ.

Эллисон Дуэттманн — президент и главный исполнительный директор Foresight Institute. Она руководит программами интеллектуального сотрудничества, молекулярных машин, биотехнологий и здравоохранения, нейротехнологий и космических программ, стипендий, премий и деревьев технологий и делится этой работой с общественностью.

Мы все умрем?

Элиэзер Юдковски, выдающийся деятель в области безопасности ИИ, недавно неожиданно появился в подкасте Bankless Podcast, явно подкасте Web3.

Это было удивительно по двум причинам:

Во-первых, Элиезер считает, что мы находимся на быстром пути к разработке искусственного общего интеллекта (ИИО), который может выполнять практически все задачи, которые делают люди, и что такой ОИИ, скорее всего, убьет нас всех.

Во-вторых, когда его спросили, можно ли что-нибудь сделать, чтобы увеличить крошечный шанс на выживание, он призвал людей, ориентированных на безопасность и криптографию, с сильным мышлением в области безопасности, приложить руку к настройке ИИ.

Давайте распакуем это. Во-первых, мы обсудим, почему мы должны беспокоиться об AGI, прежде чем углубиться в обещания, которые крипто (здесь имеется в виду в первую очередь криптография) и сообщество безопасности для смягчения некоторых опасностей AGI.

Безопасность ИИ: сложнее, чем вы думаете?

Любой, кто недавно просматривал новости, может подтвердить, что ни одна неделя не проходит без резкого ускорения прогресса в области ИИ. Если вы пропустили это, вот только три важных события:

Во-первых, наблюдается стремление к большей централизации ИИ, например, Microsoft инвестирует в OpenAI, Google инвестирует в Anthropic, конкурента OpenAI, а DeepMind и Google Brain сливаются в одну организацию.

Подробнее: Майкл Дж. Кейси - Почему Web3 и AI-Интернет должны быть вместе

Во-вторых, был толчок к более универсальному ИИ. В недавней статье «GPT4: Искры общего искусственного интеллекта» показано, как GPT-4 уже демонстрирует первые примеры теории разума — меры, обычно используемой для оценки человеческого интеллекта.

В-третьих, в системах искусственного интеллекта наблюдается стремление к большей активности, поскольку AutoGPT становится более агентным, повторно побуждая себя выполнять более сложные задачи.

Еще в декабре Metaculus, платформа для прогнозирования, предсказала появление ОИИ примерно в 2039 году. Теперь, в мае, это 2031 год — другими словами, восьмилетнее падение временной шкалы в пределах пяти месяцев развития ИИ.

Если мы воспримем эти события как признаки того, что мы находимся на пути к искусственному общему интеллекту, следующий вопрос: почему безопасность ОИИ считается такой сложной?

Возможно, мы можем разбить проблему безопасности ОИИ на три подпроблемы:

Согласование: как мы можем привести ИИ в соответствие с человеческими ценностями?

Согласование ИИ — это простой вопрос о том, как заставить ИИ соответствовать нашим ценностям. Но легко забыть, что мы даже не согласны с нашими ценностями. На заре цивилизации как философы, так и простые смертные спорили об этике, приводя убедительные доводы со всех сторон. Вот почему наша нынешняя цивилизация пришла в основном к ценностному плюрализму (идее мирного сосуществования людей с конфликтующими ценностями). Это работает для разнообразия человеческих ценностей, но его сложно реализовать в одном искусственно интеллектуальном агенте.

Давайте на милую минутку представим, что мы примерно знали, какими моральными ценностями оснастить ОИИ. Затем нам нужно передать эти человеческие ценности основанной на кремнии сущности, которая не разделяет человеческую эволюцию, архитектуру разума или контекст. Когда люди координируют свои действия с другими людьми, мы можем полагаться на множество общих имплицитных фоновых знаний, поскольку мы разделяем биологию нашего вида, историю эволюции и часто даже некоторый культурный контекст. С ИИ мы не можем полагаться на такой общий контекст.

Подробнее: Майкл Дж. Кейси - Урок Web2 для ИИ: децентрализация для защиты человечества

Другая проблема заключается в том, что для достижения любой цели, как правило, полезно быть живым и приобретать больше ресурсов. Это означает, что ИИ, настроенный на достижение конкретной цели, может сопротивляться отключению и искать все больше и больше ресурсов. Учитывая бесчисленные возможности, с помощью которых ИИ может достичь целей, включая человеческие травмы, пренебрежение, обман и многое другое, а также учитывая, насколько сложно предсказать и указать все эти ограничения заранее надежным способом, работа по техническому согласованию сложна. .

Компьютерная безопасность

Даже если люди договорятся о наборе значений и придумают, как технически согласовать с ними ОИИ, мы все равно не можем ожидать, что он будет работать надежно, без доказательства того, что базовое программное и аппаратное обеспечение сами по себе надежны. Учитывая значительное преимущество, которое AGI дает своим создателям, злоумышленники могут саботировать или перепрограммировать AGI.

Кроме того, непреднамеренная ошибка может помешать выполнению цели ОИИ, или ОИИ может сам использовать уязвимости в своем собственном коде, например, перепрограммируя себя опасным образом.

К сожалению, мы построили всю сегодняшнюю многотриллионную экосистему на ненадежном кибероснове. Большая часть нашей физической инфраструктуры основана на взламываемых системах, таких как электросеть, наши технологии ядерного оружия. В будущем даже небезопасные беспилотные автомобили и автономные дроны можно будет взломать, чтобы превратить в ботов-убийц. Нарастающие кибератаки, такие как Sputnick или Solarwinds, серьезны, но могут быть безобидными по сравнению с потенциальными будущими атаками с использованием AG. Отсутствие у нас осмысленного ответа на эти атаки говорит о том, что мы не справимся с задачей обеспечения безопасности с помощью AGI, что может потребовать перестройки большей части нашей небезопасной инфраструктуры.

Координация

Для достижения прогресса в согласовании и безопасности ОИИ может потребоваться время, поэтому важно, чтобы участники, создающие ОИИ, координировали свои действия на этом пути. К сожалению, стимулировать основных участников ИИ (это могут быть кооперации или национальные государства) к сотрудничеству и избегать стимулирования динамики гонки вооружений, чтобы первыми добраться до ОИИ, не так просто. Катастрофа требует, чтобы только один участник отступил от соглашения, а это означает, что даже если все остальные будут сотрудничать, если кто-то мчится вперед, он получает решающее преимущество. Это преимущество первопроходца сохраняется до тех пор, пока не будет создан ОИИ и не будет предоставлена ​​мощь, которую единое развертывание системы ОИИ может дать ее владельцу, и владельцу трудно отказаться от этого искушения.

Безопасный многополярный ИИ

Возможно, вы до сих пор кивали: да, конечно, безопасность ИИ действительно сложна. Но при чем здесь криптовалюта?

Учитывая быстрые темпы развития ИИ и трудности с обеспечением его безопасности, традиционную озабоченность вызывает то, что мы движемся к одноэлементному сценарию ОИИ, в котором ОИИ вытесняет человеческую цивилизацию как общую структуру, имеющую отношение к интеллекту, и доминирует над миром. потенциально убивая человечество по пути.

Используя технологии и навыки в сообществах безопасности и криптографии, мы можем изменить курс, чтобы вместо этого следовать многополярному сценарию сверхразума, в котором сети людей и ИИ надежно сотрудничают, чтобы объединить свои локальные знания в коллективный сверхразум цивилизации.

Это большое абстрактное утверждение, поэтому давайте разберемся, как именно сообщества криптографов и специалистов по безопасности могут помочь укротить риски ИИ и раскрыть красоту ИИ, открывая новые приложения.

Как безопасность и криптография могут снизить риски ИИ?

Красная команда

Пол Кристиано, авторитетный исследователь безопасности ИИ, предполагает, что ИИ отчаянно нуждается в большем количестве «красных команд» — термин, обычно используемый в компьютерной безопасности для обозначения симулированных кибератак. Красные команды в контексте ИИ могут, например, использоваться для поиска входных данных, которые вызывают катастрофическое поведение в системах машинного обучения.

Red-teaming — это тоже то, с чем у криптосообщества есть опыт. И Биткойн, и Эфириум развиваются в среде, которая постоянно подвергается атакам со стороны противника, потому что небезопасные проекты представляют собой эквивалент многомиллионных криптовалютных «баунти-баунти».

Непуленепробиваемые системы исключаются, и в экосистеме остается только больше пуленепробиваемых систем. Криптопроекты проходят определенный уровень состязательного тестирования, что может послужить хорошим источником вдохновения для систем, способных противостоять кибератакам, способным разрушить обычное программное обеспечение.

Защита от сговора

Вторая проблема ИИ заключается в том, что несколько появляющихся ИИ могут в конечном итоге вступить в сговор, чтобы свергнуть человечество. Например, «Безопасность ИИ через дебаты», популярная стратегия выравнивания, опирается на то, что два ИИ обсуждают темы друг с другом, а судья-человек решает, кто победит. Тем не менее, одна вещь, которую человеческий судья не может исключить, заключается в том, что оба ИИ вступают в сговор против нее, и ни один из них не продвигает истинный результат.

Опять же, у криптографии есть опыт предотвращения проблем со сговором, таких как атака Сивиллы, которая использует один узел для управления множеством активных поддельных идентификаторов, чтобы тайно получить большую часть влияния в сети. Чтобы избежать этого, в криптографии проводится значительный объем работ по разработке механизмов, и некоторые из них могут также извлечь полезные уроки для сговора ИИ.

Сдержки и противовесы

Другой многообещающий подход к обеспечению безопасности, который в настоящее время исследуется конкурентом OpenAI, Anthropic, — это «Конституционный ИИ», в котором один ИИ наблюдает за другим ИИ, используя правила и принципы, заданные человеком. Это вдохновлено дизайном Конституции США, который устанавливает конфликтующие интересы и ограниченные средства в системе сдержек и противовесов.

Опять же, сообщества специалистов по безопасности и криптографии хорошо разбираются в механизмах сдержек и противовесов, подобных конституции. Например, принцип безопасности POLA — принцип наименьшего авторитета — требует, чтобы объект имел доступ только к наименьшему количеству информации и ресурсов, необходимых для выполнения его работы. Полезный принцип, который следует учитывать и при создании более продвинутых систем ИИ.

Это всего лишь три примера из многих, дающих представление о том, как образ мышления в области безопасности, характерный для сообществ безопасности и криптографии, может помочь в решении проблем с согласованием ИИ.

Как криптография и безопасность могут раскрыть красоту ИИ?

В дополнение к проблемам безопасности ИИ, в решении которых вы можете попробовать свои силы, давайте рассмотрим несколько случаев, в которых инновации в области криптобезопасности могут не только помочь укротить ИИ, но и раскрыть его красоту, например, задействовав новые полезные приложения.

ИИ, сохраняющий конфиденциальность

Есть несколько областей, которые традиционный ИИ не может затронуть, в частности, решение проблем, требующих конфиденциальных данных, таких как информация о здоровье людей или финансовые данные, которые имеют строгие ограничения конфиденциальности.

К счастью, как отметил исследователь криптографии Георгиос Кайссис, это области, в которых криптографические и вспомогательные подходы, такие как федеративное обучение, дифференциальная конфиденциальность, гомоморфное шифрование и т. д., блестят. Эти новые подходы к вычислениям могут работать с большими наборами конфиденциальных данных, сохраняя при этом конфиденциальность, и, таким образом, имеют сравнительное преимущество перед централизованным ИИ.

Использование местных знаний

Еще одна область, с которой борется традиционный ИИ, — это поиск местных знаний, которые часто требуются для решения крайних случаев в машинном обучении (ML), которые большие данные не могут понять.

Криптоэкосистема может помочь с предоставлением локальных данных путем создания торговых площадок, на которых разработчики могут использовать стимулы для привлечения более качественных локальных данных для своих алгоритмов. Например, соучредитель Coinbase Фред Эрсам предлагает сочетать частное машинное обучение, которое позволяет обучать конфиденциальные данные, со стимулами на основе блокчейна, которые привлекают более качественные данные на рынки данных на основе блокчейна и машинного обучения. Хотя может быть нецелесообразно или небезопасно открывать исходный код для фактического обучения моделей ML, рынки данных могут платить создателям за справедливую долю их вклада данных.

Зашифрованный ИИ

В более долгосрочной перспективе можно даже использовать криптографические подходы для создания более безопасных и мощных систем ИИ.

Например, исследователь криптографии Эндрю Траск предлагает использовать гомоморфное шифрование для полного шифрования нейронной сети. Если это возможно, это означает, что интеллект сети будет защищен от кражи, что позволит участникам сотрудничать для решения конкретных проблем, используя свои модели и данные, не раскрывая входные данные.

Но что более важно, если ИИ гомоморфно зашифрован, то внешний мир воспринимается им как зашифрованный. Человек, который контролирует секретный ключ, может разблокировать индивидуальные прогнозы, которые делает ИИ, вместо того, чтобы выпускать ИИ на волю.

Опять же, это всего лишь три примера из потенциально многих, в которых криптография может открыть новые варианты использования ИИ.

Собираем кусочки вместе

Централизованный ИИ страдает от единых точек отказа. Это не только объединило бы сложный плюрализм человеческих ценностей в одну целевую функцию. Он также подвержен ошибкам, внутренней коррупции и внешним атакам. С другой стороны, защищенные многополярные системы, созданные сообществом специалистов по безопасности и криптографии, имеют большие перспективы; они поддерживают плюрализм ценностей, могут обеспечить «красную команду», систему сдержек и противовесов и являются антихрупкими.

Недостатков у криптографических систем также предостаточно. Например, криптография требует прогресса в децентрализованном хранении данных, функциональном шифровании, состязательном тестировании и вычислительных узких местах, которые делают эти подходы по-прежнему чрезмерно медленными и дорогими. Кроме того, децентрализованные системы также менее стабильны, чем централизованные системы, и подвержены влиянию мошенников, у которых всегда есть стимул вступить в сговор или иным образом свергнуть систему, чтобы доминировать над ней.

Тем не менее, учитывая высокую скорость ИИ и относительную нехватку специалистов по безопасности и криптографии в ИИ, возможно, еще не слишком рано задуматься о том, можете ли вы внести значимый вклад в ИИ, привнося некоторые из обсуждаемых здесь преимуществ на стол.

Обещание безопасного многополярного ИИ было хорошо сформулировано Эриком Дрекслером, пионером в области технологий, еще в 1986 году: «Примеры того, что мемы контролируют мемы, и институты, контролирующие институты, также предполагают, что системы ИИ могут управлять системами ИИ».

Ограничение / снятие ответственности (дисклеймер): Вся информация на этом сайте предоставляется исключительно в информационных целях и не является предложением или рекомендацией к покупке, продаже или удержанию каких-либо ценных бумаг, акций или других финансовых инструментов. Авторы контента не несут ответственности за действия пользователей, основанные на предоставленной информации. Пользователи обязаны самостоятельно оценивать риски и проконсультироваться со специалистами перед принятием каких-либо инвестиционных решений. Вся информация на сайте может быть изменена без предварительного уведомления.

Свежие новости по теме: Криптовалюта, NFT и криптобиржи

🚀