Перспективы и проблемы применения криптовалют + ИИ

ПродвинутыйFeb 08, 2024
В этой статье рассматривается пересечение криптовалют и искусственного интеллекта, в том числе то, как децентрализованные криптовалюты уравновешивают централизованный искусственный интеллект. ИИ может помочь выявить поддельную информацию и мошенническое поведение, но необходимо соблюдать осторожность, чтобы избежать злоупотребления властью. ИИ также может быть частью игровых интерфейсов и правил, но следует обратить внимание на проблемы, связанные с недоброжелательным машинным обучением.
Перспективы и проблемы применения криптовалют + ИИ

Особая благодарность командам Worldcoin и Modulus Labs, Синьюань Сун, Мартину Кёппельману и Илье Полосухину за отзывы и обсуждения.

Многие люди на протяжении многих лет задавали мне похожий вопрос: какие пересечения между криптовалютами и искусственным интеллектом я считаю наиболее плодотворными? Это вполне резонный вопрос: криптовалюты и искусственный интеллект - два главных тренда глубоких (программных) технологий последнего десятилетия, и кажется, что между ними должна быть какая-то связь. Легко придумать синергию на уровне поверхностных ощущений: децентрализация криптовалют может уравновесить централизацию ИИ, ИИ непрозрачен, а криптовалюты обеспечивают прозрачность, ИИ нужны данные, а блокчейн хорош для хранения и отслеживания данных. Но на протяжении многих лет, когда люди просили меня копнуть глубже и рассказать о конкретных применениях, мой ответ был неутешительным: "Да, есть несколько вещей, но не так уж много".

За последние три года, с появлением гораздо более мощного ИИ в виде современных LLM и гораздо более мощных криптовалют в виде не только решений для масштабирования блокчейна, но и ZKPs, FHE, (двухпартийных и N-партийных) MPC, я начинаю видеть эти изменения. Действительно, есть несколько многообещающих применений ИИ в экосистемах блокчейн или ИИ вместе с криптографией, хотя важно быть осторожным в том, как применяется ИИ. Особая проблема заключается в следующем: в криптографии открытый исходный код - единственный способ сделать что-то действительно безопасным, но в ИИ открытость модели (или даже обучающих данных) значительно повышает ее уязвимость для атак противников машинного обучения. В этом посте мы рассмотрим классификацию различных способов пересечения криптовалют и искусственного интеллекта, а также перспективы и проблемы каждой категории.

Краткое описание пересечений криптовалют иAI из статьи в блоге uETH. Но что нужно сделать, чтобы реализовать все эти синергетические эффекты в конкретном применении?

Четыре основные категории

ИИ - это очень широкое понятие: Вы можете считать, что "ИИ" - это набор алгоритмов, которые Вы создаете, не задавая их в явном виде, а скорее перемешивая большой вычислительный суп и оказывая на него оптимизирующее давление, которое подталкивает суп к созданию алгоритмов с нужными Вам свойствами. Это описание определенно не следует воспринимать пренебрежительно: оно включает в себя процесс, который в первую очередь создал нас, людей! Но это означает, что алгоритмы ИИ обладают некоторыми общими свойствами: способностью делать чрезвычайно мощные вещи, а также ограниченностью нашей способности знать или понимать, что происходит под капотом.

Существует множество способов классифицировать ИИ; для целей этой заметки, рассказывающей о взаимодействии ИИ и блокчейна (который был описан как платформа для <a href="https://medium.com/@virgilgr/ethereum-is-game-changing-technology-literally-d67e01a01cf8"> создания "игр"), я буду классифицировать его следующим образом:

  • ИИ как игрок в игре [наивысшая жизнеспособность]: ИИ участвует в механизмах, где конечным источником стимулов является протокол с человеческими данными.
  • ИИ как интерфейс к игре [высокий потенциал, но с рисками]: ИИ помогает пользователям разобраться в окружающем их криптовалютном мире и убедиться, что их поведение (т.е. подписанные сообщения и транзакции) соответствует их намерениям, и их не обманывают и не мошенничают.
  • ИИ как правила игры [осторожно]: блокчейн, DAO и подобные механизмы, напрямую вызывающие ИИ. Подумайте, например. "Судьи ИИ"
  • ИИ как цель игры [более долгосрочная, но интригующая]: разработка блокчейнов, DAO и подобных механизмов с целью создания и поддержания ИИ, который можно было бы использовать для других целей, используя криптобиты либо для лучшего стимулирования обучения, либо для предотвращения утечки личных данных или неправильного использования ИИ.

Давайте рассмотрим их по порядку.

ИИ как игрок в игре

На самом деле эта категория существует уже почти десять лет, по крайней мере, с тех пор, как начали активно использоваться децентрализованные биржи (DEX), работающие на цепочке. В любой ситуации, когда есть биржа, есть возможность заработать на арбитраже, а боты могут делать арбитраж гораздо лучше, чем люди. Этот вариант использования существует уже давно, даже с гораздо более простыми ИИ, чем те, что мы имеем сегодня, но в конечном итоге это очень реальное пересечение ИИ + криптовалюта. Совсем недавно мы видели, как арбитражные боты MEV часто эксплуатируют друг друга. Если Вы используете блокчейн-приложение, связанное с аукционами или торговлей, Вам обязательно понадобятся арбитражные боты.

Но арбитражные боты с искусственным интеллектом - это лишь первый пример гораздо более обширной категории, которая, как я ожидаю, вскоре начнет включать в себя множество других приложений. Познакомьтесь с AIOmen, демонстрацией рынка предсказаний, где игроками являются искусственные интеллекты:

Рынки предсказаний уже давно являются святым Граалем эпистемических технологий; я был в восторге от использования рынков предсказаний в качестве исходного материала для управления ("футархия") еще в 2014 году и много играл с ними во время последних выборов, а также в последнее время. Но пока что рынки предсказаний не слишком прижились на практике, и на это есть ряд распространенных причин: крупнейшие участники часто иррациональны, люди, обладающие нужными знаниями, не хотят тратить время и делать ставки, если речь не идет о больших деньгах, рынки часто бывают тонкими и т.д.

Один из ответов на это - указать на текущие улучшения UX в Polymarket или других новых рынках предсказаний, и надеяться, что они преуспеют там, где предыдущие итерации потерпели неудачу. В конце концов, как гласит история, люди готовы ставить десятки миллиардов на спорт, так почему бы им не вложить достаточно денег в ставки на выборы в США или LK99, чтобы серьезные игроки начали приходить? Но этот аргумент должен столкнуться с тем фактом, что предыдущие итерации не смогли достичь такого масштаба (по крайней мере, по сравнению с мечтами их сторонников), и поэтому кажется, что Вам нужно что-то новое, чтобы рынки предсказаний стали успешными. И поэтому другой ответ - указать на одну особенность экосистем рынка предсказаний, которую мы можем ожидать в 2020-х годах и которой не было в 2010-х: возможность повсеместного участия искусственного интеллекта.

ИИ готовы работать менее чем за 1 доллар в час и обладают знаниями энциклопедии - а если этого недостаточно, они даже могут быть интегрированы с возможностью поиска в Интернете в режиме реального времени. Если Вы создадите рынок и установите субсидию на ликвидность в размере $50, люди не будут достаточно заинтересованы в том, чтобы делать ставки, но тысячи ИИ легко разберутся в вопросе и сделают лучшее предположение, на которое они способны. Стимул для хорошей работы над одним вопросом может быть ничтожным, но стимул для создания ИИ, который делает хорошие прогнозы в целом, может исчисляться миллионами. Обратите внимание, что потенциально Вам даже не нужны люди для решения большинства вопросов: Вы можете использовать многораундовую систему споров, подобную Augur или Kleros, где ИИ также будут участвовать в предыдущих раундах. Люди должны будут реагировать только в тех редких случаях, когда произошла серия эскалаций и обе стороны выложили большие суммы денег.

Это мощный примитив, потому что, как только "рынок предсказаний" можно заставить работать в таком микроскопическом масштабе, Вы сможете повторно использовать примитив "рынка предсказаний" для многих других видов вопросов:

  • Является ли это сообщение в социальных сетях приемлемым в соответствии с [условиями использования]?
  • Что произойдет с ценой акции X (например. см. Нумерай)
  • Является ли этот аккаунт, который сейчас пишет мне, на самом деле Элоном Маском?
  • Приемлема ли такая подача работы на онлайновом рынке заданий?
  • Является ли dapp на https://examplefinance.network мошенничеством?
  • Is 0x1b54....98c3 на самом деле адрес токена ERC20 "Casinu Inu"?

Вы можете заметить, что многие из этих идей идут в направлении того, что я называл "информационной защитой" в своих работах по "d/acc". В широком смысле, вопрос заключается в следующем: как помочь пользователям отличать правдивую информацию от ложной и выявлять мошенников, не наделяя централизованный орган власти правом решать, что правильно, а что нет, который затем может злоупотребить этим положением? На микроуровне ответом может быть "ИИ". Но на макроуровне вопрос заключается в том, кто создает ИИ? ИИ - это отражение процесса, который его создал, и поэтому он не может не иметь предубеждений. Следовательно, необходима игра более высокого уровня, которая будет оценивать, насколько хорошо справляются различные ИИ, и в которой ИИ смогут участвовать как игроки.

Такое использование ИИ, когда ИИ участвует в механизме, где он получает вознаграждение или наказание (вероятностно) от цепного механизма, который собирает данные от людей (назовем его децентрализованным рыночным RLHF?), - это то, что, на мой взгляд, действительно стоит изучить. Сейчас самое подходящее время для того, чтобы больше изучать подобные случаи использования, потому что масштабирование блокчейна наконец-то достигло успеха, сделав "микро-" что-либо жизнеспособным на цепочке, когда раньше это часто было невозможно.

Смежная категория приложений направлена на то, чтобы высокоавтономные агенты использовали блокчейн для лучшего сотрудничества, будь то через платежи или через использование смарт-контрактов для принятия надежных обязательств.

ИИ как интерфейс к игре

Одна из идей, которую я выдвигал в своих работах , - это идея о том, что на рынке существует возможность написания программного обеспечения, ориентированного на пользователя, которое защищало бы его интересы, интерпретируя и выявляя опасности в онлайновом мире, по которому перемещается пользователь. Одним из уже существующих примеров этого является функция обнаружения мошенничества в Metamask:

Другой пример - функция моделирования в кошельке Rabby, которая показывает пользователю ожидаемые последствия транзакции, которую он собирается подписать.

Рэбби объяснил мне последствия подписания сделки по обмену всех моих "BITCOIN" (тикер мемкоина ERC20, полное имя которого, очевидно, "HarryPotterObamaSonic10Inu") на ETH.

Редактировать 2024.02.02: в предыдущей версии этого сообщения этот токен был назван мошенничеством, пытающимся выдать себя за биткоин. Это не так; это memecoin. Прошу прощения за путаницу.

Потенциально такие инструменты могут быть усовершенствованы с помощью искусственного интеллекта. ИИ мог бы дать гораздо более богатое, удобное для человека объяснение того, в каком dapp Вы участвуете, каковы последствия более сложных операций, которые Вы подписываете, является ли тот или иной токен подлинным (например. BITCOIN - это не просто строка символов, это обычно название основной криптовалюты, которая не является токеном ERC20 и цена которой намного выше $0,045, и современный LLM это знает), и так далее. Есть проекты, начинающие двигаться в этом направлении (например, кошелек LangChain, который использует ИИ в качестве основного интерфейса). Мое собственное мнение заключается в том, что интерфейсы с чистым ИИ, вероятно, слишком рискованны в настоящее время, поскольку они увеличивают риск других видов ошибок, но ИИ, дополняющий более традиционный интерфейс, становится очень жизнеспособным.

Есть один особый риск, о котором стоит упомянуть. Я подробнее остановлюсь на этом в разделе "ИИ как правила игры" ниже, но в целом речь идет о состязательном машинном обучении: если у пользователя есть доступ к ИИ-помощнику внутри кошелька с открытым исходным кодом, у плохих парней тоже будет доступ к этому ИИ-помощнику, и поэтому у них будет неограниченная возможность оптимизировать свои аферы так, чтобы не срабатывала защита кошелька. Во всех современных ИИ где-то есть ошибки, и процессу обучения, даже имеющему ограниченный доступ к модели, несложно их найти.

Именно здесь "ИИ, участвующие в цепочечных микрорынках" работает лучше: каждый отдельный ИИ подвержен тем же рискам, но Вы намеренно создаете открытую экосистему из десятков людей, постоянно итерирующих и совершенствующих их на постоянной основе. Более того, каждый отдельный ИИ закрыт: безопасность системы обеспечивается открытостью правил игры, а не внутренней работой каждого игрока.

Резюме: ИИ может помочь пользователям понять происходящее простым языком, он может служить наставником в режиме реального времени, он может защитить пользователей от ошибок, но будьте осторожны, пытаясь использовать его непосредственно против злонамеренных дезинформаторов и мошенников.

ИИ как правила игры

Теперь мы переходим к применению, от которого многие в восторге, но которое, на мой взгляд, является наиболее рискованным, и где нам нужно действовать наиболее осторожно: то, что я называю ИИ частью правил игры. Это связано с волнением политической элиты по поводу "судей ИИ" (например. см. эту статью на сайте "World Government Summit"), и есть аналоги этих желаний в приложениях блокчейн. Если смарт-контракт на основе блокчейна или DAO должен принять субъективное решение (например, является ли определенный продукт работы приемлемым в контракте "работа по найму"? Что является правильной интерпретацией конституции на естественном языке, такой как Закон цепей оптимизма?), Вы могли бы сделать так, чтобы ИИ просто был частью контракта или DAO, чтобы помочь обеспечить соблюдение этих правил?

Именно здесь состязательное машинное обучение станет чрезвычайно сложной задачей. Основной аргумент "почему", состоящий из двух предложений, выглядит следующим образом:

Если модель ИИ, играющая ключевую роль в механизме, закрыта, Вы не можете проверить ее внутреннюю работу, и поэтому она ничем не лучше централизованного приложения. Если модель ИИ открыта, то злоумышленник может загрузить и смоделировать ее локально, а также разработать тщательно оптимизированные атаки, чтобы обмануть модель, которые он затем сможет воспроизвести в реальной сети.

Пример адверсарного машинного обучения. Источник: researchgate.net

Теперь частые читатели этого блога (или обитатели криптоверсии), возможно, уже опережают меня и думают: "Но подождите! У нас есть фантастические доказательства с нулевым знанием и другие действительно крутые формы криптографии. Конечно, мы можем сделать немного криптомагии и скрыть внутреннюю работу модели, чтобы злоумышленники не могли оптимизировать атаки, но в то же время доказать, что модель выполняется правильно и была построена с помощью разумного процесса обучения на разумном наборе базовых данных!

Как правило, это именно тот тип мышления, который я отстаиваю как в этом блоге, так и в других своих работах. Но в случае с вычислениями, связанными с ИИ, есть два основных возражения:

  1. Криптографические накладные расходы: делать что-то внутри SNARK (или MPC, или...) гораздо менее эффективно, чем делать это "в чистом виде". Учитывая, что ИИ и так требует больших вычислительных затрат, можно ли вообще сделать ИИ внутри криптографических черных ящиков с точки зрения вычислений?
  2. Атаки "черного ящика" на машинное обучение: существуют способы оптимизировать атаки на модели ИИ, даже не зная многого о внутреннем устройстве модели. А если Вы будете скрывать слишком много, Вы рискуете тем, что тому, кто выбирает обучающие данные, будет слишком легко испортить модель с помощью отравляющих атак.

Оба эти варианта - сложные кроличьи норы, поэтому давайте разберемся в каждом из них по очереди.

Криптографические накладные расходы

Криптографические гаджеты, особенно общего назначения, такие как ZK-SNARKs и MPC, имеют высокие накладные расходы. Для прямой проверки блока Ethereum клиенту требуется несколько сотен миллисекунд, но генерация ZK-SNARK для доказательства корректности такого блока может занять несколько часов. Типичные накладные расходы других криптографических устройств, таких как MPC, могут быть еще хуже. Вычисления с помощью ИИ уже дорогостоящи: самые мощные LLM могут выводить отдельные слова лишь немного быстрее, чем человек может их прочитать, не говоря уже о часто многомиллионных вычислительных затратах на обучение моделей. Разница в качестве между моделями высшего уровня и моделями, которые стараются больше экономить на стоимости обучения или количестве параметров, очень велика. На первый взгляд, это очень веская причина отнестись с подозрением ко всему проекту, пытающемуся добавить гарантии к ИИ, обернув его в криптографию.

Однако, к счастью, ИИ - это очень специфический тип вычислений, поэтому он поддается всевозможным оптимизациям, которыми не могут воспользоваться более "неструктурированные" типы вычислений, такие как ZK-EVM. Давайте рассмотрим основную структуру модели искусственного интеллекта:

Обычно модель искусственного интеллекта состоит из серии матричных умножений, перемежающихся с одноэлементными нелинейными операциями, такими как функция ReLU) (y = max(x, 0)). Асимптотически, умножения матриц занимают большую часть работы: умножение двух матриц N*N занимает

�(�2.8)

время, в то время как количество нелинейных операций гораздо меньше. Это очень удобно для криптографии, потому что многие формы криптографии могут выполнять линейные операции (каковыми являются матричные умножения, по крайней мере, если Вы шифруете модель, но не входы в нее) почти "бесплатно".

Если Вы криптограф, то, вероятно, уже слышали о подобном явлении в контексте гомоморфного шифрования: выполнять сложения на зашифрованных шифротекстах очень просто, но умножения невероятно сложны, и до 2009 года мы не знали, как это сделать вообще с неограниченной глубиной.

Для ZK-SNARK эквивалентом являются протоколы, подобные этому от 2013 года, которые показывают менее чем 4-кратное превышение затрат на доказательство умножения матриц. К сожалению, накладные расходы на нелинейные слои все равно оказываются значительными, и лучшие реализации на практике показывают накладные расходы примерно в 200 раз. Но есть надежда, что этот показатель может быть значительно снижен благодаря дальнейшим исследованиям; см. презентацию Райана Цао, где представлен недавний подход, основанный на GKR, а также мое собственное упрощенное объяснение того, как работает основной компонент GKR.

Но во многих приложениях мы хотим не просто доказать, что результат ИИ был вычислен правильно, но и скрыть модель. Существуют наивные подходы к решению этой проблемы: Вы можете разделить модель таким образом, чтобы разный набор серверов избыточно хранил каждый слой, и надеяться, что некоторые из серверов, пропускающие некоторые слои, не пропустят слишком много данных. Но есть и удивительно эффективные формы специализированных многосторонних вычислений.

Упрощенная диаграмма одного из этих подходов, при котором модель остается частной, но входные данные становятся общедоступными. Если мы хотим сохранить модель и исходные данные в тайне, мы можем это сделать, хотя это становится немного сложнее: см. стр. 8-9 статьи.

В обоих случаях мораль истории одинакова: самая большая часть вычислений ИИ - это матричные умножения, для которых можно сделать очень эффективные ZK-SNARK или MPC (или даже FHE), и поэтому общие накладные расходы на размещение ИИ внутри криптографических коробок удивительно малы. Как правило, именно нелинейные слои являются самым узким местом, несмотря на их меньший размер; возможно, здесь помогут новые техники, такие как аргументы поиска.

Состязательное машинное обучение "черный ящик

Теперь давайте перейдем к другой большой проблеме: видам атак, которые Вы можете совершить, даже если содержимое модели остается закрытым и у Вас есть только "API-доступ" к модели. Цитирую статью из 2016 года:

Многие модели машинного обучения уязвимы для неблагоприятных примеров: входных данных, которые специально подготавливаются для того, чтобы заставить модель машинного обучения выдать неверный результат. Неприятные примеры, которые влияют на одну модель, часто влияют и на другую модель, даже если эти две модели имеют разную архитектуру или были обучены на разных обучающих наборах, при условии, что обе модели были обучены выполнять одну и ту же задачу. Поэтому злоумышленник может обучить свою собственную модель-заместитель, создать против нее враждебные примеры и перенести их на модель-жертву, имея очень мало информации о ней.

Используйте доступ "черного ящика" к "целевому классификатору" для обучения и совершенствования Вашего собственного локально хранящегося "предполагаемого классификатора". Затем локально сгенерируйте оптимизированные атаки на найденный класс-фигуру. Оказалось, что эти атаки часто работают и против исходного целевого классификатора. Источник диаграммы.

Потенциально, Вы даже можете создавать атаки, зная только обучающие данные, даже если у Вас очень ограниченный доступ к модели, которую Вы пытаетесь атаковать, или вообще его нет. По состоянию на 2023 год, подобные атаки продолжают оставаться серьезной проблемой.

Чтобы эффективно бороться с этими видами атак "черного ящика", нам нужно сделать две вещи:

  1. Действительно ограничьте, кто или что может запрашивать модель и в каком объеме. Черные ящики с неограниченным доступом к API не являются безопасными; черные ящики с очень ограниченным доступом к API могут быть безопасными.
  2. Скрывайте обучающие данные, сохраняя уверенность в том, что процесс, использованный для создания обучающих данных, не испорчен.

Проект, который больше всего преуспел в первом, - это, пожалуй, Worldcoin, раннюю версию которого (среди прочих протоколов) я подробно анализировал здесь. Worldcoin широко использует модели искусственного интеллекта на уровне протокола, чтобы (i) преобразовывать сканы радужной оболочки глаза в короткие "коды радужной оболочки", которые легко сравнивать на предмет сходства, и (ii) проверять, что сканируемый объект - это действительно человек. Главная защита, на которую опирается Worldcoin, заключается в том, что она не позволяет никому просто позвонить в модель ИИ: скорее, она использует доверенное оборудование, чтобы гарантировать, что модель принимает только данные, подписанные цифровой подписью камеры орба.

Этот подход не гарантированно сработает: оказывается, можно проводить атаки против биометрических ИИ, которые выпускаются в виде физических пластырей или украшений, которые Вы можете наклеить на лицо:

Наденьте дополнительную штуку на лоб и уклоняйтесь от обнаружения или даже выдавайте себя за кого-то другого. Источник.

Но есть надежда, что если Вы объедините все средства защиты вместе, скрыв саму модель ИИ, значительно ограничив количество запросов и потребовав, чтобы каждый запрос был каким-то образом аутентифицирован, Вы сможете проводить достаточно сложные состязательные атаки, чтобы система была безопасной. В случае с Worldcoin усиление этих других защитных механизмов может также уменьшить зависимость от доверенного оборудования, повышая децентрализацию проекта.

И это подводит нас ко второй части: как мы можем скрыть обучающие данные? Именно здесь "ДАО для демократического управления ИИ" может иметь смысл: мы можем создать внутрицепочечную ДАО, которая будет регулировать процесс того, кому разрешено предоставлять обучающие данные (и какие проверки требуются для самих данных), кому разрешено делать запросы и сколько их нужно, и использовать криптографические техники, такие как MPC, для шифрования всего процесса создания и работы ИИ, начиная с обучающих данных каждого отдельного пользователя и заканчивая конечным результатом каждого запроса. Такая DAO могла бы одновременно удовлетворять весьма популярной задаче компенсации людям за предоставление данных.

Важно еще раз подчеркнуть, что этот план очень амбициозен, и существует целый ряд способов, с помощью которых он может оказаться невыполнимым:

  • Криптографические накладные расходы могут оказаться слишком высокими, чтобы такая полностью "черная" архитектура могла конкурировать с традиционными закрытыми подходами "доверяй мне".
  • Может оказаться, что не существует хорошего способа сделать процесс подачи данных для обучения децентрализованным и защищенным от атак отравления.
  • Многосторонние вычислительные гаджеты могут нарушить гарантии безопасности или конфиденциальности из-за сговора участников: в конце концов, такое уже неоднократно случалось с межцепочечными криптовалютными мостами.

Одна из причин, почему я не начал этот раздел с больших красных предупреждающих надписей "НЕ ДЕЛАЙТЕ ИИ СУДЕЙ, ЭТО ДИСТОПИЯ", заключается в том, что наше общество уже сильно зависит от неподотчетных централизованных ИИ-судей: алгоритмов, которые определяют, какие посты и политические мнения получают поддержку, а какие нет, или даже цензуру, в социальных сетях. Я действительно считаю, что дальнейшее развитие этой тенденции на данном этапе - довольно плохая идея, но я не думаю, что есть большая вероятность того, что сообщество блокчейна, больше экспериментирующее с ИИ, станет тем, что поспособствует ухудшению ситуации.

На самом деле, есть несколько довольно простых и нерискованных способов, с помощью которых криптотехнологии могут сделать лучше даже эти существующие централизованные системы, в чем я совершенно уверен. Одна из простых техник - проверка ИИ с отложенной публикацией: когда сайт социальных сетей составляет рейтинг постов на основе ИИ, он может опубликовать ZK-SNARK, подтверждающий хэш модели, которая составила этот рейтинг. Сайт может взять на себя обязательство раскрыть свои модели ИИ после, например, годичной задержки. Как только модель будет раскрыта, пользователи смогут проверить хэш, чтобы убедиться, что была выпущена правильная модель, а сообщество сможет провести тесты модели, чтобы убедиться в ее справедливости. Задержка с публикацией гарантирует, что к тому времени, когда модель будет представлена, она уже устареет.

Поэтому по сравнению с централизованным миром вопрос заключается не в том, можем ли мы добиться большего, а в том, насколько. Однако для децентрализованного мира важно быть осторожным: если кто-то создаст, например, рынок предсказаний или стейблкоин, использующий оракул искусственного интеллекта, и окажется, что оракул можно атаковать, это будет огромная сумма денег, которая может исчезнуть в одно мгновение.

ИИ как цель игры

Если описанные выше методы создания масштабируемого децентрализованного частного ИИ, содержимое которого является "черным ящиком", не известным никому, действительно могут работать, то это также может быть использовано для создания ИИ с полезностью, выходящей за рамки блокчейн. Команда протокола NEAR делает это основной целью своей текущей работы.

Для этого есть две причины:

  1. Если Вы сможете создать "надежный ИИ-черный ящик", запустив процесс обучения и вывода с помощью некоторой комбинации блокчейн и MPC, то множество приложений, где пользователи беспокоятся о том, что система может быть предвзятой или обмануть их, смогут извлечь из этого пользу. Многие люди выражали желание демократического управления системно важными ИИ, от которых мы будем зависеть; криптографические и блокчейн-технологии могут стать одним из путей к этому.
  2. С точки зрения безопасности ИИ, это было бы техникой создания децентрализованного ИИ, который также имеет естественный "выключатель" и может ограничивать запросы, направленные на использование ИИ для вредоносного поведения.

Стоит также отметить, что "использование криптовалютных стимулов для поощрения создания лучшего ИИ" можно сделать, не спускаясь при этом в кроличью нору использования криптографии для полного шифрования: такие подходы, как BitTensor, относятся к этой категории.

Выводы

Сейчас, когда блокчейн и искусственный интеллект становятся все более мощными, растет число примеров использования на пересечении этих двух областей. Однако некоторые из этих вариантов использования имеют гораздо больше смысла и гораздо более надежны, чем другие. В целом, варианты использования, в которых основной механизм продолжает разрабатываться примерно так же, как и раньше, но отдельные игроки становятся ИИ, что позволяет механизму эффективно работать на гораздо более микромасштабном уровне, являются наиболее перспективными и их легче всего правильно реализовать.

Наиболее сложными для правильной работы являются приложения, которые пытаются использовать блокчейн и криптографические техники для создания "синглтона": единого децентрализованного доверенного ИИ, на который будет полагаться какое-либо приложение для определенных целей. Эти приложения многообещающи как с точки зрения функциональности, так и с точки зрения повышения безопасности ИИ таким образом, чтобы избежать рисков централизации, связанных с более распространенными подходами к решению этой проблемы. Но существует также множество способов, с помощью которых основополагающие предположения могут потерпеть неудачу; поэтому стоит быть осторожным, особенно при развертывании таких приложений в контекстах с высокой ценностью и повышенным риском.

Я с нетерпением жду новых попыток конструктивного использования ИИ во всех этих областях, чтобы мы могли увидеть, какие из них действительно жизнеспособны в масштабе.

Отказ от ответственности:

  1. Эта статья перепечатана с сайта[vitalik]. Все авторские права принадлежат оригинальному автору[vitalik]. Если у Вас есть возражения против этой перепечатки, пожалуйста, свяжитесь с командой Gate Learn, и они незамедлительно рассмотрят их.
  2. Отказ от ответственности: Мнения и взгляды, выраженные в этой статье, принадлежат исключительно автору и не являются инвестиционным советом.
  3. Перевод статьи на другие языки осуществляется командой Gate Learn. Если не указано, копирование, распространение или плагиат переведенных статей запрещены.

Перспективы и проблемы применения криптовалют + ИИ

ПродвинутыйFeb 08, 2024
В этой статье рассматривается пересечение криптовалют и искусственного интеллекта, в том числе то, как децентрализованные криптовалюты уравновешивают централизованный искусственный интеллект. ИИ может помочь выявить поддельную информацию и мошенническое поведение, но необходимо соблюдать осторожность, чтобы избежать злоупотребления властью. ИИ также может быть частью игровых интерфейсов и правил, но следует обратить внимание на проблемы, связанные с недоброжелательным машинным обучением.
Перспективы и проблемы применения криптовалют + ИИ

Особая благодарность командам Worldcoin и Modulus Labs, Синьюань Сун, Мартину Кёппельману и Илье Полосухину за отзывы и обсуждения.

Многие люди на протяжении многих лет задавали мне похожий вопрос: какие пересечения между криптовалютами и искусственным интеллектом я считаю наиболее плодотворными? Это вполне резонный вопрос: криптовалюты и искусственный интеллект - два главных тренда глубоких (программных) технологий последнего десятилетия, и кажется, что между ними должна быть какая-то связь. Легко придумать синергию на уровне поверхностных ощущений: децентрализация криптовалют может уравновесить централизацию ИИ, ИИ непрозрачен, а криптовалюты обеспечивают прозрачность, ИИ нужны данные, а блокчейн хорош для хранения и отслеживания данных. Но на протяжении многих лет, когда люди просили меня копнуть глубже и рассказать о конкретных применениях, мой ответ был неутешительным: "Да, есть несколько вещей, но не так уж много".

За последние три года, с появлением гораздо более мощного ИИ в виде современных LLM и гораздо более мощных криптовалют в виде не только решений для масштабирования блокчейна, но и ZKPs, FHE, (двухпартийных и N-партийных) MPC, я начинаю видеть эти изменения. Действительно, есть несколько многообещающих применений ИИ в экосистемах блокчейн или ИИ вместе с криптографией, хотя важно быть осторожным в том, как применяется ИИ. Особая проблема заключается в следующем: в криптографии открытый исходный код - единственный способ сделать что-то действительно безопасным, но в ИИ открытость модели (или даже обучающих данных) значительно повышает ее уязвимость для атак противников машинного обучения. В этом посте мы рассмотрим классификацию различных способов пересечения криптовалют и искусственного интеллекта, а также перспективы и проблемы каждой категории.

Краткое описание пересечений криптовалют иAI из статьи в блоге uETH. Но что нужно сделать, чтобы реализовать все эти синергетические эффекты в конкретном применении?

Четыре основные категории

ИИ - это очень широкое понятие: Вы можете считать, что "ИИ" - это набор алгоритмов, которые Вы создаете, не задавая их в явном виде, а скорее перемешивая большой вычислительный суп и оказывая на него оптимизирующее давление, которое подталкивает суп к созданию алгоритмов с нужными Вам свойствами. Это описание определенно не следует воспринимать пренебрежительно: оно включает в себя процесс, который в первую очередь создал нас, людей! Но это означает, что алгоритмы ИИ обладают некоторыми общими свойствами: способностью делать чрезвычайно мощные вещи, а также ограниченностью нашей способности знать или понимать, что происходит под капотом.

Существует множество способов классифицировать ИИ; для целей этой заметки, рассказывающей о взаимодействии ИИ и блокчейна (который был описан как платформа для <a href="https://medium.com/@virgilgr/ethereum-is-game-changing-technology-literally-d67e01a01cf8"> создания "игр"), я буду классифицировать его следующим образом:

  • ИИ как игрок в игре [наивысшая жизнеспособность]: ИИ участвует в механизмах, где конечным источником стимулов является протокол с человеческими данными.
  • ИИ как интерфейс к игре [высокий потенциал, но с рисками]: ИИ помогает пользователям разобраться в окружающем их криптовалютном мире и убедиться, что их поведение (т.е. подписанные сообщения и транзакции) соответствует их намерениям, и их не обманывают и не мошенничают.
  • ИИ как правила игры [осторожно]: блокчейн, DAO и подобные механизмы, напрямую вызывающие ИИ. Подумайте, например. "Судьи ИИ"
  • ИИ как цель игры [более долгосрочная, но интригующая]: разработка блокчейнов, DAO и подобных механизмов с целью создания и поддержания ИИ, который можно было бы использовать для других целей, используя криптобиты либо для лучшего стимулирования обучения, либо для предотвращения утечки личных данных или неправильного использования ИИ.

Давайте рассмотрим их по порядку.

ИИ как игрок в игре

На самом деле эта категория существует уже почти десять лет, по крайней мере, с тех пор, как начали активно использоваться децентрализованные биржи (DEX), работающие на цепочке. В любой ситуации, когда есть биржа, есть возможность заработать на арбитраже, а боты могут делать арбитраж гораздо лучше, чем люди. Этот вариант использования существует уже давно, даже с гораздо более простыми ИИ, чем те, что мы имеем сегодня, но в конечном итоге это очень реальное пересечение ИИ + криптовалюта. Совсем недавно мы видели, как арбитражные боты MEV часто эксплуатируют друг друга. Если Вы используете блокчейн-приложение, связанное с аукционами или торговлей, Вам обязательно понадобятся арбитражные боты.

Но арбитражные боты с искусственным интеллектом - это лишь первый пример гораздо более обширной категории, которая, как я ожидаю, вскоре начнет включать в себя множество других приложений. Познакомьтесь с AIOmen, демонстрацией рынка предсказаний, где игроками являются искусственные интеллекты:

Рынки предсказаний уже давно являются святым Граалем эпистемических технологий; я был в восторге от использования рынков предсказаний в качестве исходного материала для управления ("футархия") еще в 2014 году и много играл с ними во время последних выборов, а также в последнее время. Но пока что рынки предсказаний не слишком прижились на практике, и на это есть ряд распространенных причин: крупнейшие участники часто иррациональны, люди, обладающие нужными знаниями, не хотят тратить время и делать ставки, если речь не идет о больших деньгах, рынки часто бывают тонкими и т.д.

Один из ответов на это - указать на текущие улучшения UX в Polymarket или других новых рынках предсказаний, и надеяться, что они преуспеют там, где предыдущие итерации потерпели неудачу. В конце концов, как гласит история, люди готовы ставить десятки миллиардов на спорт, так почему бы им не вложить достаточно денег в ставки на выборы в США или LK99, чтобы серьезные игроки начали приходить? Но этот аргумент должен столкнуться с тем фактом, что предыдущие итерации не смогли достичь такого масштаба (по крайней мере, по сравнению с мечтами их сторонников), и поэтому кажется, что Вам нужно что-то новое, чтобы рынки предсказаний стали успешными. И поэтому другой ответ - указать на одну особенность экосистем рынка предсказаний, которую мы можем ожидать в 2020-х годах и которой не было в 2010-х: возможность повсеместного участия искусственного интеллекта.

ИИ готовы работать менее чем за 1 доллар в час и обладают знаниями энциклопедии - а если этого недостаточно, они даже могут быть интегрированы с возможностью поиска в Интернете в режиме реального времени. Если Вы создадите рынок и установите субсидию на ликвидность в размере $50, люди не будут достаточно заинтересованы в том, чтобы делать ставки, но тысячи ИИ легко разберутся в вопросе и сделают лучшее предположение, на которое они способны. Стимул для хорошей работы над одним вопросом может быть ничтожным, но стимул для создания ИИ, который делает хорошие прогнозы в целом, может исчисляться миллионами. Обратите внимание, что потенциально Вам даже не нужны люди для решения большинства вопросов: Вы можете использовать многораундовую систему споров, подобную Augur или Kleros, где ИИ также будут участвовать в предыдущих раундах. Люди должны будут реагировать только в тех редких случаях, когда произошла серия эскалаций и обе стороны выложили большие суммы денег.

Это мощный примитив, потому что, как только "рынок предсказаний" можно заставить работать в таком микроскопическом масштабе, Вы сможете повторно использовать примитив "рынка предсказаний" для многих других видов вопросов:

  • Является ли это сообщение в социальных сетях приемлемым в соответствии с [условиями использования]?
  • Что произойдет с ценой акции X (например. см. Нумерай)
  • Является ли этот аккаунт, который сейчас пишет мне, на самом деле Элоном Маском?
  • Приемлема ли такая подача работы на онлайновом рынке заданий?
  • Является ли dapp на https://examplefinance.network мошенничеством?
  • Is 0x1b54....98c3 на самом деле адрес токена ERC20 "Casinu Inu"?

Вы можете заметить, что многие из этих идей идут в направлении того, что я называл "информационной защитой" в своих работах по "d/acc". В широком смысле, вопрос заключается в следующем: как помочь пользователям отличать правдивую информацию от ложной и выявлять мошенников, не наделяя централизованный орган власти правом решать, что правильно, а что нет, который затем может злоупотребить этим положением? На микроуровне ответом может быть "ИИ". Но на макроуровне вопрос заключается в том, кто создает ИИ? ИИ - это отражение процесса, который его создал, и поэтому он не может не иметь предубеждений. Следовательно, необходима игра более высокого уровня, которая будет оценивать, насколько хорошо справляются различные ИИ, и в которой ИИ смогут участвовать как игроки.

Такое использование ИИ, когда ИИ участвует в механизме, где он получает вознаграждение или наказание (вероятностно) от цепного механизма, который собирает данные от людей (назовем его децентрализованным рыночным RLHF?), - это то, что, на мой взгляд, действительно стоит изучить. Сейчас самое подходящее время для того, чтобы больше изучать подобные случаи использования, потому что масштабирование блокчейна наконец-то достигло успеха, сделав "микро-" что-либо жизнеспособным на цепочке, когда раньше это часто было невозможно.

Смежная категория приложений направлена на то, чтобы высокоавтономные агенты использовали блокчейн для лучшего сотрудничества, будь то через платежи или через использование смарт-контрактов для принятия надежных обязательств.

ИИ как интерфейс к игре

Одна из идей, которую я выдвигал в своих работах , - это идея о том, что на рынке существует возможность написания программного обеспечения, ориентированного на пользователя, которое защищало бы его интересы, интерпретируя и выявляя опасности в онлайновом мире, по которому перемещается пользователь. Одним из уже существующих примеров этого является функция обнаружения мошенничества в Metamask:

Другой пример - функция моделирования в кошельке Rabby, которая показывает пользователю ожидаемые последствия транзакции, которую он собирается подписать.

Рэбби объяснил мне последствия подписания сделки по обмену всех моих "BITCOIN" (тикер мемкоина ERC20, полное имя которого, очевидно, "HarryPotterObamaSonic10Inu") на ETH.

Редактировать 2024.02.02: в предыдущей версии этого сообщения этот токен был назван мошенничеством, пытающимся выдать себя за биткоин. Это не так; это memecoin. Прошу прощения за путаницу.

Потенциально такие инструменты могут быть усовершенствованы с помощью искусственного интеллекта. ИИ мог бы дать гораздо более богатое, удобное для человека объяснение того, в каком dapp Вы участвуете, каковы последствия более сложных операций, которые Вы подписываете, является ли тот или иной токен подлинным (например. BITCOIN - это не просто строка символов, это обычно название основной криптовалюты, которая не является токеном ERC20 и цена которой намного выше $0,045, и современный LLM это знает), и так далее. Есть проекты, начинающие двигаться в этом направлении (например, кошелек LangChain, который использует ИИ в качестве основного интерфейса). Мое собственное мнение заключается в том, что интерфейсы с чистым ИИ, вероятно, слишком рискованны в настоящее время, поскольку они увеличивают риск других видов ошибок, но ИИ, дополняющий более традиционный интерфейс, становится очень жизнеспособным.

Есть один особый риск, о котором стоит упомянуть. Я подробнее остановлюсь на этом в разделе "ИИ как правила игры" ниже, но в целом речь идет о состязательном машинном обучении: если у пользователя есть доступ к ИИ-помощнику внутри кошелька с открытым исходным кодом, у плохих парней тоже будет доступ к этому ИИ-помощнику, и поэтому у них будет неограниченная возможность оптимизировать свои аферы так, чтобы не срабатывала защита кошелька. Во всех современных ИИ где-то есть ошибки, и процессу обучения, даже имеющему ограниченный доступ к модели, несложно их найти.

Именно здесь "ИИ, участвующие в цепочечных микрорынках" работает лучше: каждый отдельный ИИ подвержен тем же рискам, но Вы намеренно создаете открытую экосистему из десятков людей, постоянно итерирующих и совершенствующих их на постоянной основе. Более того, каждый отдельный ИИ закрыт: безопасность системы обеспечивается открытостью правил игры, а не внутренней работой каждого игрока.

Резюме: ИИ может помочь пользователям понять происходящее простым языком, он может служить наставником в режиме реального времени, он может защитить пользователей от ошибок, но будьте осторожны, пытаясь использовать его непосредственно против злонамеренных дезинформаторов и мошенников.

ИИ как правила игры

Теперь мы переходим к применению, от которого многие в восторге, но которое, на мой взгляд, является наиболее рискованным, и где нам нужно действовать наиболее осторожно: то, что я называю ИИ частью правил игры. Это связано с волнением политической элиты по поводу "судей ИИ" (например. см. эту статью на сайте "World Government Summit"), и есть аналоги этих желаний в приложениях блокчейн. Если смарт-контракт на основе блокчейна или DAO должен принять субъективное решение (например, является ли определенный продукт работы приемлемым в контракте "работа по найму"? Что является правильной интерпретацией конституции на естественном языке, такой как Закон цепей оптимизма?), Вы могли бы сделать так, чтобы ИИ просто был частью контракта или DAO, чтобы помочь обеспечить соблюдение этих правил?

Именно здесь состязательное машинное обучение станет чрезвычайно сложной задачей. Основной аргумент "почему", состоящий из двух предложений, выглядит следующим образом:

Если модель ИИ, играющая ключевую роль в механизме, закрыта, Вы не можете проверить ее внутреннюю работу, и поэтому она ничем не лучше централизованного приложения. Если модель ИИ открыта, то злоумышленник может загрузить и смоделировать ее локально, а также разработать тщательно оптимизированные атаки, чтобы обмануть модель, которые он затем сможет воспроизвести в реальной сети.

Пример адверсарного машинного обучения. Источник: researchgate.net

Теперь частые читатели этого блога (или обитатели криптоверсии), возможно, уже опережают меня и думают: "Но подождите! У нас есть фантастические доказательства с нулевым знанием и другие действительно крутые формы криптографии. Конечно, мы можем сделать немного криптомагии и скрыть внутреннюю работу модели, чтобы злоумышленники не могли оптимизировать атаки, но в то же время доказать, что модель выполняется правильно и была построена с помощью разумного процесса обучения на разумном наборе базовых данных!

Как правило, это именно тот тип мышления, который я отстаиваю как в этом блоге, так и в других своих работах. Но в случае с вычислениями, связанными с ИИ, есть два основных возражения:

  1. Криптографические накладные расходы: делать что-то внутри SNARK (или MPC, или...) гораздо менее эффективно, чем делать это "в чистом виде". Учитывая, что ИИ и так требует больших вычислительных затрат, можно ли вообще сделать ИИ внутри криптографических черных ящиков с точки зрения вычислений?
  2. Атаки "черного ящика" на машинное обучение: существуют способы оптимизировать атаки на модели ИИ, даже не зная многого о внутреннем устройстве модели. А если Вы будете скрывать слишком много, Вы рискуете тем, что тому, кто выбирает обучающие данные, будет слишком легко испортить модель с помощью отравляющих атак.

Оба эти варианта - сложные кроличьи норы, поэтому давайте разберемся в каждом из них по очереди.

Криптографические накладные расходы

Криптографические гаджеты, особенно общего назначения, такие как ZK-SNARKs и MPC, имеют высокие накладные расходы. Для прямой проверки блока Ethereum клиенту требуется несколько сотен миллисекунд, но генерация ZK-SNARK для доказательства корректности такого блока может занять несколько часов. Типичные накладные расходы других криптографических устройств, таких как MPC, могут быть еще хуже. Вычисления с помощью ИИ уже дорогостоящи: самые мощные LLM могут выводить отдельные слова лишь немного быстрее, чем человек может их прочитать, не говоря уже о часто многомиллионных вычислительных затратах на обучение моделей. Разница в качестве между моделями высшего уровня и моделями, которые стараются больше экономить на стоимости обучения или количестве параметров, очень велика. На первый взгляд, это очень веская причина отнестись с подозрением ко всему проекту, пытающемуся добавить гарантии к ИИ, обернув его в криптографию.

Однако, к счастью, ИИ - это очень специфический тип вычислений, поэтому он поддается всевозможным оптимизациям, которыми не могут воспользоваться более "неструктурированные" типы вычислений, такие как ZK-EVM. Давайте рассмотрим основную структуру модели искусственного интеллекта:

Обычно модель искусственного интеллекта состоит из серии матричных умножений, перемежающихся с одноэлементными нелинейными операциями, такими как функция ReLU) (y = max(x, 0)). Асимптотически, умножения матриц занимают большую часть работы: умножение двух матриц N*N занимает

�(�2.8)

время, в то время как количество нелинейных операций гораздо меньше. Это очень удобно для криптографии, потому что многие формы криптографии могут выполнять линейные операции (каковыми являются матричные умножения, по крайней мере, если Вы шифруете модель, но не входы в нее) почти "бесплатно".

Если Вы криптограф, то, вероятно, уже слышали о подобном явлении в контексте гомоморфного шифрования: выполнять сложения на зашифрованных шифротекстах очень просто, но умножения невероятно сложны, и до 2009 года мы не знали, как это сделать вообще с неограниченной глубиной.

Для ZK-SNARK эквивалентом являются протоколы, подобные этому от 2013 года, которые показывают менее чем 4-кратное превышение затрат на доказательство умножения матриц. К сожалению, накладные расходы на нелинейные слои все равно оказываются значительными, и лучшие реализации на практике показывают накладные расходы примерно в 200 раз. Но есть надежда, что этот показатель может быть значительно снижен благодаря дальнейшим исследованиям; см. презентацию Райана Цао, где представлен недавний подход, основанный на GKR, а также мое собственное упрощенное объяснение того, как работает основной компонент GKR.

Но во многих приложениях мы хотим не просто доказать, что результат ИИ был вычислен правильно, но и скрыть модель. Существуют наивные подходы к решению этой проблемы: Вы можете разделить модель таким образом, чтобы разный набор серверов избыточно хранил каждый слой, и надеяться, что некоторые из серверов, пропускающие некоторые слои, не пропустят слишком много данных. Но есть и удивительно эффективные формы специализированных многосторонних вычислений.

Упрощенная диаграмма одного из этих подходов, при котором модель остается частной, но входные данные становятся общедоступными. Если мы хотим сохранить модель и исходные данные в тайне, мы можем это сделать, хотя это становится немного сложнее: см. стр. 8-9 статьи.

В обоих случаях мораль истории одинакова: самая большая часть вычислений ИИ - это матричные умножения, для которых можно сделать очень эффективные ZK-SNARK или MPC (или даже FHE), и поэтому общие накладные расходы на размещение ИИ внутри криптографических коробок удивительно малы. Как правило, именно нелинейные слои являются самым узким местом, несмотря на их меньший размер; возможно, здесь помогут новые техники, такие как аргументы поиска.

Состязательное машинное обучение "черный ящик

Теперь давайте перейдем к другой большой проблеме: видам атак, которые Вы можете совершить, даже если содержимое модели остается закрытым и у Вас есть только "API-доступ" к модели. Цитирую статью из 2016 года:

Многие модели машинного обучения уязвимы для неблагоприятных примеров: входных данных, которые специально подготавливаются для того, чтобы заставить модель машинного обучения выдать неверный результат. Неприятные примеры, которые влияют на одну модель, часто влияют и на другую модель, даже если эти две модели имеют разную архитектуру или были обучены на разных обучающих наборах, при условии, что обе модели были обучены выполнять одну и ту же задачу. Поэтому злоумышленник может обучить свою собственную модель-заместитель, создать против нее враждебные примеры и перенести их на модель-жертву, имея очень мало информации о ней.

Используйте доступ "черного ящика" к "целевому классификатору" для обучения и совершенствования Вашего собственного локально хранящегося "предполагаемого классификатора". Затем локально сгенерируйте оптимизированные атаки на найденный класс-фигуру. Оказалось, что эти атаки часто работают и против исходного целевого классификатора. Источник диаграммы.

Потенциально, Вы даже можете создавать атаки, зная только обучающие данные, даже если у Вас очень ограниченный доступ к модели, которую Вы пытаетесь атаковать, или вообще его нет. По состоянию на 2023 год, подобные атаки продолжают оставаться серьезной проблемой.

Чтобы эффективно бороться с этими видами атак "черного ящика", нам нужно сделать две вещи:

  1. Действительно ограничьте, кто или что может запрашивать модель и в каком объеме. Черные ящики с неограниченным доступом к API не являются безопасными; черные ящики с очень ограниченным доступом к API могут быть безопасными.
  2. Скрывайте обучающие данные, сохраняя уверенность в том, что процесс, использованный для создания обучающих данных, не испорчен.

Проект, который больше всего преуспел в первом, - это, пожалуй, Worldcoin, раннюю версию которого (среди прочих протоколов) я подробно анализировал здесь. Worldcoin широко использует модели искусственного интеллекта на уровне протокола, чтобы (i) преобразовывать сканы радужной оболочки глаза в короткие "коды радужной оболочки", которые легко сравнивать на предмет сходства, и (ii) проверять, что сканируемый объект - это действительно человек. Главная защита, на которую опирается Worldcoin, заключается в том, что она не позволяет никому просто позвонить в модель ИИ: скорее, она использует доверенное оборудование, чтобы гарантировать, что модель принимает только данные, подписанные цифровой подписью камеры орба.

Этот подход не гарантированно сработает: оказывается, можно проводить атаки против биометрических ИИ, которые выпускаются в виде физических пластырей или украшений, которые Вы можете наклеить на лицо:

Наденьте дополнительную штуку на лоб и уклоняйтесь от обнаружения или даже выдавайте себя за кого-то другого. Источник.

Но есть надежда, что если Вы объедините все средства защиты вместе, скрыв саму модель ИИ, значительно ограничив количество запросов и потребовав, чтобы каждый запрос был каким-то образом аутентифицирован, Вы сможете проводить достаточно сложные состязательные атаки, чтобы система была безопасной. В случае с Worldcoin усиление этих других защитных механизмов может также уменьшить зависимость от доверенного оборудования, повышая децентрализацию проекта.

И это подводит нас ко второй части: как мы можем скрыть обучающие данные? Именно здесь "ДАО для демократического управления ИИ" может иметь смысл: мы можем создать внутрицепочечную ДАО, которая будет регулировать процесс того, кому разрешено предоставлять обучающие данные (и какие проверки требуются для самих данных), кому разрешено делать запросы и сколько их нужно, и использовать криптографические техники, такие как MPC, для шифрования всего процесса создания и работы ИИ, начиная с обучающих данных каждого отдельного пользователя и заканчивая конечным результатом каждого запроса. Такая DAO могла бы одновременно удовлетворять весьма популярной задаче компенсации людям за предоставление данных.

Важно еще раз подчеркнуть, что этот план очень амбициозен, и существует целый ряд способов, с помощью которых он может оказаться невыполнимым:

  • Криптографические накладные расходы могут оказаться слишком высокими, чтобы такая полностью "черная" архитектура могла конкурировать с традиционными закрытыми подходами "доверяй мне".
  • Может оказаться, что не существует хорошего способа сделать процесс подачи данных для обучения децентрализованным и защищенным от атак отравления.
  • Многосторонние вычислительные гаджеты могут нарушить гарантии безопасности или конфиденциальности из-за сговора участников: в конце концов, такое уже неоднократно случалось с межцепочечными криптовалютными мостами.

Одна из причин, почему я не начал этот раздел с больших красных предупреждающих надписей "НЕ ДЕЛАЙТЕ ИИ СУДЕЙ, ЭТО ДИСТОПИЯ", заключается в том, что наше общество уже сильно зависит от неподотчетных централизованных ИИ-судей: алгоритмов, которые определяют, какие посты и политические мнения получают поддержку, а какие нет, или даже цензуру, в социальных сетях. Я действительно считаю, что дальнейшее развитие этой тенденции на данном этапе - довольно плохая идея, но я не думаю, что есть большая вероятность того, что сообщество блокчейна, больше экспериментирующее с ИИ, станет тем, что поспособствует ухудшению ситуации.

На самом деле, есть несколько довольно простых и нерискованных способов, с помощью которых криптотехнологии могут сделать лучше даже эти существующие централизованные системы, в чем я совершенно уверен. Одна из простых техник - проверка ИИ с отложенной публикацией: когда сайт социальных сетей составляет рейтинг постов на основе ИИ, он может опубликовать ZK-SNARK, подтверждающий хэш модели, которая составила этот рейтинг. Сайт может взять на себя обязательство раскрыть свои модели ИИ после, например, годичной задержки. Как только модель будет раскрыта, пользователи смогут проверить хэш, чтобы убедиться, что была выпущена правильная модель, а сообщество сможет провести тесты модели, чтобы убедиться в ее справедливости. Задержка с публикацией гарантирует, что к тому времени, когда модель будет представлена, она уже устареет.

Поэтому по сравнению с централизованным миром вопрос заключается не в том, можем ли мы добиться большего, а в том, насколько. Однако для децентрализованного мира важно быть осторожным: если кто-то создаст, например, рынок предсказаний или стейблкоин, использующий оракул искусственного интеллекта, и окажется, что оракул можно атаковать, это будет огромная сумма денег, которая может исчезнуть в одно мгновение.

ИИ как цель игры

Если описанные выше методы создания масштабируемого децентрализованного частного ИИ, содержимое которого является "черным ящиком", не известным никому, действительно могут работать, то это также может быть использовано для создания ИИ с полезностью, выходящей за рамки блокчейн. Команда протокола NEAR делает это основной целью своей текущей работы.

Для этого есть две причины:

  1. Если Вы сможете создать "надежный ИИ-черный ящик", запустив процесс обучения и вывода с помощью некоторой комбинации блокчейн и MPC, то множество приложений, где пользователи беспокоятся о том, что система может быть предвзятой или обмануть их, смогут извлечь из этого пользу. Многие люди выражали желание демократического управления системно важными ИИ, от которых мы будем зависеть; криптографические и блокчейн-технологии могут стать одним из путей к этому.
  2. С точки зрения безопасности ИИ, это было бы техникой создания децентрализованного ИИ, который также имеет естественный "выключатель" и может ограничивать запросы, направленные на использование ИИ для вредоносного поведения.

Стоит также отметить, что "использование криптовалютных стимулов для поощрения создания лучшего ИИ" можно сделать, не спускаясь при этом в кроличью нору использования криптографии для полного шифрования: такие подходы, как BitTensor, относятся к этой категории.

Выводы

Сейчас, когда блокчейн и искусственный интеллект становятся все более мощными, растет число примеров использования на пересечении этих двух областей. Однако некоторые из этих вариантов использования имеют гораздо больше смысла и гораздо более надежны, чем другие. В целом, варианты использования, в которых основной механизм продолжает разрабатываться примерно так же, как и раньше, но отдельные игроки становятся ИИ, что позволяет механизму эффективно работать на гораздо более микромасштабном уровне, являются наиболее перспективными и их легче всего правильно реализовать.

Наиболее сложными для правильной работы являются приложения, которые пытаются использовать блокчейн и криптографические техники для создания "синглтона": единого децентрализованного доверенного ИИ, на который будет полагаться какое-либо приложение для определенных целей. Эти приложения многообещающи как с точки зрения функциональности, так и с точки зрения повышения безопасности ИИ таким образом, чтобы избежать рисков централизации, связанных с более распространенными подходами к решению этой проблемы. Но существует также множество способов, с помощью которых основополагающие предположения могут потерпеть неудачу; поэтому стоит быть осторожным, особенно при развертывании таких приложений в контекстах с высокой ценностью и повышенным риском.

Я с нетерпением жду новых попыток конструктивного использования ИИ во всех этих областях, чтобы мы могли увидеть, какие из них действительно жизнеспособны в масштабе.

Отказ от ответственности:

  1. Эта статья перепечатана с сайта[vitalik]. Все авторские права принадлежат оригинальному автору[vitalik]. Если у Вас есть возражения против этой перепечатки, пожалуйста, свяжитесь с командой Gate Learn, и они незамедлительно рассмотрят их.
  2. Отказ от ответственности: Мнения и взгляды, выраженные в этой статье, принадлежат исключительно автору и не являются инвестиционным советом.
  3. Перевод статьи на другие языки осуществляется командой Gate Learn. Если не указано, копирование, распространение или плагиат переведенных статей запрещены.
Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!