AI x Cripto - Promessas e Realidades

IntermediárioJul 13, 2024
AI+Crypto é uma das áreas de vanguarda mais notáveis no mercado recente de criptomoedas. Isso inclui treinamento de IA descentralizado, DePINs de GPU e modelos de IA resistentes à censura. O principal problema com o treinamento de IA reside na necessidade de comunicação e coordenação de alta velocidade entre GPUs, uma vez que as redes neurais requerem retropropagação durante o treinamento. A introdução de uma rede descentralizada pode significativamente desacelerar o processo devido ao aumento da latência e largura de banda da rede. Este artigo também organiza soluções para os desafios atuais e fornece exemplos de como a integração de criptomoedas e IA pode adicionar valor significativo.
AI x Cripto - Promessas e Realidades

ai é uma das categorias mais quentes e promissoras nos mercados de cripto recentemente.

💡treinamento de IA descentralizada

💡gpu depins

💡modelos de IA sem censura

são essas inovações ou apenas palavras da moda? 🤔

na hack vc, estamos cortando o barulho para separar a promessa da realidade.

esta publicação analisa as principais ideias de cripto x ai. vamos discutir os desafios reais e as oportunidades.

ideias com promessa inicial, mas que enfrentaram desafios na realidade.

primeiro, vamos começar com a “promessa da web3 ai”—ideias que têm bastante hype, mas para as quais a realidade pode não ser tão reluzente.

ideia #1: treino de IA descentralizado

o problema com o treinamento de IA on-chain é que o treinamento requer comunicação e coordenação de alta velocidade entre GPUs, devido às redes neurais que requerem retropropagação quando treinadas. A nvidia tem duas inovações para isso (NVLinkeInfiniBand). Essas tecnologias tornam a comunicação da GPU ultra rápida, mas são tecnologias apenas locais que são aplicáveis apenas dentro de clusters de GPU localizados em um único datacenter (velocidades de 50+ gigabits).

se você introduzir uma rede descentralizada na imagem, de repente você fica várias ordens de magnitude mais lento devido à latência e largura de banda adicionadas à rede. isso é inaceitável para casos de uso de treinamento de IA em comparação com a taxa de transferência que você obtém da interconectividade de alta velocidade da nvidia dentro de um datacenter.

note que houve algumas inovações aqui que podem trazer alguma esperança para o futuro:

  • o treinamento distribuído sobre infiniband está acontecendo em uma escala considerável, já que a própria nvidia está apoiando o treinamento distribuído e não local sobre infiniband via a biblioteca de comunicações coletivas da nvidia. No entanto, ainda está em estágio inicial, então as métricas de adoção estão por determinar. Ver aqui. o gargalo que são as leis da física sobre a distância ainda se aplica, portanto, o treinamento local sobre infiniband ainda é significativamente mais rápido.
  • houve alguma pesquisa inovadora publicada para treinamento descentralizado que depende de menos sincronizações de comunicação que poderiam potencialmente tornar o treinamento descentralizado mais prático no futuro. ver aquieaqui.
  • A fragmentação e agendamento inteligentes do treinamento de modelos podem ajudar a melhorar o desempenho. Da mesma forma, novas arquiteturas de modelos podem ser projetadas de forma única para infraestrutura distribuída no futuro (a gensyn está pesquisando nessas áreas).

o componente de dados do treinamento também é desafiador. qualquer processo de treinamento de IA envolve trabalhar com vastas quantidades de dados. normalmente, os modelos são treinados em sistemas de armazenamento de dados centralizados e seguros, com alta escalabilidade e desempenho. isso requer transferência e processamento de terabytes de dados, e isso não é um ciclo único. os dados geralmente são ruidosos e contêm erros, portanto, devem ser limpos e transformados em um formato utilizável antes de treinar o modelo. essa etapa envolve tarefas repetitivas de normalização, filtragem e tratamento de valores ausentes. tudo isso representa desafios sérios em um ambiente descentralizado.

o componente de dados do treinamento também é iterativo, o que não se adequa bem ao web3. a openai levou milhares de iterações para alcançar seus resultados. o cenário de tarefa mais básico para um especialista em ciência de dados em uma equipe de ia inclui a definição de objetivos, preparação de dados e análise e estruturação de dados para extrair insights importantes e torná-los adequados para modelagem. em seguida, um modelo de aprendizado de máquina é desenvolvido para resolver o problema definido, e seu desempenho é validado usando um conjunto de dados de teste. este processo é iterativo: se o modelo atual não se comportar como esperado, o especialista retorna à coleta de dados ou à etapa de treinamento do modelo para melhorar os resultados. agora, imagine este processo em um ambiente descentralizado, onde os melhores frameworks e ferramentas existentes não estão facilmente disponíveis no web3.

A outra preocupação com a formação de modelos de IA on-chain é que é um mercado muito menos interessante em comparação com a inferência. Por agora, há uma quantidade enorme de computação de GPU sendo usada para treinar IA llm. Mas, a longo prazo, a inferência se tornará (de longe) o caso de uso mais prevalente das GPUs. Considere: quantos AI llms precisam ser treinados para o mundo ficar feliz, em comparação com o número de clientes que usarão esses modelos?

uma solução que está progredindo em todas as frentes é 0g.ai (apoiada por hack vc) que fornece tanto armazenamento de dados on-chain quanto infraestrutura de disponibilidade de dados. Sua arquitetura ultra rápida e capacidade de armazenar grandes quantidades de dados on-chain permitem o treinamento rápido e iterativo de modelos de IA on-chain de qualquer tipo.

ideia #2: usando cálculo excessivamente redundante de inferência de IA para consenso

Um dos desafios com cripto x IA é verificar a precisão da inferência da IA, uma vez que não se pode necessariamente confiar em uma única parte centralizada para realizar essa inferência devido ao potencial de nós mal comportados. Esse desafio não existe na IA da web2 porque não há um sistema de consenso descentralizado.

Uma ideia proposta para resolver isso é a computação redundante, onde vários nós repetem a mesma operação de inferência de IA, para que você possa operar de maneira confiável e não ter um único ponto de falha.

o problema com esta abordagem é que vivemos num mundo com uma escassez drástica de chips de ia de alta qualidade. há um período de espera de vários anos para chips nvidia de alta qualidade, e isso resulta em aumentos de preço. se fosse necessário que a sua inferência de ia fosse reexecutada várias vezes em vários nós, estaria agora a multiplicar esses custos dispendiosos. isto vai ser inaceitável para muitos projetos.

ideia #3: casos de uso de IA específicos para web3 a curto prazo

houve sugestões de que o web3 deveria ter casos de uso de ia próprios e únicos que são específicos para os clientes do web3. isso pode ser (por exemplo) um protocolo web3 que usa ia para realizar a pontuação de risco de uma pool defi, uma carteira web3 sugerindo novos protocolos com base no histórico da sua carteira, ou um jogo web3 que usa ia para controlar personagens não-jogadores (npcs).

por agora, este é (a curto prazo) um mercado em desenvolvimento onde os casos de uso ainda estão a ser descobertos. alguns desafios incluem:

  • são necessárias menos transações de IA potenciais para casos de uso nativos do Web3, uma vez que a demanda de mercado ainda está em sua infância.
  • menos clientes, uma vez que há ordens de magnitude menos clientes web3 em comparação com clientes web2, portanto o mercado é menos fragmentado.
  • os próprios clientes são menos estáveis, pois são startups com menos financiamento, então algumas dessas startups podem desaparecer ao longo do tempo. um provedor de serviços de IA web3 que atende a clientes web3 provavelmente precisará adquirir novamente uma parte de sua base de clientes ao longo do tempo para substituir aqueles que desaparecem, tornando-se um negócio mais desafiador para escalar.

a longo prazo, somos bastante otimistas em relação aos casos de uso de inteligência artificial nativa da web3, especialmente à medida que os agentes de IA se tornam mais predominantes. Imaginamos um futuro onde qualquer usuário web3 tem uma infinidade de agentes de IA a ajudá-los. O líder da categoria inicial para isso é Theoriq (apoiado pela hack vc), que permite agentes de IA em cadeia autônomos e componíveis.

ideia #4: GPU de nível de consumidor depins

existem várias redes de computação AI descentralizadas que dependem de GPUs de consumo em vez de centros de dados. GPUs de consumo são úteis para tarefas de inferência AI de baixo desempenho ou para casos de uso do consumidor onde a latência, a taxa de transferência e a confiabilidade são flexíveis. Mas para casos de uso empresarial sérios (que é a maioria do mercado que importa), os clientes desejam uma rede de confiabilidade mais alta em comparação com as máquinas domésticas das pessoas e, frequentemente, precisam de GPUs de alto desempenho se tiverem tarefas de inferência mais complexas. Os centros de dados são mais apropriados para esses casos de uso de clientes mais valiosos.

Note que consideramos as GPUs de consumo úteis para fins de demonstração ou para indivíduos e startups que podem tolerar menor confiabilidade. Mas esses clientes são fundamentalmente menos valiosos, então acreditamos que os projetos de depin que atendem às empresas web2 serão mais valiosos a longo prazo. Como tal, os projetos de depin de GPU bem conhecidos geralmente evoluíram desde os primeiros dias de hardware principalmente de consumo para ter disponibilidade de a100/h100 e em nível de cluster.

realidade - os casos de uso práticos e realistas de cripto x ai

agora, vamos discutir os casos de uso que fornecem "benefícios reais". estes são "ganha-ganha" reais em que a cripto x ai pode adicionar valor significativo.

benefício real n.º 1: servir clientes web2

mckinseyestimativasessa inteligência artificial generativa poderia adicionar o equivalente a $2,6 trilhões a $4,4 trilhões anualmente em 63 casos de uso analisados, em comparação, o PIB total do Reino Unido em 2021 foi de $3,1 trilhões. Isso aumentaria o impacto de toda a inteligência artificial em 15% a 40%. Essa estimativa dobraria aproximadamente se incluirmos o impacto da incorporação da inteligência artificial generativa em software que atualmente é usado para outras tarefas além desses casos de uso.

se fizeres as contas à estimativa acima, isso implica que o mercado total para a IA (além da IA geradora) poderá valer dezenas de triliões de dólares em todo o mundo. Em comparação, todas as criptomoedas combinadas, incluindo o bitcoin e todas as altcoins, valem apenas cerca de 2,7 triliões de dólares hoje. Então, vamos ser realistas aqui: a grande maioria dos clientes que precisam de IA a curto prazo serão clientes web2, uma vez que os clientes web3 que realmente precisam de IA serão uma pequena fatia desses 2,7 triliões de dólares (considera que o BTC é metade desse mercado e o próprio BTC não precisa/usará IA).

os casos de uso da web3 ai estão apenas a começar e ainda não está nada claro qual será o tamanho desse mercado. mas uma coisa é intuitivamente certa - será uma pequena fração do mercado web2 num futuro previsível. Acreditamos que a web3 ai ainda tem um futuro brilhante, mas isso simplesmente significa que a aplicação mais poderosa da web3 ai, por agora, é servir os clientes web2.

exemplos de clientes web2 que poderiam hipoteticamente beneficiar-se do web3 ai incluem:

  • empresas de software específicas para setores verticais que são construídas desde o início para serem centradas em AI, (por exemplo, cedar.ai ou observe.ai)
  • grandes empresas que estão ajustando modelos para seus próprios fins (por exemplo, netflix)
  • fornecedores de IA em rápido crescimento (por exemplo, anthropic)
  • empresas de software que estão adicionando IA aos seus produtos existentes (por exemplo, Canva)

esta é uma persona de cliente relativamente estável, uma vez que os clientes são geralmente grandes e valiosos. Eles não devem sair do negócio tão cedo e representam clientes potenciais muito grandes para serviços de IA. Os serviços de IA da web3 que atendem aos clientes da web2 se beneficiarão dessa base de clientes estável.

mas por que um cliente web2 gostaria de usar uma pilha web3? o restante deste post faz esse caso.

benefício real #2: reduzir os custos de utilização da gpu através da desativação da gpu

gpu depins aggreGate.io under-utilized gpu compute power (the most reliable of which come from data centers) and make them available for ai inference (an example of this isio.net, que é uma empresa do portefólio de fundos geridos pela hack vc). Uma forma simples de pensar nisto é “airbnb para gpus” (efetivamente, consumo colaborativo de ativos subutilizados).

A razão pela qual estamos entusiasmados com os depins de GPU é que, como mencionado acima, há uma escassez de chips Nvidia e atualmente há ciclos de GPU desperdiçados que podem ser usados para inferência de AI. Esses proprietários de hardware têm um custo afundado e não estão usando totalmente seu equipamento hoje e, portanto, podem oferecer esses ciclos fracionários de GPU a um custo muito mais baixo em comparação com o status quo, já que é efetivamente dinheiro encontrado para os proprietários de hardware.

exemplos incluem:

  • máquinas aws. se você fosse alugar um h100 da aws hoje, você teria que se comprometer com um contrato de 1 ano, porque o mercado está com oferta limitada. isso gera desperdício, já que provavelmente você não vai usar sua gpu 365 dias por ano, 7 dias por semana.
  • hardware de mineração de filecoin. filecoin é uma rede com uma grande quantidade de oferta subsidiada, mas não uma quantidade significativa de demanda real. infelizmente, o filecoin nunca encontrou um verdadeiro encaixe entre produto e mercado, e, portanto, os mineradores de filecoin estão em perigo de falir. Essas máquinas têm gpus e podem ser reutilizadas para tarefas de inferência de IA de menor custo.
  • Hardware de mineração ETH. Quando o ETH mudou de POW para POS, imediatamente disponibilizou uma grande quantidade de hardware que poderia ser reutilizado para inferência de IA.

Observe que nem todo hardware de GPU é apropriado para inferência de IA. Uma razão flagrante para isso é que as GPUs mais antigas não têm a quantidade necessária de memória de GPU para LLMs, embora tenha havido algumas inovações interessantes para ajudar aqui. Exabits, por exemplo, tem tecnologia que carrega neurônios ativos na memória da gpu e neurônios inativos na memória da cpu. eles preveem quais neurônios precisam estar ativos / inativos. isso permite que gpus de baixo desempenho processem cargas de trabalho de ia, mesmo com memória limitada da gpu. isso efetivamente torna gpus de baixo desempenho mais úteis para inferência de ia.

note também que os provedores de serviços web3 ai precisarão fortalecer suas ofertas ao longo do tempo e oferecer serviços de classe empresarial, como login único, conformidade com soc 2, acordos de nível de serviço (slas) e muito mais. isso refletiria os serviços sob as ofertas de nuvem atuais que os clientes web2 atualmente desfrutam.

Benefício real #3: Modelos sem censura para evitar a autocensura da OpenAI

tem havido muita conversa sobre a censura de ia. a turquia, por exemplo, proibiu temporariamente a openai (mais tarde, voltou atrás nessa decisão, uma vez que a openai melhorou sua conformidade). acreditamos que esse tipo de censura a nível de país é fundamentalmente desinteressante, uma vez que os países precisarão abraçar a ia para permanecerem competitivos.

mais interessante é o fato de que a openai se autocensura. por exemplo, a openai não lidará com conteúdo nsfw. nem previrá a próxima eleição presidencial. achamos que há um mercado interessante e grande para casos de uso de ia que a openai não abordará por motivos políticos.

a open sourcing é uma ótima solução para isso, uma vez que um repositório do github não está sujeito a acionistas nem a um conselho de administração. um exemplo disso é Venice.ai, que promete preservar sua privacidade e operar de maneira não censurada. a chave, é claro, é ser de código aberto, o que alimenta isso. o que a web3 ai pode efetivamente trazer para elevar isso é alimentar esses modelos de software de código aberto (oss) em um cluster gpu de baixo custo para realizar essa inferência. É por essas razões que acreditamos que oss + web3 são a combinação ideal para pavimentar o caminho para a ia não censurada.

benefício real nº 4: evitar o envio de informações pessoalmente identificáveis para a openai

muitas grandes empresas têm preocupações com a privacidade dos seus dados internos da empresa. para estes clientes, pode ser extremamente difícil confiar numa terceira parte centralizada, como a openai, com esses dados.

com web3, pode parecer (à primeira vista) ainda mais assustador para essas empresas, uma vez que seus dados internos estão de repente em uma rede descentralizada. no entanto, existem algumas inovações em tecnologias de aprimoramento de privacidade para aia:

  • Ambientes de execução confiáveis (TEE), como o Super protocol
  • criptografia totalmente homomórfica (fhe) como Fhenix.io (uma empresa do portfólio de um fundo gerido pela hack vc) ou rede Inco (cada um dos quais são alimentados por Zama.ai), e ppml do Bagel

essas tecnologias ainda estão evoluindo, e o desempenho está melhorando através dos próximos zero knowledge (zk) e fhe asics. mas o objetivo de longo prazo é proteger os dados da empresa ao ajustar um modelo. à medida que esses protocolos surgem, o web3 pode se tornar um local mais atraente para computação de ia preservadora da privacidade.

benefício real nº 5: aproveite as últimas inovações em modelos de código aberto

oss tem consistentemente erodido a participação de mercado de software proprietário nas últimas décadas. nós vemos um llm como simplesmente uma forma sofisticada de software proprietário que está pronto para a perturbação de oss. alguns exemplos notáveis de desafiantes incluem Lhama, RWKV, e Mistral.ai. esta lista certamente irá crescer à medida que o tempo passa (uma lista mais abrangente está disponível em Openrouter.ai). ao aproveitar a web3 ai (alimentada por modelos oss), pode-se aproveitar essas novas inovações.

acreditamos que, à medida que o tempo avança, uma força de trabalho global de desenvolvimento de código aberto, combinada com incentivos cripto, pode impulsionar uma rápida inovação em modelos de código aberto, bem como os agentes e estruturas construídos em cima deles. um exemplo de um protocolo de agente de IA é Theoriq. Theoriq utiliza modelos OSS para criar uma rede componível e interconectada de agentes de IA que podem ser montados para criar soluções de IA de nível superior.

a razão pela qual temos convicção aqui é devido ao passado: a maioria do “software de desenvolvedor” tem sido lentamente superado pelo oss ao longo do tempo. a microsoft costumava ser uma empresa de software proprietário, e agora eles são a empresa nº 1 a contribuir para o github, e há uma razão para isso. se olharmos para como o databricks, postgressql, mongodb e outros têm perturbado os bancos de dados proprietários, esse é um exemplo de uma indústria inteira que foi virada de cabeça para baixo pelo oss, portanto, o precedente aqui é bastante forte.

no entanto, isso vem com uma ressalva. uma das coisas complicadas com oss llms é que a openai começou a criar acordos de licenciamento de dados pagos com organizações, como reddit e the new york times. se essa tendência continuar, pode se tornar mais difícil para oss llms competir devido à barreira financeira envolvida na aquisição de dados. pode ser possível que a nvidia se concentre em computação confidencial como um habilitador seguro de compartilhamento de dados. o tempo dirá como isso se desenrola.

benefício real nº 6: consenso alcançado por meio de amostragem aleatória com altos custos de penalização ou por meio de provas zk

um dos desafios com a inferência de IA web3 é a verificação. Existe uma oportunidade hipotética para validadores trapacearem em seus resultados para ganhar taxas, portanto, verificar inferências é uma medida importante. Observe que essa trapaça ainda não aconteceu, porque a inferência de IA está em seus estágios iniciais, mas é inevitável a menos que medidas sejam tomadas para desincentivar esse comportamento.

a abordagem padrão do web3 é ter vários validadores repetindo a mesma operação e comparando os resultados. O desafio evidente com isso é, como observado, a inferência de IA é cara devido à escassez atual de chips nvidia de alta qualidade. Dado que o web3 pode oferecer inferência de baixo custo através de depins gpu subutilizados, a computação redundante prejudicaria severamente a proposta de valor do web3.

uma solução mais promissora é realizar uma prova zk para computação de inferência de IA fora da cadeia. neste caso, a prova zk sucinta pode ser verificada para determinar que um modelo foi treinado corretamente, ou que a inferência foi executada corretamente (conhecida como zkml). exemplos incluemModulus labs e ZKonduit. o desempenho dessas soluções ainda é incipiente, uma vez que as operações zk são bastante intensivas em computação. no entanto, antecipamos que isso provavelmente melhorará à medida que os zk hardware asics forem lançados em um futuro próximo.

ainda mais promissora é a ideia de uma abordagem de inferência de IA baseada em amostragem um tanto "otimista". neste modelo, você verificaria apenas uma pequena porcentagem dos resultados gerados pelos validadores, mas definiria o custo econômico de redução alta o suficiente para que, se fosse pego, criaria um forte desincentivo econômico para os validadores trapacearem. dessa forma, você economiza em cálculos redundantes (por exemplo, vejaHiperbólico’s Prova de amostragem de papel).

outra ideia promissora é uma solução de marca d'água e impressão digital, como a proposta pelaRede Bagel. isto é semelhante ao mecanismo de garantia de qualidade da Amazon Alexa para modelos de IA no dispositivo para seus milhões de dispositivos.

benefício real nº 7: economia em taxas (margem da OpenAI) via OSS

a próxima oportunidade que o web3 traz para a ia é democratizar os custos. até agora, falamos sobre a economia nos custos da gpu via depins. mas o web3 também oferece oportunidades para economizar nas margens de lucro dos serviços de ia centralizados do web2 (por exemplo, a openai, que está a faturar mais de $1 bilião/ano no momento em que este texto foi escrito). estas economias de custos advêm do facto de estarem a ser utilizados modelos de código aberto em vez de modelos proprietários, proporcionando uma camada adicional de economia, uma vez que o criador do modelo não está a tentar obter lucro.

muitos modelos oss permanecerão completamente gratuitos, o que permite a melhor economia possível para os clientes. mas pode haver alguns modelos oss que também tentam esses métodos de monetização. considere que apenas 4% dos modelos totais no hugging face são treinados por empresas com orçamentos para ajudar a subsidiar os modelos (veraqui). os restantes 96% dos modelos são treinados pela comunidade. Este grupo - 96% da Hugging Face - tem custos reais fundamentais (incluindo custos de computação e de dados). Assim, esses modelos precisarão de alguma forma monetizar.

existem várias propostas para alcançar a monetização de modelos de código aberto. um dos mais interessantes é o conceito de uma “oferta inicial de modelo” (IMO) onde você tokeniza o próprio modelo, reserva uma porcentagem de tokens para a equipe e direciona algumas receitas futuras desse modelo para os detentores de tokens, embora haja claramente alguns obstáculos legais e regulatórios lá.

outros modelos de oss tentarão monetizar o uso. note que, se isso se concretizar, os modelos de oss podem começar a se assemelhar cada vez mais aos seus homólogos da web2 que geram lucro. mas, realisticamente, o mercado será bifurcado, com alguns modelos permanecendo completamente gratuitos.

benefício real nº 8: coleta de dados descentralizada

um dos maiores desafios com ai é obter os dados certos para treinar seus modelos. mencionamos anteriormente que o treinamento de IA descentralizado tem seus desafios. mas e quanto ao uso de uma rede descentralizada para obter dados (que podem ser usados para treinamento em outro lugar, até mesmo em locais web2 tradicionais)?

isso é exatamente o que as startups como Relvaestão a fazer. a erva é uma rede descentralizada de "raspadores de dados," indivíduos que contribuem com a capacidade de processamento inativa de suas máquinas para obter dados para informar o treinamento de modelos de ia. hipoteticamente, em grande escala, esta obtenção de dados pode ser superior aos esforços internos de uma única empresa para obter dados devido à enorme capacidade de uma grande rede de nós incentivados. isto inclui não só a obtenção de mais dados, mas também a obtenção desses dados com mais frequência, de forma a tornar os dados mais relevantes e atualizados. também é virtualmente impossível parar um exército descentralizado de raspadores de dados, uma vez que são inerentemente fragmentados e não residem num único endereço ip. eles também têm uma rede de humanos que podem limpar e normalizar os dados, para que estes sejam úteis após serem obtidos.

uma vez que tenha os dados, também precisa de um local para os armazenar na cadeia, bem como os llms que são gerados com esses dados.0g.AIé o líder inicial nesta categoria. é uma solução de armazenamento web3 de alto desempenho otimizada para IA que é significativamente mais barata do que a AWS (outra vitória econômica para a IA web3), enquanto também serve como infraestrutura de disponibilidade de dados para camadas 2, IA e muito mais.

note que o papel dos dados pode estar a mudar no web3 ai no futuro. hoje, o status quo atual para os llms é pré-treinar um modelo com dados e refiná-lo ao longo do tempo com mais dados. no entanto, esses modelos estão sempre ligeiramente desatualizados, uma vez que os dados na internet estão a mudar em tempo real. assim, as respostas da inferência llm são ligeiramente imprecisas.

o futuro de onde o mundo pode estar indo é um novo paradigma - dados em tempo real. O conceito é quando um llm é perguntado uma pergunta de inferência, esse llm pode usar a injeção de prompt de dados no llm, onde esses dados são coletados em tempo real da internet. Dessa forma, o llm usa os dados mais atualizados possíveis. A grass também está pesquisando isso.

conclusão

Esperamos que isto sirva como uma análise útil para si ao pensar sobre promessas versus realidades da web3 ai. Este é apenas um ponto de partida para a conversa, e o panorama está a mudar rapidamente, por isso sinta-se à vontade para participar e expressar também as suas opiniões, pois adoraríamos continuar a aprender e a construir juntos.

reconhecimentos

um agradecimento muito especial a albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng e jw wang pelo seu feedback e contribuição para este post.


As informações aqui contidas têm apenas fins informativos gerais e não, nem são destinadas a constituir aconselhamento de investimento e não devem ser utilizadas na avaliação de qualquer decisão de investimento. Tais informações não devem ser usadas para aconselhamento contábil, jurídico, fiscal, de negócios, de investimento ou de outros assuntos relevantes. Você deve consultar seus próprios consultores, incluindo seu próprio conselheiro, para obter aconselhamento contábil, jurídico, fiscal, de negócios, de investimento ou de outros assuntos relevantes, incluindo em relação a qualquer coisa discutida aqui.

esta publicação reflete as opiniões atuais do(s) autor(es) e não é feita em nome do hack vc ou de suas afiliadas, incluindo quaisquer fundos geridos pelo hack vc, e não reflete necessariamente as opiniões do hack vc, suas afiliadas, incluindo suas afiliadas parceiras gerais, ou de quaisquer outras pessoas associadas ao hack vc. Certas informações aqui contidas foram obtidas de fontes publicadas e/ou preparadas por terceiros e, em certos casos, não foram atualizadas até a data presente. Embora tais fontes sejam consideradas confiáveis, nem o hack vc, suas afiliadas, incluindo suas afiliadas parceiras gerais, ou quaisquer outras pessoas associadas ao hack vc estão fazendo representações quanto à sua exatidão ou integridade, e elas não devem ser consideradas como tal ou ser a base para uma decisão contábil, jurídica, fiscal, comercial, de investimento ou outra. As informações aqui não pretendem ser completas e estão sujeitas a alterações, e o hack vc não tem a obrigação de atualizar tais informações ou fazer qualquer notificação se essas informações se tornarem imprecisas.

o desempenho passado não é necessariamente indicativo de resultados futuros. quaisquer declarações prospectivas feitas aqui são baseadas em certas suposições e análises feitas pelo autor com base em sua experiência e percepção de tendências históricas, condições atuais e desenvolvimentos futuros esperados, além de outros fatores que ele considera apropriados nas circunstâncias. tais declarações não são garantias de desempenho futuro e estão sujeitas a certos riscos, incertezas e suposições difíceis de prever.

declaração:

  1. este artigo é reproduzido de[Hack vc], o título original “ai x crypto - promessas e realidades”, os direitos autorais pertencem ao autor original [ed roman, sócio-gerente da hack vc], se você tiver alguma objeção à reprodução, entre em contatoEquipa de aprendizagem da GateA equipa tratará do assunto o mais brevemente possível, de acordo com os procedimentos relevantes.

  2. aviso legal: as opiniões expressas neste artigo representam apenas as opiniões pessoais do autor e não constituem qualquer aconselhamento de investimento.

  3. outras versões do artigo são traduzidas pela equipe de aprendizado da Gate.io, não mencionadas emGate.io, o artigo traduzido não pode ser reproduzido, distribuído ou plagiado.

AI x Cripto - Promessas e Realidades

IntermediárioJul 13, 2024
AI+Crypto é uma das áreas de vanguarda mais notáveis no mercado recente de criptomoedas. Isso inclui treinamento de IA descentralizado, DePINs de GPU e modelos de IA resistentes à censura. O principal problema com o treinamento de IA reside na necessidade de comunicação e coordenação de alta velocidade entre GPUs, uma vez que as redes neurais requerem retropropagação durante o treinamento. A introdução de uma rede descentralizada pode significativamente desacelerar o processo devido ao aumento da latência e largura de banda da rede. Este artigo também organiza soluções para os desafios atuais e fornece exemplos de como a integração de criptomoedas e IA pode adicionar valor significativo.
AI x Cripto - Promessas e Realidades

ai é uma das categorias mais quentes e promissoras nos mercados de cripto recentemente.

💡treinamento de IA descentralizada

💡gpu depins

💡modelos de IA sem censura

são essas inovações ou apenas palavras da moda? 🤔

na hack vc, estamos cortando o barulho para separar a promessa da realidade.

esta publicação analisa as principais ideias de cripto x ai. vamos discutir os desafios reais e as oportunidades.

ideias com promessa inicial, mas que enfrentaram desafios na realidade.

primeiro, vamos começar com a “promessa da web3 ai”—ideias que têm bastante hype, mas para as quais a realidade pode não ser tão reluzente.

ideia #1: treino de IA descentralizado

o problema com o treinamento de IA on-chain é que o treinamento requer comunicação e coordenação de alta velocidade entre GPUs, devido às redes neurais que requerem retropropagação quando treinadas. A nvidia tem duas inovações para isso (NVLinkeInfiniBand). Essas tecnologias tornam a comunicação da GPU ultra rápida, mas são tecnologias apenas locais que são aplicáveis apenas dentro de clusters de GPU localizados em um único datacenter (velocidades de 50+ gigabits).

se você introduzir uma rede descentralizada na imagem, de repente você fica várias ordens de magnitude mais lento devido à latência e largura de banda adicionadas à rede. isso é inaceitável para casos de uso de treinamento de IA em comparação com a taxa de transferência que você obtém da interconectividade de alta velocidade da nvidia dentro de um datacenter.

note que houve algumas inovações aqui que podem trazer alguma esperança para o futuro:

  • o treinamento distribuído sobre infiniband está acontecendo em uma escala considerável, já que a própria nvidia está apoiando o treinamento distribuído e não local sobre infiniband via a biblioteca de comunicações coletivas da nvidia. No entanto, ainda está em estágio inicial, então as métricas de adoção estão por determinar. Ver aqui. o gargalo que são as leis da física sobre a distância ainda se aplica, portanto, o treinamento local sobre infiniband ainda é significativamente mais rápido.
  • houve alguma pesquisa inovadora publicada para treinamento descentralizado que depende de menos sincronizações de comunicação que poderiam potencialmente tornar o treinamento descentralizado mais prático no futuro. ver aquieaqui.
  • A fragmentação e agendamento inteligentes do treinamento de modelos podem ajudar a melhorar o desempenho. Da mesma forma, novas arquiteturas de modelos podem ser projetadas de forma única para infraestrutura distribuída no futuro (a gensyn está pesquisando nessas áreas).

o componente de dados do treinamento também é desafiador. qualquer processo de treinamento de IA envolve trabalhar com vastas quantidades de dados. normalmente, os modelos são treinados em sistemas de armazenamento de dados centralizados e seguros, com alta escalabilidade e desempenho. isso requer transferência e processamento de terabytes de dados, e isso não é um ciclo único. os dados geralmente são ruidosos e contêm erros, portanto, devem ser limpos e transformados em um formato utilizável antes de treinar o modelo. essa etapa envolve tarefas repetitivas de normalização, filtragem e tratamento de valores ausentes. tudo isso representa desafios sérios em um ambiente descentralizado.

o componente de dados do treinamento também é iterativo, o que não se adequa bem ao web3. a openai levou milhares de iterações para alcançar seus resultados. o cenário de tarefa mais básico para um especialista em ciência de dados em uma equipe de ia inclui a definição de objetivos, preparação de dados e análise e estruturação de dados para extrair insights importantes e torná-los adequados para modelagem. em seguida, um modelo de aprendizado de máquina é desenvolvido para resolver o problema definido, e seu desempenho é validado usando um conjunto de dados de teste. este processo é iterativo: se o modelo atual não se comportar como esperado, o especialista retorna à coleta de dados ou à etapa de treinamento do modelo para melhorar os resultados. agora, imagine este processo em um ambiente descentralizado, onde os melhores frameworks e ferramentas existentes não estão facilmente disponíveis no web3.

A outra preocupação com a formação de modelos de IA on-chain é que é um mercado muito menos interessante em comparação com a inferência. Por agora, há uma quantidade enorme de computação de GPU sendo usada para treinar IA llm. Mas, a longo prazo, a inferência se tornará (de longe) o caso de uso mais prevalente das GPUs. Considere: quantos AI llms precisam ser treinados para o mundo ficar feliz, em comparação com o número de clientes que usarão esses modelos?

uma solução que está progredindo em todas as frentes é 0g.ai (apoiada por hack vc) que fornece tanto armazenamento de dados on-chain quanto infraestrutura de disponibilidade de dados. Sua arquitetura ultra rápida e capacidade de armazenar grandes quantidades de dados on-chain permitem o treinamento rápido e iterativo de modelos de IA on-chain de qualquer tipo.

ideia #2: usando cálculo excessivamente redundante de inferência de IA para consenso

Um dos desafios com cripto x IA é verificar a precisão da inferência da IA, uma vez que não se pode necessariamente confiar em uma única parte centralizada para realizar essa inferência devido ao potencial de nós mal comportados. Esse desafio não existe na IA da web2 porque não há um sistema de consenso descentralizado.

Uma ideia proposta para resolver isso é a computação redundante, onde vários nós repetem a mesma operação de inferência de IA, para que você possa operar de maneira confiável e não ter um único ponto de falha.

o problema com esta abordagem é que vivemos num mundo com uma escassez drástica de chips de ia de alta qualidade. há um período de espera de vários anos para chips nvidia de alta qualidade, e isso resulta em aumentos de preço. se fosse necessário que a sua inferência de ia fosse reexecutada várias vezes em vários nós, estaria agora a multiplicar esses custos dispendiosos. isto vai ser inaceitável para muitos projetos.

ideia #3: casos de uso de IA específicos para web3 a curto prazo

houve sugestões de que o web3 deveria ter casos de uso de ia próprios e únicos que são específicos para os clientes do web3. isso pode ser (por exemplo) um protocolo web3 que usa ia para realizar a pontuação de risco de uma pool defi, uma carteira web3 sugerindo novos protocolos com base no histórico da sua carteira, ou um jogo web3 que usa ia para controlar personagens não-jogadores (npcs).

por agora, este é (a curto prazo) um mercado em desenvolvimento onde os casos de uso ainda estão a ser descobertos. alguns desafios incluem:

  • são necessárias menos transações de IA potenciais para casos de uso nativos do Web3, uma vez que a demanda de mercado ainda está em sua infância.
  • menos clientes, uma vez que há ordens de magnitude menos clientes web3 em comparação com clientes web2, portanto o mercado é menos fragmentado.
  • os próprios clientes são menos estáveis, pois são startups com menos financiamento, então algumas dessas startups podem desaparecer ao longo do tempo. um provedor de serviços de IA web3 que atende a clientes web3 provavelmente precisará adquirir novamente uma parte de sua base de clientes ao longo do tempo para substituir aqueles que desaparecem, tornando-se um negócio mais desafiador para escalar.

a longo prazo, somos bastante otimistas em relação aos casos de uso de inteligência artificial nativa da web3, especialmente à medida que os agentes de IA se tornam mais predominantes. Imaginamos um futuro onde qualquer usuário web3 tem uma infinidade de agentes de IA a ajudá-los. O líder da categoria inicial para isso é Theoriq (apoiado pela hack vc), que permite agentes de IA em cadeia autônomos e componíveis.

ideia #4: GPU de nível de consumidor depins

existem várias redes de computação AI descentralizadas que dependem de GPUs de consumo em vez de centros de dados. GPUs de consumo são úteis para tarefas de inferência AI de baixo desempenho ou para casos de uso do consumidor onde a latência, a taxa de transferência e a confiabilidade são flexíveis. Mas para casos de uso empresarial sérios (que é a maioria do mercado que importa), os clientes desejam uma rede de confiabilidade mais alta em comparação com as máquinas domésticas das pessoas e, frequentemente, precisam de GPUs de alto desempenho se tiverem tarefas de inferência mais complexas. Os centros de dados são mais apropriados para esses casos de uso de clientes mais valiosos.

Note que consideramos as GPUs de consumo úteis para fins de demonstração ou para indivíduos e startups que podem tolerar menor confiabilidade. Mas esses clientes são fundamentalmente menos valiosos, então acreditamos que os projetos de depin que atendem às empresas web2 serão mais valiosos a longo prazo. Como tal, os projetos de depin de GPU bem conhecidos geralmente evoluíram desde os primeiros dias de hardware principalmente de consumo para ter disponibilidade de a100/h100 e em nível de cluster.

realidade - os casos de uso práticos e realistas de cripto x ai

agora, vamos discutir os casos de uso que fornecem "benefícios reais". estes são "ganha-ganha" reais em que a cripto x ai pode adicionar valor significativo.

benefício real n.º 1: servir clientes web2

mckinseyestimativasessa inteligência artificial generativa poderia adicionar o equivalente a $2,6 trilhões a $4,4 trilhões anualmente em 63 casos de uso analisados, em comparação, o PIB total do Reino Unido em 2021 foi de $3,1 trilhões. Isso aumentaria o impacto de toda a inteligência artificial em 15% a 40%. Essa estimativa dobraria aproximadamente se incluirmos o impacto da incorporação da inteligência artificial generativa em software que atualmente é usado para outras tarefas além desses casos de uso.

se fizeres as contas à estimativa acima, isso implica que o mercado total para a IA (além da IA geradora) poderá valer dezenas de triliões de dólares em todo o mundo. Em comparação, todas as criptomoedas combinadas, incluindo o bitcoin e todas as altcoins, valem apenas cerca de 2,7 triliões de dólares hoje. Então, vamos ser realistas aqui: a grande maioria dos clientes que precisam de IA a curto prazo serão clientes web2, uma vez que os clientes web3 que realmente precisam de IA serão uma pequena fatia desses 2,7 triliões de dólares (considera que o BTC é metade desse mercado e o próprio BTC não precisa/usará IA).

os casos de uso da web3 ai estão apenas a começar e ainda não está nada claro qual será o tamanho desse mercado. mas uma coisa é intuitivamente certa - será uma pequena fração do mercado web2 num futuro previsível. Acreditamos que a web3 ai ainda tem um futuro brilhante, mas isso simplesmente significa que a aplicação mais poderosa da web3 ai, por agora, é servir os clientes web2.

exemplos de clientes web2 que poderiam hipoteticamente beneficiar-se do web3 ai incluem:

  • empresas de software específicas para setores verticais que são construídas desde o início para serem centradas em AI, (por exemplo, cedar.ai ou observe.ai)
  • grandes empresas que estão ajustando modelos para seus próprios fins (por exemplo, netflix)
  • fornecedores de IA em rápido crescimento (por exemplo, anthropic)
  • empresas de software que estão adicionando IA aos seus produtos existentes (por exemplo, Canva)

esta é uma persona de cliente relativamente estável, uma vez que os clientes são geralmente grandes e valiosos. Eles não devem sair do negócio tão cedo e representam clientes potenciais muito grandes para serviços de IA. Os serviços de IA da web3 que atendem aos clientes da web2 se beneficiarão dessa base de clientes estável.

mas por que um cliente web2 gostaria de usar uma pilha web3? o restante deste post faz esse caso.

benefício real #2: reduzir os custos de utilização da gpu através da desativação da gpu

gpu depins aggreGate.io under-utilized gpu compute power (the most reliable of which come from data centers) and make them available for ai inference (an example of this isio.net, que é uma empresa do portefólio de fundos geridos pela hack vc). Uma forma simples de pensar nisto é “airbnb para gpus” (efetivamente, consumo colaborativo de ativos subutilizados).

A razão pela qual estamos entusiasmados com os depins de GPU é que, como mencionado acima, há uma escassez de chips Nvidia e atualmente há ciclos de GPU desperdiçados que podem ser usados para inferência de AI. Esses proprietários de hardware têm um custo afundado e não estão usando totalmente seu equipamento hoje e, portanto, podem oferecer esses ciclos fracionários de GPU a um custo muito mais baixo em comparação com o status quo, já que é efetivamente dinheiro encontrado para os proprietários de hardware.

exemplos incluem:

  • máquinas aws. se você fosse alugar um h100 da aws hoje, você teria que se comprometer com um contrato de 1 ano, porque o mercado está com oferta limitada. isso gera desperdício, já que provavelmente você não vai usar sua gpu 365 dias por ano, 7 dias por semana.
  • hardware de mineração de filecoin. filecoin é uma rede com uma grande quantidade de oferta subsidiada, mas não uma quantidade significativa de demanda real. infelizmente, o filecoin nunca encontrou um verdadeiro encaixe entre produto e mercado, e, portanto, os mineradores de filecoin estão em perigo de falir. Essas máquinas têm gpus e podem ser reutilizadas para tarefas de inferência de IA de menor custo.
  • Hardware de mineração ETH. Quando o ETH mudou de POW para POS, imediatamente disponibilizou uma grande quantidade de hardware que poderia ser reutilizado para inferência de IA.

Observe que nem todo hardware de GPU é apropriado para inferência de IA. Uma razão flagrante para isso é que as GPUs mais antigas não têm a quantidade necessária de memória de GPU para LLMs, embora tenha havido algumas inovações interessantes para ajudar aqui. Exabits, por exemplo, tem tecnologia que carrega neurônios ativos na memória da gpu e neurônios inativos na memória da cpu. eles preveem quais neurônios precisam estar ativos / inativos. isso permite que gpus de baixo desempenho processem cargas de trabalho de ia, mesmo com memória limitada da gpu. isso efetivamente torna gpus de baixo desempenho mais úteis para inferência de ia.

note também que os provedores de serviços web3 ai precisarão fortalecer suas ofertas ao longo do tempo e oferecer serviços de classe empresarial, como login único, conformidade com soc 2, acordos de nível de serviço (slas) e muito mais. isso refletiria os serviços sob as ofertas de nuvem atuais que os clientes web2 atualmente desfrutam.

Benefício real #3: Modelos sem censura para evitar a autocensura da OpenAI

tem havido muita conversa sobre a censura de ia. a turquia, por exemplo, proibiu temporariamente a openai (mais tarde, voltou atrás nessa decisão, uma vez que a openai melhorou sua conformidade). acreditamos que esse tipo de censura a nível de país é fundamentalmente desinteressante, uma vez que os países precisarão abraçar a ia para permanecerem competitivos.

mais interessante é o fato de que a openai se autocensura. por exemplo, a openai não lidará com conteúdo nsfw. nem previrá a próxima eleição presidencial. achamos que há um mercado interessante e grande para casos de uso de ia que a openai não abordará por motivos políticos.

a open sourcing é uma ótima solução para isso, uma vez que um repositório do github não está sujeito a acionistas nem a um conselho de administração. um exemplo disso é Venice.ai, que promete preservar sua privacidade e operar de maneira não censurada. a chave, é claro, é ser de código aberto, o que alimenta isso. o que a web3 ai pode efetivamente trazer para elevar isso é alimentar esses modelos de software de código aberto (oss) em um cluster gpu de baixo custo para realizar essa inferência. É por essas razões que acreditamos que oss + web3 são a combinação ideal para pavimentar o caminho para a ia não censurada.

benefício real nº 4: evitar o envio de informações pessoalmente identificáveis para a openai

muitas grandes empresas têm preocupações com a privacidade dos seus dados internos da empresa. para estes clientes, pode ser extremamente difícil confiar numa terceira parte centralizada, como a openai, com esses dados.

com web3, pode parecer (à primeira vista) ainda mais assustador para essas empresas, uma vez que seus dados internos estão de repente em uma rede descentralizada. no entanto, existem algumas inovações em tecnologias de aprimoramento de privacidade para aia:

  • Ambientes de execução confiáveis (TEE), como o Super protocol
  • criptografia totalmente homomórfica (fhe) como Fhenix.io (uma empresa do portfólio de um fundo gerido pela hack vc) ou rede Inco (cada um dos quais são alimentados por Zama.ai), e ppml do Bagel

essas tecnologias ainda estão evoluindo, e o desempenho está melhorando através dos próximos zero knowledge (zk) e fhe asics. mas o objetivo de longo prazo é proteger os dados da empresa ao ajustar um modelo. à medida que esses protocolos surgem, o web3 pode se tornar um local mais atraente para computação de ia preservadora da privacidade.

benefício real nº 5: aproveite as últimas inovações em modelos de código aberto

oss tem consistentemente erodido a participação de mercado de software proprietário nas últimas décadas. nós vemos um llm como simplesmente uma forma sofisticada de software proprietário que está pronto para a perturbação de oss. alguns exemplos notáveis de desafiantes incluem Lhama, RWKV, e Mistral.ai. esta lista certamente irá crescer à medida que o tempo passa (uma lista mais abrangente está disponível em Openrouter.ai). ao aproveitar a web3 ai (alimentada por modelos oss), pode-se aproveitar essas novas inovações.

acreditamos que, à medida que o tempo avança, uma força de trabalho global de desenvolvimento de código aberto, combinada com incentivos cripto, pode impulsionar uma rápida inovação em modelos de código aberto, bem como os agentes e estruturas construídos em cima deles. um exemplo de um protocolo de agente de IA é Theoriq. Theoriq utiliza modelos OSS para criar uma rede componível e interconectada de agentes de IA que podem ser montados para criar soluções de IA de nível superior.

a razão pela qual temos convicção aqui é devido ao passado: a maioria do “software de desenvolvedor” tem sido lentamente superado pelo oss ao longo do tempo. a microsoft costumava ser uma empresa de software proprietário, e agora eles são a empresa nº 1 a contribuir para o github, e há uma razão para isso. se olharmos para como o databricks, postgressql, mongodb e outros têm perturbado os bancos de dados proprietários, esse é um exemplo de uma indústria inteira que foi virada de cabeça para baixo pelo oss, portanto, o precedente aqui é bastante forte.

no entanto, isso vem com uma ressalva. uma das coisas complicadas com oss llms é que a openai começou a criar acordos de licenciamento de dados pagos com organizações, como reddit e the new york times. se essa tendência continuar, pode se tornar mais difícil para oss llms competir devido à barreira financeira envolvida na aquisição de dados. pode ser possível que a nvidia se concentre em computação confidencial como um habilitador seguro de compartilhamento de dados. o tempo dirá como isso se desenrola.

benefício real nº 6: consenso alcançado por meio de amostragem aleatória com altos custos de penalização ou por meio de provas zk

um dos desafios com a inferência de IA web3 é a verificação. Existe uma oportunidade hipotética para validadores trapacearem em seus resultados para ganhar taxas, portanto, verificar inferências é uma medida importante. Observe que essa trapaça ainda não aconteceu, porque a inferência de IA está em seus estágios iniciais, mas é inevitável a menos que medidas sejam tomadas para desincentivar esse comportamento.

a abordagem padrão do web3 é ter vários validadores repetindo a mesma operação e comparando os resultados. O desafio evidente com isso é, como observado, a inferência de IA é cara devido à escassez atual de chips nvidia de alta qualidade. Dado que o web3 pode oferecer inferência de baixo custo através de depins gpu subutilizados, a computação redundante prejudicaria severamente a proposta de valor do web3.

uma solução mais promissora é realizar uma prova zk para computação de inferência de IA fora da cadeia. neste caso, a prova zk sucinta pode ser verificada para determinar que um modelo foi treinado corretamente, ou que a inferência foi executada corretamente (conhecida como zkml). exemplos incluemModulus labs e ZKonduit. o desempenho dessas soluções ainda é incipiente, uma vez que as operações zk são bastante intensivas em computação. no entanto, antecipamos que isso provavelmente melhorará à medida que os zk hardware asics forem lançados em um futuro próximo.

ainda mais promissora é a ideia de uma abordagem de inferência de IA baseada em amostragem um tanto "otimista". neste modelo, você verificaria apenas uma pequena porcentagem dos resultados gerados pelos validadores, mas definiria o custo econômico de redução alta o suficiente para que, se fosse pego, criaria um forte desincentivo econômico para os validadores trapacearem. dessa forma, você economiza em cálculos redundantes (por exemplo, vejaHiperbólico’s Prova de amostragem de papel).

outra ideia promissora é uma solução de marca d'água e impressão digital, como a proposta pelaRede Bagel. isto é semelhante ao mecanismo de garantia de qualidade da Amazon Alexa para modelos de IA no dispositivo para seus milhões de dispositivos.

benefício real nº 7: economia em taxas (margem da OpenAI) via OSS

a próxima oportunidade que o web3 traz para a ia é democratizar os custos. até agora, falamos sobre a economia nos custos da gpu via depins. mas o web3 também oferece oportunidades para economizar nas margens de lucro dos serviços de ia centralizados do web2 (por exemplo, a openai, que está a faturar mais de $1 bilião/ano no momento em que este texto foi escrito). estas economias de custos advêm do facto de estarem a ser utilizados modelos de código aberto em vez de modelos proprietários, proporcionando uma camada adicional de economia, uma vez que o criador do modelo não está a tentar obter lucro.

muitos modelos oss permanecerão completamente gratuitos, o que permite a melhor economia possível para os clientes. mas pode haver alguns modelos oss que também tentam esses métodos de monetização. considere que apenas 4% dos modelos totais no hugging face são treinados por empresas com orçamentos para ajudar a subsidiar os modelos (veraqui). os restantes 96% dos modelos são treinados pela comunidade. Este grupo - 96% da Hugging Face - tem custos reais fundamentais (incluindo custos de computação e de dados). Assim, esses modelos precisarão de alguma forma monetizar.

existem várias propostas para alcançar a monetização de modelos de código aberto. um dos mais interessantes é o conceito de uma “oferta inicial de modelo” (IMO) onde você tokeniza o próprio modelo, reserva uma porcentagem de tokens para a equipe e direciona algumas receitas futuras desse modelo para os detentores de tokens, embora haja claramente alguns obstáculos legais e regulatórios lá.

outros modelos de oss tentarão monetizar o uso. note que, se isso se concretizar, os modelos de oss podem começar a se assemelhar cada vez mais aos seus homólogos da web2 que geram lucro. mas, realisticamente, o mercado será bifurcado, com alguns modelos permanecendo completamente gratuitos.

benefício real nº 8: coleta de dados descentralizada

um dos maiores desafios com ai é obter os dados certos para treinar seus modelos. mencionamos anteriormente que o treinamento de IA descentralizado tem seus desafios. mas e quanto ao uso de uma rede descentralizada para obter dados (que podem ser usados para treinamento em outro lugar, até mesmo em locais web2 tradicionais)?

isso é exatamente o que as startups como Relvaestão a fazer. a erva é uma rede descentralizada de "raspadores de dados," indivíduos que contribuem com a capacidade de processamento inativa de suas máquinas para obter dados para informar o treinamento de modelos de ia. hipoteticamente, em grande escala, esta obtenção de dados pode ser superior aos esforços internos de uma única empresa para obter dados devido à enorme capacidade de uma grande rede de nós incentivados. isto inclui não só a obtenção de mais dados, mas também a obtenção desses dados com mais frequência, de forma a tornar os dados mais relevantes e atualizados. também é virtualmente impossível parar um exército descentralizado de raspadores de dados, uma vez que são inerentemente fragmentados e não residem num único endereço ip. eles também têm uma rede de humanos que podem limpar e normalizar os dados, para que estes sejam úteis após serem obtidos.

uma vez que tenha os dados, também precisa de um local para os armazenar na cadeia, bem como os llms que são gerados com esses dados.0g.AIé o líder inicial nesta categoria. é uma solução de armazenamento web3 de alto desempenho otimizada para IA que é significativamente mais barata do que a AWS (outra vitória econômica para a IA web3), enquanto também serve como infraestrutura de disponibilidade de dados para camadas 2, IA e muito mais.

note que o papel dos dados pode estar a mudar no web3 ai no futuro. hoje, o status quo atual para os llms é pré-treinar um modelo com dados e refiná-lo ao longo do tempo com mais dados. no entanto, esses modelos estão sempre ligeiramente desatualizados, uma vez que os dados na internet estão a mudar em tempo real. assim, as respostas da inferência llm são ligeiramente imprecisas.

o futuro de onde o mundo pode estar indo é um novo paradigma - dados em tempo real. O conceito é quando um llm é perguntado uma pergunta de inferência, esse llm pode usar a injeção de prompt de dados no llm, onde esses dados são coletados em tempo real da internet. Dessa forma, o llm usa os dados mais atualizados possíveis. A grass também está pesquisando isso.

conclusão

Esperamos que isto sirva como uma análise útil para si ao pensar sobre promessas versus realidades da web3 ai. Este é apenas um ponto de partida para a conversa, e o panorama está a mudar rapidamente, por isso sinta-se à vontade para participar e expressar também as suas opiniões, pois adoraríamos continuar a aprender e a construir juntos.

reconhecimentos

um agradecimento muito especial a albert castellana, jasper zhang, vassilis tziokas, bidhan roy, rezo, vincent weisser, shashank yadav, ali husain, nukri basharuli, emad mostaque, david minarsch, tommy shaughnessy, michael heinrich, keccak wong, marc weinstein, phillip bonello, jeff amico, ejaaz ahamadeen, evan feng e jw wang pelo seu feedback e contribuição para este post.


As informações aqui contidas têm apenas fins informativos gerais e não, nem são destinadas a constituir aconselhamento de investimento e não devem ser utilizadas na avaliação de qualquer decisão de investimento. Tais informações não devem ser usadas para aconselhamento contábil, jurídico, fiscal, de negócios, de investimento ou de outros assuntos relevantes. Você deve consultar seus próprios consultores, incluindo seu próprio conselheiro, para obter aconselhamento contábil, jurídico, fiscal, de negócios, de investimento ou de outros assuntos relevantes, incluindo em relação a qualquer coisa discutida aqui.

esta publicação reflete as opiniões atuais do(s) autor(es) e não é feita em nome do hack vc ou de suas afiliadas, incluindo quaisquer fundos geridos pelo hack vc, e não reflete necessariamente as opiniões do hack vc, suas afiliadas, incluindo suas afiliadas parceiras gerais, ou de quaisquer outras pessoas associadas ao hack vc. Certas informações aqui contidas foram obtidas de fontes publicadas e/ou preparadas por terceiros e, em certos casos, não foram atualizadas até a data presente. Embora tais fontes sejam consideradas confiáveis, nem o hack vc, suas afiliadas, incluindo suas afiliadas parceiras gerais, ou quaisquer outras pessoas associadas ao hack vc estão fazendo representações quanto à sua exatidão ou integridade, e elas não devem ser consideradas como tal ou ser a base para uma decisão contábil, jurídica, fiscal, comercial, de investimento ou outra. As informações aqui não pretendem ser completas e estão sujeitas a alterações, e o hack vc não tem a obrigação de atualizar tais informações ou fazer qualquer notificação se essas informações se tornarem imprecisas.

o desempenho passado não é necessariamente indicativo de resultados futuros. quaisquer declarações prospectivas feitas aqui são baseadas em certas suposições e análises feitas pelo autor com base em sua experiência e percepção de tendências históricas, condições atuais e desenvolvimentos futuros esperados, além de outros fatores que ele considera apropriados nas circunstâncias. tais declarações não são garantias de desempenho futuro e estão sujeitas a certos riscos, incertezas e suposições difíceis de prever.

declaração:

  1. este artigo é reproduzido de[Hack vc], o título original “ai x crypto - promessas e realidades”, os direitos autorais pertencem ao autor original [ed roman, sócio-gerente da hack vc], se você tiver alguma objeção à reprodução, entre em contatoEquipa de aprendizagem da GateA equipa tratará do assunto o mais brevemente possível, de acordo com os procedimentos relevantes.

  2. aviso legal: as opiniões expressas neste artigo representam apenas as opiniões pessoais do autor e não constituem qualquer aconselhamento de investimento.

  3. outras versões do artigo são traduzidas pela equipe de aprendizado da Gate.io, não mencionadas emGate.io, o artigo traduzido não pode ser reproduzido, distribuído ou plagiado.

Comece agora
Registe-se e ganhe um cupão de
100 USD
!