La prochaine vague de récits dans le secteur de l’IA crypto

IntermédiaireJun 04, 2024
Alex Xu, partenaire de recherche chez Mint Ventures, analyse les récits émergents dans le secteur en plein essor de l’IA cryptographique, discutant des voies catalytiques et de la logique derrière ces récits, des cibles pertinentes du projet, ainsi que des risques et des incertitudes.
La prochaine vague de récits dans le secteur de l’IA crypto

Introduction

À l’heure actuelle, le cycle actuel du marché haussier des crypto-monnaies est le plus terne en termes d’innovation commerciale, sans les pistes phénoménales comme la DeFi, le NFT et la GameFi vues lors du précédent marché haussier. En conséquence, le marché global a besoin de points chauds industriels, avec une croissance lente des utilisateurs, des investissements industriels et des développeurs.

Cette stagnation se reflète également dans les prix actuels des actifs. Tout au long du cycle, la plupart des altcoins ont continué à perdre de la valeur par rapport au BTC, y compris l’ETH. Après tout, la valorisation des plateformes de contrats intelligents est déterminée par la prospérité des applications. Lorsque l’innovation dans le développement d’applications est terne, la valorisation des blockchains publiques est difficile à évaluer.

L’IA, en tant que catégorie commerciale relativement nouvelle dans ce cycle, a encore le potentiel d’attirer une attention supplémentaire considérable sur les projets du secteur de la crypto-IA, grâce à la vitesse de développement explosive et aux sujets brûlants continus dans le monde commercial externe.

Dans le rapport IO.NET publié par l’auteur en avril, la nécessité de combiner l’IA avec la crypto a été soulignée. Les avantages des solutions crypto-économiques en termes de déterminisme, de mobilisation et d’allocation des ressources, et d’absence de confiance pourraient potentiellement répondre aux trois défis de l’IA : l’aléatoire, l’intensité des ressources et la difficulté à distinguer les humains des machines.

Dans le secteur de l’IA de la crypto-économie, l’auteur tente de discuter et de déduire certaines questions importantes à travers un autre article, notamment :

  • Récits émergents ou potentiellement explosifs dans le secteur de l’IA crypto
  • Voies catalytiques et logique derrière ces récits
  • Cibles pertinentes du projet associées à ces récits
  • Risques et incertitudes dans la déduction narrative

Cet article reflète les pensées de l’auteur à la date de publication, qui peuvent changer à l’avenir. Les points de vue sont très subjectifs et peuvent contenir des erreurs dans les faits, les données et la logique de raisonnement. S’il vous plaît, ne prenez pas cela comme un conseil d’investissement. Les critiques et les discussions des pairs sont les bienvenues.

Passons aux choses sérieuses.

La prochaine vague de récits dans la voie de l’IA crypto

Avant de présenter officiellement la prochaine vague de récits dans le domaine de l’IA cryptographique, jetons d’abord un coup d’œil aux principaux récits de l’IA crypto actuelle. Du point de vue de la valeur marchande, ceux qui ont plus d’un milliard de dollars américains sont :

  • Puissance de calcul : Render (RNDR, avec une valeur marchande en circulation de 3,85 milliards), Akash (1,2 milliard en valeur marchande en circulation), IO.NET (le dernier tour de valorisation du financement primaire est de 1 milliard)
  • Réseau d’algorithmes : Bittensor (TAO, 2,97 milliards de valeur marchande en circulation)
  • Agent d’IA : Fetchai (FET, capitalisation boursière de 2,1 milliards avant fusion)

*Heure des données : 2024.5.24, les unités monétaires sont des dollars américains.

En dehors des secteurs susmentionnés, quel sera le prochain secteur de l’IA avec une valeur marchande de projet unique supérieure à 1 milliard de dollars ?

L’auteur croit qu’il peut être spéculé de deux points de vue : le récit de « l’offre industrielle » et le récit du « moment TPG ».

Première perspective sur le récit de l’IA : les opportunités dans les secteurs de l’énergie et des données derrière l’IA du côté de l’offre industrielle

Du côté de l’offre industrielle, il existe quatre forces motrices pour le développement de l’IA :

  • Algorithmes : les algorithmes de haute qualité peuvent exécuter plus efficacement les tâches d’entraînement et d’inférence.
  • Puissance de calcul : l’entraînement et l’inférence du modèle nécessitent une puissance de calcul fournie par le matériel GPU. C’est le principal goulot d’étranglement actuel dans l’industrie, car une pénurie de puces a entraîné des prix élevés pour les puces milieu à haut de gamme.
  • Énergie : Les centres de données d’IA consomment beaucoup d’énergie. Outre l’électricité nécessaire pour alimenter les GPU, les systèmes de refroidissement des grands centres de données peuvent représenter environ 40 % de la consommation totale d’énergie.
  • Données : l’amélioration des performances des grands modèles nécessite d’étendre les paramètres d’entraînement, ce qui signifie une demande massive de données de haute qualité.

Parmi ces quatre forces motrices, il y a des projets crypto dont la valeur marchande circulante dépasse 1 milliard de dollars dans les secteurs des algorithmes et de la puissance de calcul. Cependant, des projets ayant une valeur marchande similaire n’ont pas encore fait leur apparition dans les domaines de l’énergie et des données.

En réalité, les pénuries d’énergie et de données pourraient bientôt devenir de nouveaux points chauds de l’industrie, entraînant potentiellement une augmentation des projets cryptographiques connexes. Commençons par l’énergie.

Le 29 février 2024, Elon Musk a mentionné lors de la conférence Bosch ConnectedWorld 2024 : "J’ai prédit la pénurie de puces il y a plus d’un an. La prochaine pénurie sera celle de l’électricité. Je pense qu’il n’y aura pas assez de puissance pour faire fonctionner toutes les puces l’année prochaine."

En examinant des données spécifiques, le rapport sur l’indice d’IA publié chaque année par le Stanford Institute for Human-Centered Artificial Intelligence, dirigé par Fei-Fei Li, a évalué dans son rapport 2022 sur l’industrie de l’IA en 2021 que la consommation d’énergie de l’IA ne représentait que 0,9 % de la demande mondiale d’électricité, ce qui exerce une pression limitée sur l’énergie et l’environnement. En 2023, l’Agence internationale de l’énergie (AIE) a résumé qu’en 2022, les centres de données mondiaux ont consommé environ 460 térawattheures (TWh) d’électricité, soit 2 % de la demande mondiale d’électricité. Ils ont prédit que d’ici 2026, la consommation mondiale d’énergie des centres de données serait d’au moins 620 TWh et pourrait atteindre jusqu’à 1050 TWh.

Cependant, les estimations de l’AIE restent prudentes, car de nombreux projets d’IA sont sur le point d’être lancés, avec des demandes énergétiques dépassant de loin leurs projections pour 2023.

Par exemple, Microsoft et OpenAI planifient le projet Stargate. Ce projet, qui devrait débuter en 2028 et s’achever vers 2030, vise à construire un supercalculateur avec des millions de puces dédiées à l’IA, fournissant une puissance de calcul sans précédent à OpenAI, notamment pour ses recherches en intelligence artificielle et grands modèles de langage. Le projet devrait coûter plus de 100 milliards de dollars, soit 100 fois le coût actuel des grands centres de données.

La consommation d’énergie du projet Stargate est estimée à 50 térawattheures.

Pour cette raison, le fondateur d’OpenAI, Sam Altman, a déclaré lors du Forum de Davos en janvier de cette année : « L’intelligence artificielle du futur a besoin d’une percée énergétique car l’IA consommera beaucoup plus d’électricité que ce à quoi les gens s’attendent. »

Après la puissance de calcul et l’énergie, le prochain domaine de pénurie dans l’industrie de l’IA en pleine croissance sera probablement celui des données.

Ou plutôt, la pénurie de données de haute qualité requises par l’IA est déjà devenue une réalité.

Depuis l’évolution de GPT, les humains ont essentiellement saisi le modèle de croissance des grandes capacités des modèles de langage - en élargissant les paramètres du modèle et les données d’entraînement, les capacités du modèle peuvent être améliorées de manière exponentielle - et ce processus ne montre actuellement aucun goulot d’étranglement technique à court terme.

Cependant, le problème est que les données de haute qualité et accessibles au public pourraient devenir de plus en plus rares à l’avenir. Les produits d’IA pourraient être confrontés à des conflits d’offre et de demande de données similaires à ceux des puces et de l’énergie.

Le premier est une augmentation des litiges sur la propriété des données.

Le 27 décembre 2023, le New York Times a intenté une action en justice contre OpenAI et Microsoft devant le tribunal de district des États-Unis, les accusant d’avoir utilisé des millions de ses articles sans autorisation pour entraîner le modèle GPT. Le procès exige des milliards de dollars de dommages et intérêts légaux et réels pour la « copie et l’utilisation illégales d’œuvres de valeur unique » et appelle à la destruction de tous les modèles et données d’entraînement contenant du matériel protégé par le droit d’auteur du New York Times.

Fin mars, le New York Times a publié une nouvelle déclaration ciblant non seulement OpenAI mais aussi Google et Meta. La déclaration affirme qu’OpenAI a transcrit un grand nombre de vidéos YouTube en texte à l’aide d’un outil de reconnaissance vocale appelé Whisper, puis a utilisé le texte pour entraîner GPT-4. Le New York Times a affirmé qu’il est devenu courant pour les grandes entreprises d’utiliser des méthodes sournoises pour former des modèles d’IA, soulignant que Google a également converti le contenu vidéo YouTube en texte pour entraîner ses propres grands modèles, ce qui enfreint essentiellement les droits des créateurs de contenu vidéo.

Le procès entre le New York Times et OpenAI, qualifié de « première affaire de droit d’auteur sur l’IA », est complexe et a des implications profondes pour l’avenir du contenu et de l’industrie de l’IA. Compte tenu de la complexité de l’affaire et de son impact potentiel, une résolution rapide est peu probable. L’une des issues possibles est un règlement à l’amiable, avec des entreprises fortunées comme Microsoft et OpenAI payant une compensation substantielle. Cependant, les futurs litiges en matière de droits d’auteur sur les données augmenteront inévitablement le coût global des données de haute qualité.

De plus, en tant que plus grand moteur de recherche au monde, Google a révélé qu’il envisageait de facturer des frais pour sa fonctionnalité de recherche. Les accusations ne cibleraient pas le grand public mais plutôt les entreprises d’IA.


Source : Reuters

Les serveurs des moteurs de recherche de Google stockent une grande quantité de contenu. On peut même dire que Google stocke tout le contenu qui est apparu sur toutes les pages Internet depuis le 21e siècle. Les produits de recherche actuels basés sur l’IA, tels que les produits étrangers tels que perplexity, et les produits nationaux tels que Kimi et Secret Tower, traitent tous les données recherchées par l’IA, puis les transmettent aux utilisateurs. Les frais des moteurs de recherche pour l’IA augmenteront inévitablement le coût d’acquisition des données.

En fait, en plus des données publiques, les géants de l’IA lorgnent également sur les données internes non publiques.

Photobucket est un site Web d’hébergement d’images et de vidéos établi qui comptait 70 millions d’utilisateurs et près de la moitié du marché américain de la photo en ligne au début des années 2000. Avec l’essor des médias sociaux, le nombre d’utilisateurs de Photobucket a considérablement diminué. Actuellement, il ne reste plus que 2 millions d’utilisateurs actifs (ils paient des frais élevés de 399 $ US par an). Selon l’accord et la politique de confidentialité signés par les utilisateurs lors de leur inscription, ils n’ont pas été utilisés depuis plus d’un an. Le compte sera recyclé et le droit de Photobucket d’utiliser les photos et les données vidéo téléchargées par l’utilisateur est également pris en charge. Le PDG de Photobucket, Ted Leonard, a révélé que les 1,3 milliard de données photo et vidéo qu’il possède sont extrêmement précieuses pour l’entraînement de modèles d’IA générative. Il est en pourparlers avec plusieurs entreprises technologiques pour vendre les données, avec des offres allant de 5 cents à 1 dollar par photo et plus de 1 dollar par vidéo, estimant que les données que Photobucket peut fournir valent plus d’un milliard de dollars.

EPOCH, une équipe de recherche axée sur la tendance de développement de l’intelligence artificielle, a publié un jour un rapport sur les données nécessaires à l’apprentissage automatique basé sur l’utilisation des données et la génération de nouvelles données par apprentissage automatique en 2022, et compte tenu de la croissance des ressources informatiques. Il a déjà publié un rapport sur l’état des données nécessaires à l’apprentissage automatique intitulé « Will we short of data ? Une analyse des limites de la mise à l’échelle des ensembles de données dans l’apprentissage automatique". Le rapport a conclu que les données textuelles de haute qualité seront épuisées entre février 2023 et 2026, et les données d’image seront épuisées entre 2030 et 2060. Si l’efficacité de l’utilisation des données ne peut pas être améliorée de manière significative ou si de nouvelles sources de données apparaissent, la tendance actuelle des grands modèles d’apprentissage automatique qui reposent sur des ensembles de données massifs pourrait ralentir.

À en juger par la situation actuelle où les géants de l’IA achètent des données à des prix élevés, les données textuelles gratuites de haute qualité ont été épuisées. La prédiction d’EPOCH il y a 2 ans était relativement précise.

Dans le même temps, des solutions à la demande de « pénurie de données d’IA » émergent également, à savoir : les services de fourniture de données d’IA.

Defined.ai est une entreprise qui fournit des données personnalisées, réelles et de haute qualité aux entreprises d’IA.

Exemples de types de données que Defined.ai pouvez fournir : https://www.defined.ai/datasets

Son modèle économique est le suivant : les entreprises d’IA fournissent aux Defined.ai leurs propres besoins en données. Par exemple, en termes de qualité d’image, la résolution doit être la plus élevée possible pour éviter le flou, la surexposition, et le contenu doit être authentique. En termes de contenu, les entreprises d’IA peuvent personnaliser des thèmes spécifiques en fonction de leurs propres tâches d’entraînement, telles que les photos de nuit, les cônes de nuit, les parkings et les panneaux, afin d’améliorer le taux de reconnaissance de l’IA dans les scènes de nuit. Le public peut prendre la tâche de prendre la photo. Ensuite, l’entreprise les examinera et les téléchargera. Les pièces qui répondent aux exigences seront réglées en fonction du nombre de photos. Le prix est d’environ 1 à 2 dollars pour une image de haute qualité, 5 à 7 dollars pour un court métrage de plus de dix secondes. Une vidéo de haute qualité de plus de 10 minutes coûte entre 100 et 300 dollars, et un texte coûte 1 dollar par millier de mots. La personne qui reçoit la tâche de sous-traitance peut obtenir environ 20 % des honoraires. La fourniture de données peut devenir une autre activité de crowdsourcing après « l’étiquetage des données ».

La distribution mondiale de crowdsourcing, les incitations économiques, la tarification/circulation des actifs de données et la protection de la vie privée sont ouvertes à tous, ce qui semble particulièrement bien adapté à un paradigme commercial Web3.

Objectifs narratifs de l’IA du côté de l’approvisionnement industriel

L’attention portée par la pénurie de puces a imprégné l’industrie de la cryptographie, faisant de la puissance de calcul distribuée la piste d’IA la plus chaude et la plus élevée à ce jour.

Ainsi, si les conflits entre l’offre et la demande dans les secteurs de l’énergie et des données de l’industrie de l’IA devaient exploser dans les 1 à 2 prochaines années, quels sont les projets liés à la narration actuellement présents dans l’industrie de la cryptographie ?

Objectifs liés à l’énergie

Les projets liés à l’énergie qui ont été cotés sur les principales bourses centralisées (CEX) sont rares, Power Ledger (jeton : POWR) étant le seul exemple notable.

Power Ledger, créée en 2017, est une plateforme énergétique complète basée sur la blockchain visant à décentraliser le commerce de l’énergie. Il favorise les transactions directes d’électricité entre les individus et les communautés, soutient l’application généralisée des énergies renouvelables et garantit la transparence et l’efficacité grâce à des contrats intelligents. Initialement, Power Ledger fonctionnait sur une chaîne de consortium dérivée d’Ethereum. Au second semestre 2023, Power Ledger a mis à jour son livre blanc et lancé sa propre chaîne publique complète, basée sur le cadre technique de Solana pour gérer les micro-transactions à haute fréquence sur le marché de l’énergie distribuée. Actuellement, les principales activités de Power Ledger comprennent :

  • Échange d’énergie : Permet aux utilisateurs d’acheter et de vendre directement de l’électricité, en particulier à partir de sources renouvelables.
  • Échange de produits environnementaux : Facilite l’échange de crédits carbone et de certificats d’énergie renouvelable, ainsi que le financement basé sur des produits environnementaux.
  • Opération de la chaîne publique : Attire les développeurs d’applications à s’appuyer sur la blockchain Power Ledger, avec des frais de transaction payés en jetons POWR.

À l’heure actuelle, la capitalisation boursière en circulation de Power Ledger est de 170 millions de dollars, avec une capitalisation boursière entièrement diluée de 320 millions de dollars.

Cibles liées aux données

Par rapport aux cibles cryptographiques liées à l’énergie, la piste de données a une plus grande variété de cibles cryptographiques. Voici les projets de suivi de données que je surveille actuellement, qui sont tous répertoriés sur au moins un des principaux CEX tels que Binance, OKX ou Coinbase, classés par ordre croissant de leur valorisation entièrement diluée (FDV) :

  1. Streamr – DONNÉES

Proposition de valeur : Streamr vise à construire un réseau de données décentralisé en temps réel qui permet aux utilisateurs d’échanger et de partager librement des données tout en gardant un contrôle total sur leurs données. Grâce à sa place de marché de données, Streamr cherche à permettre aux producteurs de données de vendre directement des flux de données aux consommateurs intéressés sans intermédiaires, réduisant ainsi les coûts et augmentant l’efficacité.

Source : https://streamr.network/hub/projects

Dans un cas de collaboration pratique, Streamr s’est associé à un autre projet de matériel embarqué Web3, DIMO. Grâce à des capteurs matériels DIMO installés dans les véhicules, ils collectent des données telles que la température, la pression atmosphérique et d’autres mesures, formant des flux de données météorologiques qui sont transmis aux organisations dans le besoin.

Par rapport à d’autres projets de données, Streamr se concentre davantage sur l’IoT et les données des capteurs matériels. Outre les données sur les véhicules DIMO susmentionnées, d’autres projets incluent des flux de données de trafic en temps réel à Helsinki. En raison de cette orientation, le jeton de projet de Streamr, DATA, a connu une forte hausse, doublant de valeur en une seule journée en décembre dernier, lorsque le concept DePIN était à son apogée.

Actuellement, la capitalisation boursière en circulation de Streamr est de 44 millions de dollars, avec une capitalisation boursière entièrement diluée de 58 millions de dollars.

  1. Covalent – CQT

Contrairement à d’autres projets de données, Covalent fournit des données blockchain. Le réseau Covalent lit les données des nœuds de la blockchain via RPC, traite et organise ces données, créant ainsi une base de données de requêtes efficace. Cela permet aux utilisateurs de Covalent de récupérer rapidement les informations dont ils ont besoin sans effectuer de requêtes complexes directement à partir des nœuds de la blockchain. Ce service est connu sous le nom d'« indexation des données blockchain ».

Les clients de Covalent sont principalement B2B, y compris des projets Dapp comme diverses applications DeFi, ainsi que de nombreuses sociétés de crypto-monnaies centralisées telles que ConsenSys (la société mère de MetaMask), CoinGecko (un site de suivi des actifs cryptographiques bien connu), Rotki (un outil fiscal) et Rainbow (un portefeuille crypto). De plus, les géants financiers traditionnels comme Fidelity et le cabinet comptable EY sont également clients de Covalent. Selon les divulgations officielles de Covalent, les revenus du projet provenant des services de données ont déjà dépassé ceux du projet leader dans le même domaine, The Graph.

L’industrie du Web3, en raison de l’exhaustivité, de l’ouverture, de l’authenticité et de la nature en temps réel des données on-chain, est en passe de devenir une source précieuse de données de haute qualité pour des scénarios d’IA spécifiques et des « petits modèles d’IA ». En tant que fournisseur de données, Covalent a commencé à fournir des données pour divers scénarios d’IA et a lancé des données structurées vérifiables spécifiquement pour l’IA.

Source : https://www.covalenthq.com/solutions/decentralized-ai/

Par exemple, il fournit des données à SmartWhales, une plateforme de trading intelligente on-chain, et utilise l’IA pour identifier des modèles de trading et des adresses rentables ; Entendre Finance utilise les données structurées et le traitement de l’IA de Covalent pour obtenir des informations en temps réel, détecter les anomalies et analyser les prédictions.

À l’heure actuelle, les principaux scénarios pour les services de données on-chain fournis par Covalent sont toujours financiers. Cependant, avec la généralisation des produits et des types de données Web3, les scénarios d’utilisation des données on-chain seront également élargis.

La valeur marchande diluée actuelle du projet Covalent est de 150 millions de dollars, et la valeur marchande diluée totale est de 235 millions de dollars. Comparé à The Graph, un projet d’indice de données blockchain dans la même voie, il présente un avantage de valorisation relativement évident.

  1. Hivemapper – Miel

Parmi tous les supports de données, les données vidéo ont souvent le prix unitaire le plus élevé. Hivemapper peut fournir des données, y compris des vidéos et des informations cartographiques, aux entreprises d’IA. Hivemapper lui-même est un projet de cartographie mondial décentralisé qui vise à créer un système de cartographie détaillé, dynamique et accessible grâce à la technologie blockchain et aux contributions de la communauté. Les participants peuvent capturer des données cartographiques via une dashcam et les ajouter au réseau de données open source Hivemapper, et recevoir des récompenses en fonction de leurs contributions dans le jeton du projet HONEY. Afin d’améliorer les effets de réseau et de réduire les coûts d’interaction, Hivemapper est construit sur Solana.

Hivemapper, fondée en 2015, visait initialement à créer des cartes à l’aide de drones. Cependant, il s’est vite rendu compte que ce modèle était difficile à mettre à l’échelle, ce qui a incité à utiliser des dashcams et des smartphones pour capturer des données géographiques, réduisant considérablement le coût de production de cartes mondiales.

Par rapport aux logiciels de street view et de cartographie comme Google Maps, Hivemapper utilise un réseau incitatif et un modèle de crowdsourcing pour étendre la couverture cartographique plus efficacement, maintenir la fraîcheur des cartes du monde réel et améliorer la qualité vidéo.

Avant l’explosion de la demande de données basée sur l’IA, les principaux clients d’Hivemapper comprenaient les services de conduite autonome de l’industrie automobile, les sociétés de services de navigation, les gouvernements, les compagnies d’assurance et les sociétés immobilières. Aujourd’hui, Hivemapper peut fournir des données routières et environnementales complètes pour l’IA et les grands modèles grâce aux API. En mettant continuellement à jour les flux d’images et les données sur les caractéristiques routières, les modèles d’IA et de ML peuvent mieux traduire ces données en capacités améliorées, en effectuant des tâches liées à la localisation géographique et au jugement visuel.


Source des données : https://hivemapper.com/blog/diversify-ai-computer-vision-models-with-global-road-imagery-map-data/

Actuellement, le projet Honey de Hivemapper a une capitalisation boursière diluée de 120 millions de dollars et une capitalisation boursière diluée (FDV) de 496 millions de dollars.

En plus des trois projets mentionnés ci-dessus, le domaine des données comprend également :

The Graph – GRT : Avec une capitalisation boursière diluée de 3,2 milliards de dollars et un FDV de 3,7 milliards de dollars, The Graph fournit des services d’indexation de données blockchain similaires à Covalent.

Ocean Protocol – OCEAN : Avec une capitalisation boursière en circulation de 670 millions de dollars et un FDV de 1,45 milliard de dollars, Ocean Protocol est un protocole open-source visant à faciliter l’échange et la monétisation des données et des services liés aux données. Il met en relation les consommateurs de données avec les fournisseurs de données pour partager les données tout en garantissant la confiance, la transparence et la traçabilité. Ce projet est sur le point de fusionner avec Fetch.ai et SingularityNET, son jeton se convertissant en ASI.

Deuxième perspective sur le récit de l’IA : l’arrivée de l’IAG, rappelant le moment GPT

De l’avis de l’auteur, l’année inaugurale de la « piste IA » dans l’industrie de la cryptographie a été l’année remarquable de 2023, marquée par l’avènement du GPT, et l’essor des projets d’IA crypto était davantage un effet d’entraînement de la croissance explosive de l’industrie de l’IA.

Bien que des capacités telles que GPT4 et Turbo aient continué à évoluer après GPT3.5, et que Sora ait présenté des capacités étonnantes de création vidéo, ainsi que des développements rapides dans de grands modèles de langage en dehors d’OpenAI, il est indéniable que l’impact cognitif des progrès technologiques de l’IA sur le grand public diminue. Les gens commencent progressivement à utiliser les outils d’IA, et le déplacement d’emplois à grande échelle semble encore se produire.

Alors, le domaine de l’IA connaîtra-t-il un autre « moment GPT » à l’avenir, où un bond dans le développement de l’IA étonnera les masses, faisant réaliser aux gens que leur vie et leur travail en seront changés ? Ce moment pourrait être l’avènement de l’intelligence artificielle générale (AGI).

L’IAG fait référence aux machines ayant des capacités cognitives complètes similaires à celles des humains, capables de résoudre divers problèmes complexes au-delà de tâches spécifiques. Les systèmes AGI possèdent une pensée abstraite de haut niveau, des connaissances de base approfondies, un raisonnement de bon sens interdomaines, une compréhension causale et des capacités d’apprentissage par transfert interdisciplinaire. En termes de capacités globales, les performances d’AGI sont comparables à celles des meilleurs humains, et dépassent même les capacités collectives des groupes humains les plus remarquables.

En fait, qu’elle soit représentée dans la science-fiction, les jeux ou les films, ou alimentée par les attentes du public suite à la prolifération rapide du TPG, la société a longtemps anticipé l’émergence d’une IAG dépassant les niveaux cognitifs humains. On pourrait dire que GPT lui-même est un précurseur de l’AGI, une prophétie de l’intelligence artificielle générale.

La raison pour laquelle GPT a une telle énergie industrielle et un impact psychologique est que sa vitesse de mise en œuvre et ses performances ont dépassé les attentes des masses : les gens ne s’attendaient pas à ce qu’un système d’intelligence artificielle capable de réussir le test de Turing arrive réellement, et arrive si rapidement.

En réalité, l’intelligence artificielle générale (AGI) peut reprendre la soudaineté du « moment GPT » d’ici 1 à 2 ans : les gens viennent de s’adapter à l’aide de GPT, pour découvrir que l’IA n’est plus seulement un assistant. Il peut même accomplir de manière indépendante des tâches très créatives et difficiles, y compris les problèmes qui ont déconcerté les meilleurs scientifiques pendant des décennies.

Le 8 avril de cette année, Musk a été interviewé par Nicolai Tangen, directeur des investissements du Norwegian Sovereign Wealth Fund, sur le moment de l’émergence de l’AGI.

Il a déclaré : « Si nous définissons l’IAG comme plus intelligent que les humains les plus intelligents, je pense que cela se produira probablement vers 2025. » En d’autres termes, selon ses estimations, il faudra tout au plus un an et demi de plus pour que l’AGI arrive. Bien sûr, il a ajouté une mise en garde, que « la puissance et le matériel suivent le rythme ».

Les avantages de l’arrivée d’AGI sont évidents.

Cela signifie que la productivité de l’humanité fera un pas de géant en avant et que de nombreux problèmes de recherche scientifique qui nous tourmentent depuis des décennies seront résolus sans effort. Si nous définissons « les humains les plus intelligents » comme des lauréats du prix Nobel, cela signifie que tant qu’il y a suffisamment d’énergie, de puissance de calcul et de données, nous pouvons avoir d’innombrables « lauréats du prix Nobel » infatigables qui se penchent sur les problèmes scientifiques les plus difficiles 24 heures sur 24.

En réalité, les lauréats du prix Nobel ne sont pas aussi rares qu’un sur plusieurs centaines de millions ; La plupart d’entre eux sont à égalité avec les professeurs d’université en termes de capacité et d’intelligence. Cependant, en raison de la probabilité et de la chance de choisir la bonne direction, et de la persistance jusqu’à ce que les résultats soient obtenus, des individus de même calibre qu’eux, leurs collègues tout aussi exceptionnels, peuvent également avoir remporté des prix Nobel dans des univers parallèles de recherche scientifique. Malheureusement, il n’y a toujours pas assez de personnes ayant les capacités des meilleurs professeurs d’université participant aux percées scientifiques, de sorte que la vitesse d'« exploration de toutes les directions correctes dans la recherche scientifique » reste lente.

Avec l’avènement de l’IAG, dans des conditions où l’énergie et la puissance de calcul sont suffisamment fournies, nous pouvons avoir un nombre infini d’IAG du niveau des lauréats du prix Nobel explorant en profondeur toutes les directions possibles de percée scientifique. Le taux d’avancement technologique augmentera de dizaines de fois. Les progrès technologiques conduiront à ce que les ressources actuellement considérées comme coûteuses et rares augmentent des centaines de fois au cours des 10 à 20 prochaines années, telles que la production alimentaire, les nouveaux matériaux, les nouveaux médicaments, l’éducation de haute qualité, etc. Le coût d’obtention de ces ressources diminuera également de manière exponentielle, ce qui nous permettra de soutenir plus de personnes avec moins de ressources, et la richesse par habitant augmentera rapidement.

Tendance du PIB mondial (Source : Banque mondiale)

Cela peut sembler un peu sensationnel. Examinons deux exemples, qui ont déjà été discutés par l’auteur dans le rapport de recherche IO.NET :

  • En 2018, la lauréate du prix Nobel de chimie, Frances Arnold, a déclaré lors de la cérémonie de remise des prix : « Aujourd’hui, nous pouvons lire, écrire et modifier n’importe quelle séquence d’ADN dans des applications pratiques, mais nous ne pouvons toujours pas la composer. » À peine cinq ans plus tard, en 2023, des chercheurs de Salesforce Research, une startup d’IA de l’Université de Stanford et de la Silicon Valley, ont publié un article dans Nature Biotechnology. Ils ont utilisé un grand modèle de langage basé sur le réglage fin de GPT-3 pour créer un million de nouvelles protéines à partir de zéro et ont découvert deux protéines aux structures radicalement différentes, qui ont toutes deux des propriétés antimicrobiennes et pourraient potentiellement servir de solutions de résistance bactérienne au-delà des antibiotiques. En d’autres termes, avec l’aide de l’IA, le goulot d’étranglement dans la « création » de protéines a été surmonté.
  • Avant cela, l’algorithme d’intelligence artificielle AlphaFold avait prédit les structures de presque toutes les 214 millions de protéines connues sur Terre en 18 mois, un résultat des centaines de fois supérieur aux efforts combinés de tous les biologistes structurels précédents.

La révolution a déjà eu lieu, et l’avènement de l’IAG accélérera encore ce processus. D’autre part, les défis posés par l’avènement de l’IAG sont également énormes. L’IAG remplacera non seulement un grand nombre de travailleurs cognitifs, mais aura également un impact sur les travailleurs physiques qui étaient auparavant considérés comme « moins affectés par l’IA ». Avec la maturité de la technologie robotique et le développement de nouveaux matériaux entraînant une réduction des coûts de production, la proportion de postes de travail remplacés par des machines et des logiciels augmentera rapidement.

À ce moment-là, deux questions apparemment lointaines referont rapidement surface :

  1. Le problème de l’emploi et du revenu pour un grand nombre de chômeurs.
  2. Comment faire la distinction entre l’IA et les humains dans un monde où l’IA est omniprésente.

Worldcoin tente d’apporter des solutions en proposant un système de revenu de base universel (RBI) pour fournir un revenu de base au public et en utilisant des fonctionnalités biométriques basées sur l’iris pour distinguer les humains de l’IA.

En fait, le RBI, qui fournit de l’argent à tout le monde, n’est pas qu’une tarte dans le ciel. Des pays comme la Finlande et l’Angleterre ont expérimenté le revenu de base universel, et des partis au Canada, en Espagne, en Inde et dans d’autres pays proposent et promeuvent activement des expériences connexes.

L’avantage de l’utilisation d’un modèle d’identification biométrique + basé sur la blockchain pour la distribution de l’UBI réside dans la nature mondiale du système, offrant une couverture plus large à la population. De plus, il peut tirer parti du réseau d’utilisateurs élargi par la distribution des revenus pour construire d’autres modèles commerciaux, tels que les services financiers (Defi), les réseaux sociaux, le crowdsourcing, etc., créant des synergies au sein du réseau.

L’un des actifs correspondant à l’impact de l’avènement de l’AGI est Worldcoin – WLD, avec une capitalisation boursière diluée de 1,03 milliard de dollars et une capitalisation boursière diluée de 47,2 milliards de dollars.

Les risques et les incertitudes de la déduction narrative

Contrairement à de nombreux rapports de recherche de projets et de pistes publiés par Mint Ventures, cet article a une plus grande subjectivité dans la déduction et la prédiction narratives. Les lecteurs devraient considérer le contenu de cet article comme une discussion divergente plutôt que comme une prophétie de l’avenir. L’extrapolation narrative présentée par l’auteur se heurte à de nombreuses incertitudes, conduisant à des erreurs spéculatives. Ces risques ou facteurs d’influence comprennent, sans s’y limiter :

  • Aspect énergétique : les mises à jour du GPU entraînent une baisse rapide de la consommation d’énergie

Malgré la forte augmentation de la demande d’énergie liée à l’IA, les fabricants de puces comme Nvidia fournissent une puissance de calcul plus élevée avec une consommation d’énergie plus faible grâce à des mises à niveau matérielles continues. Par exemple, en mars de cette année, Nvidia a publié une nouvelle génération de carte informatique AI GB200, qui intègre deux GPU B200 et un processeur Grace. Ses performances d’entraînement sont quatre fois supérieures à celles du GPU IA principal H100 de la génération précédente, et les performances d’inférence sont sept fois supérieures à celles du H100, tandis que la consommation d’énergie requise n’est que d’un quart de celle de H100. Cependant, malgré cela, le désir de puissance de l’IA est loin d’être satisfait. Avec la diminution de la consommation d’énergie unitaire, la consommation totale d’énergie pourrait en fait augmenter à mesure que les applications et les demandes d’IA se développent.

  • Aspect des données : Le projet Q* réalise des « données auto-générées »

Il y a longtemps eu une rumeur au sein d’OpenAI sur le projet « Q », qui a été mentionné dans les communications internes aux employés d’OpenAI. Selon Reuters citant des initiés d’OpenAI, cela pourrait être une percée dans la poursuite d’OpenAI de la superintelligence/intelligence artificielle générale (AGI). Q a non seulement la capacité de résoudre des problèmes mathématiques inédits par abstraction, mais a également la capacité de générer des données pour l’entraînement de grands modèles sans avoir besoin d’alimenter des données du monde réel. Si cette rumeur est vraie, le goulot d’étranglement de l’entraînement des modèles d’IA limité par le manque de données de haute qualité sera brisé.

  • Arrivée d’AGI : les préoccupations d’OpenAI

Le moment de l’arrivée d’AGI, comme l’a suggéré Elon Musk, pourrait en effet arriver d’ici 2025, mais ce n’est qu’une question de temps. Cependant, Worldcoin, en tant que récit bénéficiaire direct de l’arrivée d’AGI, pourrait faire face aux plus grandes préoccupations d’OpenAI, car il est largement reconnu comme le « jeton fantôme d’OpenAI ».

Aux premières heures du 14 mai, OpenAI a présenté le dernier GPT-4o et 19 autres versions différentes de grands modèles de langage dans des scores de tâches complets lors de son événement de lancement de produit de printemps. En regardant simplement le tableau, GPT-4o a obtenu un score de 1310, apparemment nettement supérieur aux rangs ultérieurs. Cependant, en termes de score total, il n’est que de 4,5 % supérieur à celui du GPT4 turbo en deuxième place, de 4,9 % supérieur au Gemini 1.5 Pro de Google à la quatrième place et de 5,1 % supérieur au Claude 3 Opus d’Anthropic à la cinquième place.

Depuis que le moment de bouleversement mondial des débuts de GPT3.5 s’est écoulé depuis un peu plus d’un an, les concurrents d’OpenAI ont déjà rattrapé une position très proche (bien que GPT5 n’ait pas encore été publié et devrait être lancé cette année). La question de savoir si OpenAI peut maintenir sa position de leader du secteur à l’avenir semble devenir floue. Si l’avantage et la position dominante d’OpenAI sont dilués ou dépassés, la valeur narrative de Worldcoin en tant que jeton fantôme d’OpenAI diminuera également.

En outre, outre le système d’authentification de l’iris de Worldcoin, de plus en plus de concurrents entrent également sur ce marché. Par exemple, le projet d’identification par scan de la paume Humanity Protocol vient d’annoncer la clôture d’un nouveau tour de financement d’une valeur de 30 millions de dollars pour une valorisation de 1 milliard de dollars. LayerZero Labs a également annoncé son opération sur Humanity et a rejoint son réseau de nœuds de validation, en utilisant des preuves ZK pour authentifier les informations d’identification.

Conclusion

En conclusion, bien que l’auteur ait extrapolé le récit de la piste de l’IA, la piste de l’IA est différente des champs cryptographiques natifs tels que la DeFi. C’est plutôt un produit du débordement du boom de l’IA dans le cercle des devises. Actuellement, de nombreux projets n’ont pas encore complètement établi leurs modèles commerciaux, et de nombreux projets ressemblent davantage à des mèmes sur le thème de l’IA (tels que Rndr similaire au mème de Nvidia, Worldcoin similaire au mème d’OpenAI). Les lecteurs doivent être prudents à leur sujet.

Déclaration:

  1. Cet article intitulé à l’origine « La prochaine vague de déduction narrative dans le secteur de l’IA crypto : catalyseurs, voies de développement et projets connexes » est reproduit de [mintventures]. Tous les droits d’auteur appartiennent à l’auteur original [Alex Xu]. Si vous avez des objections à la réimpression, veuillez contacter l’équipe Gate Learn , l’équipe s’en occupera dès que possible.

  2. Avis de non-responsabilité : Les points de vue et opinions exprimés dans cet article ne représentent que les points de vue personnels de l’auteur et ne constituent aucun conseil en investissement.

  3. Les traductions de l’article dans d’autres langues sont effectuées par l’équipe de Gate Learn. Sauf mention contraire, il est interdit de copier, distribuer ou plagier les articles traduits.

La prochaine vague de récits dans le secteur de l’IA crypto

IntermédiaireJun 04, 2024
Alex Xu, partenaire de recherche chez Mint Ventures, analyse les récits émergents dans le secteur en plein essor de l’IA cryptographique, discutant des voies catalytiques et de la logique derrière ces récits, des cibles pertinentes du projet, ainsi que des risques et des incertitudes.
La prochaine vague de récits dans le secteur de l’IA crypto

Introduction

À l’heure actuelle, le cycle actuel du marché haussier des crypto-monnaies est le plus terne en termes d’innovation commerciale, sans les pistes phénoménales comme la DeFi, le NFT et la GameFi vues lors du précédent marché haussier. En conséquence, le marché global a besoin de points chauds industriels, avec une croissance lente des utilisateurs, des investissements industriels et des développeurs.

Cette stagnation se reflète également dans les prix actuels des actifs. Tout au long du cycle, la plupart des altcoins ont continué à perdre de la valeur par rapport au BTC, y compris l’ETH. Après tout, la valorisation des plateformes de contrats intelligents est déterminée par la prospérité des applications. Lorsque l’innovation dans le développement d’applications est terne, la valorisation des blockchains publiques est difficile à évaluer.

L’IA, en tant que catégorie commerciale relativement nouvelle dans ce cycle, a encore le potentiel d’attirer une attention supplémentaire considérable sur les projets du secteur de la crypto-IA, grâce à la vitesse de développement explosive et aux sujets brûlants continus dans le monde commercial externe.

Dans le rapport IO.NET publié par l’auteur en avril, la nécessité de combiner l’IA avec la crypto a été soulignée. Les avantages des solutions crypto-économiques en termes de déterminisme, de mobilisation et d’allocation des ressources, et d’absence de confiance pourraient potentiellement répondre aux trois défis de l’IA : l’aléatoire, l’intensité des ressources et la difficulté à distinguer les humains des machines.

Dans le secteur de l’IA de la crypto-économie, l’auteur tente de discuter et de déduire certaines questions importantes à travers un autre article, notamment :

  • Récits émergents ou potentiellement explosifs dans le secteur de l’IA crypto
  • Voies catalytiques et logique derrière ces récits
  • Cibles pertinentes du projet associées à ces récits
  • Risques et incertitudes dans la déduction narrative

Cet article reflète les pensées de l’auteur à la date de publication, qui peuvent changer à l’avenir. Les points de vue sont très subjectifs et peuvent contenir des erreurs dans les faits, les données et la logique de raisonnement. S’il vous plaît, ne prenez pas cela comme un conseil d’investissement. Les critiques et les discussions des pairs sont les bienvenues.

Passons aux choses sérieuses.

La prochaine vague de récits dans la voie de l’IA crypto

Avant de présenter officiellement la prochaine vague de récits dans le domaine de l’IA cryptographique, jetons d’abord un coup d’œil aux principaux récits de l’IA crypto actuelle. Du point de vue de la valeur marchande, ceux qui ont plus d’un milliard de dollars américains sont :

  • Puissance de calcul : Render (RNDR, avec une valeur marchande en circulation de 3,85 milliards), Akash (1,2 milliard en valeur marchande en circulation), IO.NET (le dernier tour de valorisation du financement primaire est de 1 milliard)
  • Réseau d’algorithmes : Bittensor (TAO, 2,97 milliards de valeur marchande en circulation)
  • Agent d’IA : Fetchai (FET, capitalisation boursière de 2,1 milliards avant fusion)

*Heure des données : 2024.5.24, les unités monétaires sont des dollars américains.

En dehors des secteurs susmentionnés, quel sera le prochain secteur de l’IA avec une valeur marchande de projet unique supérieure à 1 milliard de dollars ?

L’auteur croit qu’il peut être spéculé de deux points de vue : le récit de « l’offre industrielle » et le récit du « moment TPG ».

Première perspective sur le récit de l’IA : les opportunités dans les secteurs de l’énergie et des données derrière l’IA du côté de l’offre industrielle

Du côté de l’offre industrielle, il existe quatre forces motrices pour le développement de l’IA :

  • Algorithmes : les algorithmes de haute qualité peuvent exécuter plus efficacement les tâches d’entraînement et d’inférence.
  • Puissance de calcul : l’entraînement et l’inférence du modèle nécessitent une puissance de calcul fournie par le matériel GPU. C’est le principal goulot d’étranglement actuel dans l’industrie, car une pénurie de puces a entraîné des prix élevés pour les puces milieu à haut de gamme.
  • Énergie : Les centres de données d’IA consomment beaucoup d’énergie. Outre l’électricité nécessaire pour alimenter les GPU, les systèmes de refroidissement des grands centres de données peuvent représenter environ 40 % de la consommation totale d’énergie.
  • Données : l’amélioration des performances des grands modèles nécessite d’étendre les paramètres d’entraînement, ce qui signifie une demande massive de données de haute qualité.

Parmi ces quatre forces motrices, il y a des projets crypto dont la valeur marchande circulante dépasse 1 milliard de dollars dans les secteurs des algorithmes et de la puissance de calcul. Cependant, des projets ayant une valeur marchande similaire n’ont pas encore fait leur apparition dans les domaines de l’énergie et des données.

En réalité, les pénuries d’énergie et de données pourraient bientôt devenir de nouveaux points chauds de l’industrie, entraînant potentiellement une augmentation des projets cryptographiques connexes. Commençons par l’énergie.

Le 29 février 2024, Elon Musk a mentionné lors de la conférence Bosch ConnectedWorld 2024 : "J’ai prédit la pénurie de puces il y a plus d’un an. La prochaine pénurie sera celle de l’électricité. Je pense qu’il n’y aura pas assez de puissance pour faire fonctionner toutes les puces l’année prochaine."

En examinant des données spécifiques, le rapport sur l’indice d’IA publié chaque année par le Stanford Institute for Human-Centered Artificial Intelligence, dirigé par Fei-Fei Li, a évalué dans son rapport 2022 sur l’industrie de l’IA en 2021 que la consommation d’énergie de l’IA ne représentait que 0,9 % de la demande mondiale d’électricité, ce qui exerce une pression limitée sur l’énergie et l’environnement. En 2023, l’Agence internationale de l’énergie (AIE) a résumé qu’en 2022, les centres de données mondiaux ont consommé environ 460 térawattheures (TWh) d’électricité, soit 2 % de la demande mondiale d’électricité. Ils ont prédit que d’ici 2026, la consommation mondiale d’énergie des centres de données serait d’au moins 620 TWh et pourrait atteindre jusqu’à 1050 TWh.

Cependant, les estimations de l’AIE restent prudentes, car de nombreux projets d’IA sont sur le point d’être lancés, avec des demandes énergétiques dépassant de loin leurs projections pour 2023.

Par exemple, Microsoft et OpenAI planifient le projet Stargate. Ce projet, qui devrait débuter en 2028 et s’achever vers 2030, vise à construire un supercalculateur avec des millions de puces dédiées à l’IA, fournissant une puissance de calcul sans précédent à OpenAI, notamment pour ses recherches en intelligence artificielle et grands modèles de langage. Le projet devrait coûter plus de 100 milliards de dollars, soit 100 fois le coût actuel des grands centres de données.

La consommation d’énergie du projet Stargate est estimée à 50 térawattheures.

Pour cette raison, le fondateur d’OpenAI, Sam Altman, a déclaré lors du Forum de Davos en janvier de cette année : « L’intelligence artificielle du futur a besoin d’une percée énergétique car l’IA consommera beaucoup plus d’électricité que ce à quoi les gens s’attendent. »

Après la puissance de calcul et l’énergie, le prochain domaine de pénurie dans l’industrie de l’IA en pleine croissance sera probablement celui des données.

Ou plutôt, la pénurie de données de haute qualité requises par l’IA est déjà devenue une réalité.

Depuis l’évolution de GPT, les humains ont essentiellement saisi le modèle de croissance des grandes capacités des modèles de langage - en élargissant les paramètres du modèle et les données d’entraînement, les capacités du modèle peuvent être améliorées de manière exponentielle - et ce processus ne montre actuellement aucun goulot d’étranglement technique à court terme.

Cependant, le problème est que les données de haute qualité et accessibles au public pourraient devenir de plus en plus rares à l’avenir. Les produits d’IA pourraient être confrontés à des conflits d’offre et de demande de données similaires à ceux des puces et de l’énergie.

Le premier est une augmentation des litiges sur la propriété des données.

Le 27 décembre 2023, le New York Times a intenté une action en justice contre OpenAI et Microsoft devant le tribunal de district des États-Unis, les accusant d’avoir utilisé des millions de ses articles sans autorisation pour entraîner le modèle GPT. Le procès exige des milliards de dollars de dommages et intérêts légaux et réels pour la « copie et l’utilisation illégales d’œuvres de valeur unique » et appelle à la destruction de tous les modèles et données d’entraînement contenant du matériel protégé par le droit d’auteur du New York Times.

Fin mars, le New York Times a publié une nouvelle déclaration ciblant non seulement OpenAI mais aussi Google et Meta. La déclaration affirme qu’OpenAI a transcrit un grand nombre de vidéos YouTube en texte à l’aide d’un outil de reconnaissance vocale appelé Whisper, puis a utilisé le texte pour entraîner GPT-4. Le New York Times a affirmé qu’il est devenu courant pour les grandes entreprises d’utiliser des méthodes sournoises pour former des modèles d’IA, soulignant que Google a également converti le contenu vidéo YouTube en texte pour entraîner ses propres grands modèles, ce qui enfreint essentiellement les droits des créateurs de contenu vidéo.

Le procès entre le New York Times et OpenAI, qualifié de « première affaire de droit d’auteur sur l’IA », est complexe et a des implications profondes pour l’avenir du contenu et de l’industrie de l’IA. Compte tenu de la complexité de l’affaire et de son impact potentiel, une résolution rapide est peu probable. L’une des issues possibles est un règlement à l’amiable, avec des entreprises fortunées comme Microsoft et OpenAI payant une compensation substantielle. Cependant, les futurs litiges en matière de droits d’auteur sur les données augmenteront inévitablement le coût global des données de haute qualité.

De plus, en tant que plus grand moteur de recherche au monde, Google a révélé qu’il envisageait de facturer des frais pour sa fonctionnalité de recherche. Les accusations ne cibleraient pas le grand public mais plutôt les entreprises d’IA.


Source : Reuters

Les serveurs des moteurs de recherche de Google stockent une grande quantité de contenu. On peut même dire que Google stocke tout le contenu qui est apparu sur toutes les pages Internet depuis le 21e siècle. Les produits de recherche actuels basés sur l’IA, tels que les produits étrangers tels que perplexity, et les produits nationaux tels que Kimi et Secret Tower, traitent tous les données recherchées par l’IA, puis les transmettent aux utilisateurs. Les frais des moteurs de recherche pour l’IA augmenteront inévitablement le coût d’acquisition des données.

En fait, en plus des données publiques, les géants de l’IA lorgnent également sur les données internes non publiques.

Photobucket est un site Web d’hébergement d’images et de vidéos établi qui comptait 70 millions d’utilisateurs et près de la moitié du marché américain de la photo en ligne au début des années 2000. Avec l’essor des médias sociaux, le nombre d’utilisateurs de Photobucket a considérablement diminué. Actuellement, il ne reste plus que 2 millions d’utilisateurs actifs (ils paient des frais élevés de 399 $ US par an). Selon l’accord et la politique de confidentialité signés par les utilisateurs lors de leur inscription, ils n’ont pas été utilisés depuis plus d’un an. Le compte sera recyclé et le droit de Photobucket d’utiliser les photos et les données vidéo téléchargées par l’utilisateur est également pris en charge. Le PDG de Photobucket, Ted Leonard, a révélé que les 1,3 milliard de données photo et vidéo qu’il possède sont extrêmement précieuses pour l’entraînement de modèles d’IA générative. Il est en pourparlers avec plusieurs entreprises technologiques pour vendre les données, avec des offres allant de 5 cents à 1 dollar par photo et plus de 1 dollar par vidéo, estimant que les données que Photobucket peut fournir valent plus d’un milliard de dollars.

EPOCH, une équipe de recherche axée sur la tendance de développement de l’intelligence artificielle, a publié un jour un rapport sur les données nécessaires à l’apprentissage automatique basé sur l’utilisation des données et la génération de nouvelles données par apprentissage automatique en 2022, et compte tenu de la croissance des ressources informatiques. Il a déjà publié un rapport sur l’état des données nécessaires à l’apprentissage automatique intitulé « Will we short of data ? Une analyse des limites de la mise à l’échelle des ensembles de données dans l’apprentissage automatique". Le rapport a conclu que les données textuelles de haute qualité seront épuisées entre février 2023 et 2026, et les données d’image seront épuisées entre 2030 et 2060. Si l’efficacité de l’utilisation des données ne peut pas être améliorée de manière significative ou si de nouvelles sources de données apparaissent, la tendance actuelle des grands modèles d’apprentissage automatique qui reposent sur des ensembles de données massifs pourrait ralentir.

À en juger par la situation actuelle où les géants de l’IA achètent des données à des prix élevés, les données textuelles gratuites de haute qualité ont été épuisées. La prédiction d’EPOCH il y a 2 ans était relativement précise.

Dans le même temps, des solutions à la demande de « pénurie de données d’IA » émergent également, à savoir : les services de fourniture de données d’IA.

Defined.ai est une entreprise qui fournit des données personnalisées, réelles et de haute qualité aux entreprises d’IA.

Exemples de types de données que Defined.ai pouvez fournir : https://www.defined.ai/datasets

Son modèle économique est le suivant : les entreprises d’IA fournissent aux Defined.ai leurs propres besoins en données. Par exemple, en termes de qualité d’image, la résolution doit être la plus élevée possible pour éviter le flou, la surexposition, et le contenu doit être authentique. En termes de contenu, les entreprises d’IA peuvent personnaliser des thèmes spécifiques en fonction de leurs propres tâches d’entraînement, telles que les photos de nuit, les cônes de nuit, les parkings et les panneaux, afin d’améliorer le taux de reconnaissance de l’IA dans les scènes de nuit. Le public peut prendre la tâche de prendre la photo. Ensuite, l’entreprise les examinera et les téléchargera. Les pièces qui répondent aux exigences seront réglées en fonction du nombre de photos. Le prix est d’environ 1 à 2 dollars pour une image de haute qualité, 5 à 7 dollars pour un court métrage de plus de dix secondes. Une vidéo de haute qualité de plus de 10 minutes coûte entre 100 et 300 dollars, et un texte coûte 1 dollar par millier de mots. La personne qui reçoit la tâche de sous-traitance peut obtenir environ 20 % des honoraires. La fourniture de données peut devenir une autre activité de crowdsourcing après « l’étiquetage des données ».

La distribution mondiale de crowdsourcing, les incitations économiques, la tarification/circulation des actifs de données et la protection de la vie privée sont ouvertes à tous, ce qui semble particulièrement bien adapté à un paradigme commercial Web3.

Objectifs narratifs de l’IA du côté de l’approvisionnement industriel

L’attention portée par la pénurie de puces a imprégné l’industrie de la cryptographie, faisant de la puissance de calcul distribuée la piste d’IA la plus chaude et la plus élevée à ce jour.

Ainsi, si les conflits entre l’offre et la demande dans les secteurs de l’énergie et des données de l’industrie de l’IA devaient exploser dans les 1 à 2 prochaines années, quels sont les projets liés à la narration actuellement présents dans l’industrie de la cryptographie ?

Objectifs liés à l’énergie

Les projets liés à l’énergie qui ont été cotés sur les principales bourses centralisées (CEX) sont rares, Power Ledger (jeton : POWR) étant le seul exemple notable.

Power Ledger, créée en 2017, est une plateforme énergétique complète basée sur la blockchain visant à décentraliser le commerce de l’énergie. Il favorise les transactions directes d’électricité entre les individus et les communautés, soutient l’application généralisée des énergies renouvelables et garantit la transparence et l’efficacité grâce à des contrats intelligents. Initialement, Power Ledger fonctionnait sur une chaîne de consortium dérivée d’Ethereum. Au second semestre 2023, Power Ledger a mis à jour son livre blanc et lancé sa propre chaîne publique complète, basée sur le cadre technique de Solana pour gérer les micro-transactions à haute fréquence sur le marché de l’énergie distribuée. Actuellement, les principales activités de Power Ledger comprennent :

  • Échange d’énergie : Permet aux utilisateurs d’acheter et de vendre directement de l’électricité, en particulier à partir de sources renouvelables.
  • Échange de produits environnementaux : Facilite l’échange de crédits carbone et de certificats d’énergie renouvelable, ainsi que le financement basé sur des produits environnementaux.
  • Opération de la chaîne publique : Attire les développeurs d’applications à s’appuyer sur la blockchain Power Ledger, avec des frais de transaction payés en jetons POWR.

À l’heure actuelle, la capitalisation boursière en circulation de Power Ledger est de 170 millions de dollars, avec une capitalisation boursière entièrement diluée de 320 millions de dollars.

Cibles liées aux données

Par rapport aux cibles cryptographiques liées à l’énergie, la piste de données a une plus grande variété de cibles cryptographiques. Voici les projets de suivi de données que je surveille actuellement, qui sont tous répertoriés sur au moins un des principaux CEX tels que Binance, OKX ou Coinbase, classés par ordre croissant de leur valorisation entièrement diluée (FDV) :

  1. Streamr – DONNÉES

Proposition de valeur : Streamr vise à construire un réseau de données décentralisé en temps réel qui permet aux utilisateurs d’échanger et de partager librement des données tout en gardant un contrôle total sur leurs données. Grâce à sa place de marché de données, Streamr cherche à permettre aux producteurs de données de vendre directement des flux de données aux consommateurs intéressés sans intermédiaires, réduisant ainsi les coûts et augmentant l’efficacité.

Source : https://streamr.network/hub/projects

Dans un cas de collaboration pratique, Streamr s’est associé à un autre projet de matériel embarqué Web3, DIMO. Grâce à des capteurs matériels DIMO installés dans les véhicules, ils collectent des données telles que la température, la pression atmosphérique et d’autres mesures, formant des flux de données météorologiques qui sont transmis aux organisations dans le besoin.

Par rapport à d’autres projets de données, Streamr se concentre davantage sur l’IoT et les données des capteurs matériels. Outre les données sur les véhicules DIMO susmentionnées, d’autres projets incluent des flux de données de trafic en temps réel à Helsinki. En raison de cette orientation, le jeton de projet de Streamr, DATA, a connu une forte hausse, doublant de valeur en une seule journée en décembre dernier, lorsque le concept DePIN était à son apogée.

Actuellement, la capitalisation boursière en circulation de Streamr est de 44 millions de dollars, avec une capitalisation boursière entièrement diluée de 58 millions de dollars.

  1. Covalent – CQT

Contrairement à d’autres projets de données, Covalent fournit des données blockchain. Le réseau Covalent lit les données des nœuds de la blockchain via RPC, traite et organise ces données, créant ainsi une base de données de requêtes efficace. Cela permet aux utilisateurs de Covalent de récupérer rapidement les informations dont ils ont besoin sans effectuer de requêtes complexes directement à partir des nœuds de la blockchain. Ce service est connu sous le nom d'« indexation des données blockchain ».

Les clients de Covalent sont principalement B2B, y compris des projets Dapp comme diverses applications DeFi, ainsi que de nombreuses sociétés de crypto-monnaies centralisées telles que ConsenSys (la société mère de MetaMask), CoinGecko (un site de suivi des actifs cryptographiques bien connu), Rotki (un outil fiscal) et Rainbow (un portefeuille crypto). De plus, les géants financiers traditionnels comme Fidelity et le cabinet comptable EY sont également clients de Covalent. Selon les divulgations officielles de Covalent, les revenus du projet provenant des services de données ont déjà dépassé ceux du projet leader dans le même domaine, The Graph.

L’industrie du Web3, en raison de l’exhaustivité, de l’ouverture, de l’authenticité et de la nature en temps réel des données on-chain, est en passe de devenir une source précieuse de données de haute qualité pour des scénarios d’IA spécifiques et des « petits modèles d’IA ». En tant que fournisseur de données, Covalent a commencé à fournir des données pour divers scénarios d’IA et a lancé des données structurées vérifiables spécifiquement pour l’IA.

Source : https://www.covalenthq.com/solutions/decentralized-ai/

Par exemple, il fournit des données à SmartWhales, une plateforme de trading intelligente on-chain, et utilise l’IA pour identifier des modèles de trading et des adresses rentables ; Entendre Finance utilise les données structurées et le traitement de l’IA de Covalent pour obtenir des informations en temps réel, détecter les anomalies et analyser les prédictions.

À l’heure actuelle, les principaux scénarios pour les services de données on-chain fournis par Covalent sont toujours financiers. Cependant, avec la généralisation des produits et des types de données Web3, les scénarios d’utilisation des données on-chain seront également élargis.

La valeur marchande diluée actuelle du projet Covalent est de 150 millions de dollars, et la valeur marchande diluée totale est de 235 millions de dollars. Comparé à The Graph, un projet d’indice de données blockchain dans la même voie, il présente un avantage de valorisation relativement évident.

  1. Hivemapper – Miel

Parmi tous les supports de données, les données vidéo ont souvent le prix unitaire le plus élevé. Hivemapper peut fournir des données, y compris des vidéos et des informations cartographiques, aux entreprises d’IA. Hivemapper lui-même est un projet de cartographie mondial décentralisé qui vise à créer un système de cartographie détaillé, dynamique et accessible grâce à la technologie blockchain et aux contributions de la communauté. Les participants peuvent capturer des données cartographiques via une dashcam et les ajouter au réseau de données open source Hivemapper, et recevoir des récompenses en fonction de leurs contributions dans le jeton du projet HONEY. Afin d’améliorer les effets de réseau et de réduire les coûts d’interaction, Hivemapper est construit sur Solana.

Hivemapper, fondée en 2015, visait initialement à créer des cartes à l’aide de drones. Cependant, il s’est vite rendu compte que ce modèle était difficile à mettre à l’échelle, ce qui a incité à utiliser des dashcams et des smartphones pour capturer des données géographiques, réduisant considérablement le coût de production de cartes mondiales.

Par rapport aux logiciels de street view et de cartographie comme Google Maps, Hivemapper utilise un réseau incitatif et un modèle de crowdsourcing pour étendre la couverture cartographique plus efficacement, maintenir la fraîcheur des cartes du monde réel et améliorer la qualité vidéo.

Avant l’explosion de la demande de données basée sur l’IA, les principaux clients d’Hivemapper comprenaient les services de conduite autonome de l’industrie automobile, les sociétés de services de navigation, les gouvernements, les compagnies d’assurance et les sociétés immobilières. Aujourd’hui, Hivemapper peut fournir des données routières et environnementales complètes pour l’IA et les grands modèles grâce aux API. En mettant continuellement à jour les flux d’images et les données sur les caractéristiques routières, les modèles d’IA et de ML peuvent mieux traduire ces données en capacités améliorées, en effectuant des tâches liées à la localisation géographique et au jugement visuel.


Source des données : https://hivemapper.com/blog/diversify-ai-computer-vision-models-with-global-road-imagery-map-data/

Actuellement, le projet Honey de Hivemapper a une capitalisation boursière diluée de 120 millions de dollars et une capitalisation boursière diluée (FDV) de 496 millions de dollars.

En plus des trois projets mentionnés ci-dessus, le domaine des données comprend également :

The Graph – GRT : Avec une capitalisation boursière diluée de 3,2 milliards de dollars et un FDV de 3,7 milliards de dollars, The Graph fournit des services d’indexation de données blockchain similaires à Covalent.

Ocean Protocol – OCEAN : Avec une capitalisation boursière en circulation de 670 millions de dollars et un FDV de 1,45 milliard de dollars, Ocean Protocol est un protocole open-source visant à faciliter l’échange et la monétisation des données et des services liés aux données. Il met en relation les consommateurs de données avec les fournisseurs de données pour partager les données tout en garantissant la confiance, la transparence et la traçabilité. Ce projet est sur le point de fusionner avec Fetch.ai et SingularityNET, son jeton se convertissant en ASI.

Deuxième perspective sur le récit de l’IA : l’arrivée de l’IAG, rappelant le moment GPT

De l’avis de l’auteur, l’année inaugurale de la « piste IA » dans l’industrie de la cryptographie a été l’année remarquable de 2023, marquée par l’avènement du GPT, et l’essor des projets d’IA crypto était davantage un effet d’entraînement de la croissance explosive de l’industrie de l’IA.

Bien que des capacités telles que GPT4 et Turbo aient continué à évoluer après GPT3.5, et que Sora ait présenté des capacités étonnantes de création vidéo, ainsi que des développements rapides dans de grands modèles de langage en dehors d’OpenAI, il est indéniable que l’impact cognitif des progrès technologiques de l’IA sur le grand public diminue. Les gens commencent progressivement à utiliser les outils d’IA, et le déplacement d’emplois à grande échelle semble encore se produire.

Alors, le domaine de l’IA connaîtra-t-il un autre « moment GPT » à l’avenir, où un bond dans le développement de l’IA étonnera les masses, faisant réaliser aux gens que leur vie et leur travail en seront changés ? Ce moment pourrait être l’avènement de l’intelligence artificielle générale (AGI).

L’IAG fait référence aux machines ayant des capacités cognitives complètes similaires à celles des humains, capables de résoudre divers problèmes complexes au-delà de tâches spécifiques. Les systèmes AGI possèdent une pensée abstraite de haut niveau, des connaissances de base approfondies, un raisonnement de bon sens interdomaines, une compréhension causale et des capacités d’apprentissage par transfert interdisciplinaire. En termes de capacités globales, les performances d’AGI sont comparables à celles des meilleurs humains, et dépassent même les capacités collectives des groupes humains les plus remarquables.

En fait, qu’elle soit représentée dans la science-fiction, les jeux ou les films, ou alimentée par les attentes du public suite à la prolifération rapide du TPG, la société a longtemps anticipé l’émergence d’une IAG dépassant les niveaux cognitifs humains. On pourrait dire que GPT lui-même est un précurseur de l’AGI, une prophétie de l’intelligence artificielle générale.

La raison pour laquelle GPT a une telle énergie industrielle et un impact psychologique est que sa vitesse de mise en œuvre et ses performances ont dépassé les attentes des masses : les gens ne s’attendaient pas à ce qu’un système d’intelligence artificielle capable de réussir le test de Turing arrive réellement, et arrive si rapidement.

En réalité, l’intelligence artificielle générale (AGI) peut reprendre la soudaineté du « moment GPT » d’ici 1 à 2 ans : les gens viennent de s’adapter à l’aide de GPT, pour découvrir que l’IA n’est plus seulement un assistant. Il peut même accomplir de manière indépendante des tâches très créatives et difficiles, y compris les problèmes qui ont déconcerté les meilleurs scientifiques pendant des décennies.

Le 8 avril de cette année, Musk a été interviewé par Nicolai Tangen, directeur des investissements du Norwegian Sovereign Wealth Fund, sur le moment de l’émergence de l’AGI.

Il a déclaré : « Si nous définissons l’IAG comme plus intelligent que les humains les plus intelligents, je pense que cela se produira probablement vers 2025. » En d’autres termes, selon ses estimations, il faudra tout au plus un an et demi de plus pour que l’AGI arrive. Bien sûr, il a ajouté une mise en garde, que « la puissance et le matériel suivent le rythme ».

Les avantages de l’arrivée d’AGI sont évidents.

Cela signifie que la productivité de l’humanité fera un pas de géant en avant et que de nombreux problèmes de recherche scientifique qui nous tourmentent depuis des décennies seront résolus sans effort. Si nous définissons « les humains les plus intelligents » comme des lauréats du prix Nobel, cela signifie que tant qu’il y a suffisamment d’énergie, de puissance de calcul et de données, nous pouvons avoir d’innombrables « lauréats du prix Nobel » infatigables qui se penchent sur les problèmes scientifiques les plus difficiles 24 heures sur 24.

En réalité, les lauréats du prix Nobel ne sont pas aussi rares qu’un sur plusieurs centaines de millions ; La plupart d’entre eux sont à égalité avec les professeurs d’université en termes de capacité et d’intelligence. Cependant, en raison de la probabilité et de la chance de choisir la bonne direction, et de la persistance jusqu’à ce que les résultats soient obtenus, des individus de même calibre qu’eux, leurs collègues tout aussi exceptionnels, peuvent également avoir remporté des prix Nobel dans des univers parallèles de recherche scientifique. Malheureusement, il n’y a toujours pas assez de personnes ayant les capacités des meilleurs professeurs d’université participant aux percées scientifiques, de sorte que la vitesse d'« exploration de toutes les directions correctes dans la recherche scientifique » reste lente.

Avec l’avènement de l’IAG, dans des conditions où l’énergie et la puissance de calcul sont suffisamment fournies, nous pouvons avoir un nombre infini d’IAG du niveau des lauréats du prix Nobel explorant en profondeur toutes les directions possibles de percée scientifique. Le taux d’avancement technologique augmentera de dizaines de fois. Les progrès technologiques conduiront à ce que les ressources actuellement considérées comme coûteuses et rares augmentent des centaines de fois au cours des 10 à 20 prochaines années, telles que la production alimentaire, les nouveaux matériaux, les nouveaux médicaments, l’éducation de haute qualité, etc. Le coût d’obtention de ces ressources diminuera également de manière exponentielle, ce qui nous permettra de soutenir plus de personnes avec moins de ressources, et la richesse par habitant augmentera rapidement.

Tendance du PIB mondial (Source : Banque mondiale)

Cela peut sembler un peu sensationnel. Examinons deux exemples, qui ont déjà été discutés par l’auteur dans le rapport de recherche IO.NET :

  • En 2018, la lauréate du prix Nobel de chimie, Frances Arnold, a déclaré lors de la cérémonie de remise des prix : « Aujourd’hui, nous pouvons lire, écrire et modifier n’importe quelle séquence d’ADN dans des applications pratiques, mais nous ne pouvons toujours pas la composer. » À peine cinq ans plus tard, en 2023, des chercheurs de Salesforce Research, une startup d’IA de l’Université de Stanford et de la Silicon Valley, ont publié un article dans Nature Biotechnology. Ils ont utilisé un grand modèle de langage basé sur le réglage fin de GPT-3 pour créer un million de nouvelles protéines à partir de zéro et ont découvert deux protéines aux structures radicalement différentes, qui ont toutes deux des propriétés antimicrobiennes et pourraient potentiellement servir de solutions de résistance bactérienne au-delà des antibiotiques. En d’autres termes, avec l’aide de l’IA, le goulot d’étranglement dans la « création » de protéines a été surmonté.
  • Avant cela, l’algorithme d’intelligence artificielle AlphaFold avait prédit les structures de presque toutes les 214 millions de protéines connues sur Terre en 18 mois, un résultat des centaines de fois supérieur aux efforts combinés de tous les biologistes structurels précédents.

La révolution a déjà eu lieu, et l’avènement de l’IAG accélérera encore ce processus. D’autre part, les défis posés par l’avènement de l’IAG sont également énormes. L’IAG remplacera non seulement un grand nombre de travailleurs cognitifs, mais aura également un impact sur les travailleurs physiques qui étaient auparavant considérés comme « moins affectés par l’IA ». Avec la maturité de la technologie robotique et le développement de nouveaux matériaux entraînant une réduction des coûts de production, la proportion de postes de travail remplacés par des machines et des logiciels augmentera rapidement.

À ce moment-là, deux questions apparemment lointaines referont rapidement surface :

  1. Le problème de l’emploi et du revenu pour un grand nombre de chômeurs.
  2. Comment faire la distinction entre l’IA et les humains dans un monde où l’IA est omniprésente.

Worldcoin tente d’apporter des solutions en proposant un système de revenu de base universel (RBI) pour fournir un revenu de base au public et en utilisant des fonctionnalités biométriques basées sur l’iris pour distinguer les humains de l’IA.

En fait, le RBI, qui fournit de l’argent à tout le monde, n’est pas qu’une tarte dans le ciel. Des pays comme la Finlande et l’Angleterre ont expérimenté le revenu de base universel, et des partis au Canada, en Espagne, en Inde et dans d’autres pays proposent et promeuvent activement des expériences connexes.

L’avantage de l’utilisation d’un modèle d’identification biométrique + basé sur la blockchain pour la distribution de l’UBI réside dans la nature mondiale du système, offrant une couverture plus large à la population. De plus, il peut tirer parti du réseau d’utilisateurs élargi par la distribution des revenus pour construire d’autres modèles commerciaux, tels que les services financiers (Defi), les réseaux sociaux, le crowdsourcing, etc., créant des synergies au sein du réseau.

L’un des actifs correspondant à l’impact de l’avènement de l’AGI est Worldcoin – WLD, avec une capitalisation boursière diluée de 1,03 milliard de dollars et une capitalisation boursière diluée de 47,2 milliards de dollars.

Les risques et les incertitudes de la déduction narrative

Contrairement à de nombreux rapports de recherche de projets et de pistes publiés par Mint Ventures, cet article a une plus grande subjectivité dans la déduction et la prédiction narratives. Les lecteurs devraient considérer le contenu de cet article comme une discussion divergente plutôt que comme une prophétie de l’avenir. L’extrapolation narrative présentée par l’auteur se heurte à de nombreuses incertitudes, conduisant à des erreurs spéculatives. Ces risques ou facteurs d’influence comprennent, sans s’y limiter :

  • Aspect énergétique : les mises à jour du GPU entraînent une baisse rapide de la consommation d’énergie

Malgré la forte augmentation de la demande d’énergie liée à l’IA, les fabricants de puces comme Nvidia fournissent une puissance de calcul plus élevée avec une consommation d’énergie plus faible grâce à des mises à niveau matérielles continues. Par exemple, en mars de cette année, Nvidia a publié une nouvelle génération de carte informatique AI GB200, qui intègre deux GPU B200 et un processeur Grace. Ses performances d’entraînement sont quatre fois supérieures à celles du GPU IA principal H100 de la génération précédente, et les performances d’inférence sont sept fois supérieures à celles du H100, tandis que la consommation d’énergie requise n’est que d’un quart de celle de H100. Cependant, malgré cela, le désir de puissance de l’IA est loin d’être satisfait. Avec la diminution de la consommation d’énergie unitaire, la consommation totale d’énergie pourrait en fait augmenter à mesure que les applications et les demandes d’IA se développent.

  • Aspect des données : Le projet Q* réalise des « données auto-générées »

Il y a longtemps eu une rumeur au sein d’OpenAI sur le projet « Q », qui a été mentionné dans les communications internes aux employés d’OpenAI. Selon Reuters citant des initiés d’OpenAI, cela pourrait être une percée dans la poursuite d’OpenAI de la superintelligence/intelligence artificielle générale (AGI). Q a non seulement la capacité de résoudre des problèmes mathématiques inédits par abstraction, mais a également la capacité de générer des données pour l’entraînement de grands modèles sans avoir besoin d’alimenter des données du monde réel. Si cette rumeur est vraie, le goulot d’étranglement de l’entraînement des modèles d’IA limité par le manque de données de haute qualité sera brisé.

  • Arrivée d’AGI : les préoccupations d’OpenAI

Le moment de l’arrivée d’AGI, comme l’a suggéré Elon Musk, pourrait en effet arriver d’ici 2025, mais ce n’est qu’une question de temps. Cependant, Worldcoin, en tant que récit bénéficiaire direct de l’arrivée d’AGI, pourrait faire face aux plus grandes préoccupations d’OpenAI, car il est largement reconnu comme le « jeton fantôme d’OpenAI ».

Aux premières heures du 14 mai, OpenAI a présenté le dernier GPT-4o et 19 autres versions différentes de grands modèles de langage dans des scores de tâches complets lors de son événement de lancement de produit de printemps. En regardant simplement le tableau, GPT-4o a obtenu un score de 1310, apparemment nettement supérieur aux rangs ultérieurs. Cependant, en termes de score total, il n’est que de 4,5 % supérieur à celui du GPT4 turbo en deuxième place, de 4,9 % supérieur au Gemini 1.5 Pro de Google à la quatrième place et de 5,1 % supérieur au Claude 3 Opus d’Anthropic à la cinquième place.

Depuis que le moment de bouleversement mondial des débuts de GPT3.5 s’est écoulé depuis un peu plus d’un an, les concurrents d’OpenAI ont déjà rattrapé une position très proche (bien que GPT5 n’ait pas encore été publié et devrait être lancé cette année). La question de savoir si OpenAI peut maintenir sa position de leader du secteur à l’avenir semble devenir floue. Si l’avantage et la position dominante d’OpenAI sont dilués ou dépassés, la valeur narrative de Worldcoin en tant que jeton fantôme d’OpenAI diminuera également.

En outre, outre le système d’authentification de l’iris de Worldcoin, de plus en plus de concurrents entrent également sur ce marché. Par exemple, le projet d’identification par scan de la paume Humanity Protocol vient d’annoncer la clôture d’un nouveau tour de financement d’une valeur de 30 millions de dollars pour une valorisation de 1 milliard de dollars. LayerZero Labs a également annoncé son opération sur Humanity et a rejoint son réseau de nœuds de validation, en utilisant des preuves ZK pour authentifier les informations d’identification.

Conclusion

En conclusion, bien que l’auteur ait extrapolé le récit de la piste de l’IA, la piste de l’IA est différente des champs cryptographiques natifs tels que la DeFi. C’est plutôt un produit du débordement du boom de l’IA dans le cercle des devises. Actuellement, de nombreux projets n’ont pas encore complètement établi leurs modèles commerciaux, et de nombreux projets ressemblent davantage à des mèmes sur le thème de l’IA (tels que Rndr similaire au mème de Nvidia, Worldcoin similaire au mème d’OpenAI). Les lecteurs doivent être prudents à leur sujet.

Déclaration:

  1. Cet article intitulé à l’origine « La prochaine vague de déduction narrative dans le secteur de l’IA crypto : catalyseurs, voies de développement et projets connexes » est reproduit de [mintventures]. Tous les droits d’auteur appartiennent à l’auteur original [Alex Xu]. Si vous avez des objections à la réimpression, veuillez contacter l’équipe Gate Learn , l’équipe s’en occupera dès que possible.

  2. Avis de non-responsabilité : Les points de vue et opinions exprimés dans cet article ne représentent que les points de vue personnels de l’auteur et ne constituent aucun conseil en investissement.

  3. Les traductions de l’article dans d’autres langues sont effectuées par l’équipe de Gate Learn. Sauf mention contraire, il est interdit de copier, distribuer ou plagier les articles traduits.

Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!