L’infrastructure de données concentrée viole le noyau accessoire du web3

[ad_1]

Opinion de: Michael Orrk, fondateur du Pocket Network et PDG de Grove

Les données ouvertes contribuent désormais à la construction de l’économie technologique mondiale, avec un marché estimé à plus de 350 milliards de dollars. Cependant, les sources de données ouvertes reposent généralement sur des infrastructures centralisées, par opposition à la philosophie de l’autonomie et de la résistance à la censure.

Pour réaliser leur potentiel, les données ouvertes doivent passer à une infrastructure décentralisée. Dès que les bases de données ouvertes commencent à utiliser une infrastructure distribuée et ouverte, plusieurs utilisateurs seront résolus pour les applications des utilisateurs.

L’infrastructure ouverte a de nombreux cas d’utilisation, allant d’une application décentralisée (DAPP) ou d’un bot commercial pour le partage de données de recherche à la formation et au chauffage de modèles de langues importants (LLM). Regarder chacun nous aide à mieux comprendre pourquoi l’effet de levier d’infrastructure distribué pour les données ouvertes est plus utilitaire que l’infrastructure centralisée.

Les entraînements et le chauffage de LLM

Le Lancez le code ouvert AI DeepseekLe billion de dollars en burnout des spécialistes du marketing de la technologie américaine démontre la puissance des protocoles open source. Il s’agit d’un appel de réveil pour se concentrer sur la nouvelle économie mondiale des données ouvertes.

Premièrement, une source fermée et des modèles d’IA concentrés ont des coûts élevés pour la formation LLMS et créent des résultats précis.

Sans surprise, la phase finale de Deepseek R1 n’a coûté qu’environ 5,5 millions de dollars, contre plus de 100 millions de dollars pour le GPT -4 d’Openai. Toujours L’industrie de l’IA se développe Toujours compter sur des plateformes d’infrastructure centralisées telles que les fournisseurs d’API de LLM, qui sont principalement en contradiction avec les innovations ouvertes.

Les LLM avec open source comme Llama 2 et Deepseek R1 sont simples et bon marché. Contrairement aux excellents blocages qui nécessitent une synchronisation régulière, LLMS n’est pas apatride et n’a besoin que de mises à jour périodiques.

Dernier: HC’est pourquoi Deepseek a écrasé votre bitcoin et votre crypto

Malgré la simplicité, les coûts de calcul de l’exploitation des modèles open source sont élevés, car les coureurs ont besoin de GPU. Ces modèles peuvent réduire les coûts car ils ne nécessitent pas de mises à jour réelles pour se synchroniser en continu.

L’essor de modèles de base généralisés tels que GPT-4 a permis le développement de nouveaux produits en utilisant un chauffage contextuel. Les sociétés de concentration comme OpenAI n’autoriseront aucun soutien à un réseau aléatoire à partir de leur modèle formé.

Au contraire, Dazzled Junction peut prendre en charge les LLM avec des points open source par service en tant que points de bord AI pour fournir des données déterministes aux clients. Les réseaux à faible décentralisation des barrières d’entrée en permettant aux opérateurs de lancer leurs cheveux en haut du réseau.

Ces protocoles d’infrastructure défectueux desservent des millions de demandes dans leurs réseaux impatients par une infrastructure de porte et de service ouverts. En conséquence, tout entrepreneur ou opérateur peut déployer leurs cheveux et utiliser un marché de sillage.

Par exemple, quelqu’un peut former LLM avec des ressources informatiques Altogtered dans un protocole autorisé AKASH, qui permet des services informatiques personnalisés à des prix inférieurs de 85% que les fournisseurs de cloud centralisés.

Le marché de la formation et du chauffage de l’IA a un énorme potentiel. Les entreprises d’IA dépensent environ 1 million de dollars par jour pour l’entretien des infrastructures pour faire fonctionner LLM Heating. Il prend le service qui peut être obtenu, ou SAM, pour environ 365 millions de dollars par an.

Comme les données le suggèrent, les conditions du marché indiquent un énorme potentiel de croissance pour les infrastructures distribuées.

Partage des données de recherche accessibles

Dans le domaine de la science et de la recherche, le partage de données en combinaison avec l’apprentissage automatique et les LLM peut accélérer la recherche et améliorer la vie humaine. L’accès à ces données a été établi par le système de calendrier élevé, qui publie sélectivement la recherche dont le comité approuve et n’est pas largement accessible derrière les abonnés coûteux.

Avec la montée en puissance des modèles de connaissances zéro basés sur la blockchain, les données et l’ordinateur peuvent désormais être partagés sans confiance, et la confidentialité peut être maintenue sans divulguer des données sensibles. Par conséquent, les chercheurs et les scientifiques peuvent partager et accéder aux données de recherche sans se soucier de l’anonymisation des informations peuvent être personnellement limitées.

Pour partager des données de recherche ouvertes, les chercheurs ont besoin d’une infrastructure décentralisée qui les récompense pour accéder à ces données et coupe le médiateur. Un réseau de données ouvert ouvert peut garantir que les données scientifiques resteront accessibles en dehors des sociétés premium et privées.

Hébergement DAPP imparable

Les plateformes centrales d’hébergement de données telles que Amazon Web Services, Google Cloud et Microsoft Azure sont la popularité parmi les développeurs d’applications. Malgré leur accessibilité facile, les plates-formes de concentration souffrent d’une seule défaillance, affectent la fiabilité et conduisent à des ruptures rares mais concevables.

Il existe divers cas dans les antécédents technologiques lorsque les plateformes d’infrastructure n’ont pas pu fournir de services ininterrompus.

Par exemple, en 2022, le métamask est temporairement accessible à des utilisateurs géographiques spécifiques car INFORA les a bloqués après quelques sanctions américaines.

Ce n’était pas non plus un événement isolé. Les clients Infura ont également été confrontés à un trouble en 2020, tandis que Solna et Polygon ont connu une surcharge de procédure à distance (RPC) pendant le mouvement de pointe.

Il est difficile pour une entreprise de traiter avec divers développeurs dans un écosystème ouvert. Il y a des milliers de couches 1, des tames, des index, du stockage et d’autres protocoles de médiation avec des cas d’utilisation de niche.

La plupart des plates-formes principales, telles que les fournisseurs de RPC, continuent de construire la même infrastructure, ce qui crée un frottement, ralentit les mesures de croissance et affecte le rang car les protocoles se concentrent sur la reconstruction de la base au lieu d’ajouter de nouvelles fonctionnalités.

Au contraire, le succès massif d’applications de réseaux sociaux décentralisées comme Bluesky et un protocole est habilitée par le parcours des utilisateurs vers des protocoles déformés. En passant par les RPC concentrés pour l’accès ouvert des données, de tels protocoles nous rappellent la nécessité de construire et de travailler sur des infrastructures distribuées.

Par exemple, le protocole financier distribué peut placer des données sur les prix d’Onchain de ChainLink pour s’arrêter en fonction des interfaces d’API de concentration pour les flux de prix et les données du marché en temps réel.

Il y a environ 100 milliards d’applications RPC disponibles sur le marché Web3, coûtant 3 à 6 $ par million de demandes. Par conséquent, la taille totale du marché pour le RPC Web3 est de 100 millions de dollars – 200 millions de dollars par an. Avec la croissance constante des couches de nouvelles données disponibles, plus de billions de demandes RPC peuvent être tous les jours.

Il est impératif de progresser vers une infrastructure décentralisée pour rester en synchronisation avec les transferts de données ouverts et utiliser le marché des données open source.

Les données ouvertes nécessitent une infrastructure distribuée

Nous verrons des clients généraux de blockchain qui stimulent le stockage et les réseaux pour des médiateurs spéciaux à long terme.

Par exemple, Solna a mené le mouvement des accessoires lorsqu’elle a commencé à stocker ses données sur des colliers comme Arweave. Pas étonnant que Solna et Phantom étaient à nouveau les principaux outils pour traiter l’invitation présidentielle massive de Trump, un moment clé de l’histoire financière et culturelle.

À l’avenir, nous verrons des données plus fluides à travers les protocoles d’infrastructure et créerons une dépendance à l’égard des plateformes de médiateur. À mesure que les protocoles deviennent plus modulaires et féroces, ils feront la place de l’open source, les intermédiaires pour s’intégrer au niveau du protocole.

Il n’est pas possible pour les entreprises centralisées de fonctionner en tant que médiateurs pour les titres des clients faciles.

L’infrastructure distribuée n’est pas fiable, distribuée, rentable et censure. En conséquence, les infrastructures décentralisées seront le choix par défaut pour les développeurs d’applications et les entreprises, conduisant à une histoire de croissance bénéfique mutuelle.

Opinion de: Michael Orkk, fondateur du Pocket Network et PDG de Grove.

Cet article est destiné à des informations générales et n’est pas destiné à être et ne doit pas être considéré comme un conseil ou un investissement. Les opinions, les pensées et les opinions ici ne sont que de l’auteur et ne reflètent ni ne représentent nécessairement les opinions et les opinions de Cointengrap.