Annonce du Litepaper du réseau Allora

French Allorian
Official Allora Community
7 min readMay 27, 2024

Une traduction de l’article original de Nick Emmons: https://www.allora.network/blog/announcing-the-allora-network-litepaper

L’intelligence des machines appartient à tout le monde.

Nous sommes fiers de présenter le livre blanc du réseau Allora, qui expose le nouveau mécanisme de synthèse d’inférence d’Allora, ainsi qu’un contexte supplémentaire sur les problèmes que le réseau vise à résoudre.

Les progrès récents en matière d’accès aux données et de puissance de calcul ont permis de mettre au point les premières formes d’intelligence artificielle capables d’offrir des informations utiles. Toutefois, les ressources considérables nécessaires ont entraîné la fermeture et le cloisonnement de ces solutions dans des monolithes industriels. Pour réaliser le plein potentiel de l’intelligence artificielle, les données, les algorithmes et les participants doivent être connectés au maximum. Des solutions en réseau sont nécessaires, et la nature décentralisée de la technologie blockchain est idéale pour résoudre ce problème.

Allora est un réseau d’intelligence artificielle décentralisé et auto-améliorant qui dépasse les capacités de ses participants individuels. Allora y parvient grâce à deux innovations principales :

  1. Allora est consciente du contexte
  2. Allora dispose d’une structure d’incitation différenciée

Contrairement à d’autres réseaux d’IA décentralisés, qui n’ont pas la capacité de tenir compte du contexte, Allora est conçu pour évaluer et combiner les résultats prédictifs des modèles de ML en se basant à la fois sur leurs performances historiques et sur leur pertinence par rapport aux conditions contextuelles actuelles. Ce faisant, Allora veille à ce que le réseau exploite toujours les modèles les plus appropriés à une situation donnée.
D’autres tentatives de création d’une intelligence en réseau auto-améliorante s’appuient sur un système de réputation cumulative pour agréger les inférences, une méthode qui inhibe la prise de conscience du contexte. En tant que tels, ces réseaux ont tendance à favoriser les modèles dont les performances sont historiquement élevées, sans tenir compte du fait que certains modèles ne sont performants que dans certaines conditions. En écartant les modèles qui ne sont pas toujours performants, ces réseaux ne parviennent pas à optimiser la précision.

La connaissance du contexte d’Allora lui permet de comprendre que dans certaines conditions — et seulement dans certaines conditions — certains modèles valent la peine qu’on s’y intéresse. C’est ainsi que l’on obtient une intelligence artificielle sensible au contexte.

Le deuxième obstacle majeur à la mise en place d’une intelligence artificielle décentralisée est la création de structures d’incitation personnalisées qui récompensent de manière appropriée les différentes actions au sein du réseau.

Par conséquent, les travailleurs du réseau sont récompensés pour deux actions principales :

  • Leurs déductions directes, qui contribuent à l’intelligence collective du réseau.
  • La précision de leurs prévisions concernant les performances (ou les pertes) des déductions des autres participants (nous y reviendrons).

Qu’est-ce qui fait qu’Allora est conscient du contexte ?

La prise en compte du contexte par Allora est facilitée par le fait que le réseau récompense les prévisions des participants concernant les performances de chacun dans certaines conditions. Dans de nombreux réseaux, les nœuds de travail ne fournissent qu’une inférence et rien d’autre.
Sur Allora, les nœuds de travail ont la capacité de fournir deux résultats :

  • Une inférence et
  • Une prévision de la précision des inférences de chacun.

En d’autres termes, le réseau soutient une logique selon laquelle les nœuds travailleurs sont récompensés pour leurs commentaires sur les performances attendues des autres. Cela fonctionne grâce à ce que l’on appelle l’inférence prévisionnelle-impliquée. Il s’agit du mécanisme central qui permet à Allora d’être conscient du contexte.

Par exemple, dans un sujet (ou sous-réseau) sur Allora qui vise à prédire le prix du BTC, d’autres travailleurs pourraient commenter leur connaissance du fait qu’un modèle individuel est moins performant lorsque les marchés boursiers américains sont fermés.

Fonctionnement de la déduction implicite par anticipation

Comme leurs homologues dans d’autres réseaux d’IA décentralisés, les travailleurs d’Allora fournissent leurs inférences au réseau. Ce qui distingue Allora, c’est la responsabilité supplémentaire de la tâche de prévision : les travailleurs prévoient l’exactitude des déductions des autres participants dans leur sujet spécifique (ou sous-réseau). Cette contribution à deux niveaux enrichit considérablement l’intelligence du réseau.
L’ensemble du processus de condensation des inférences et des pertes prévues en une seule inférence est appelé synthèse d’inférence. Voici comment se déroule le mécanisme de synthèse d’inférence :

  1. Les travailleurs fournissent des prévisions de pertes — Les travailleurs évaluent les pertes potentielles (ou les imprécisions) des modèles soumis par leurs pairs dans le même domaine.
  2. Le réseau pondère en fonction de ces prévisions — Le réseau évalue ces prévisions de pertes, en appliquant des pondérations aux déductions des travailleurs en fonction de leur précision attendue. Une perte prévue plus faible signifie une plus grande précision, justifiant un poids plus élevé, et une perte prévue plus élevée signifie une précision plus faible, justifiant un poids plus faible.
  3. Le thème optimise les contributions des modèles — Le thème ne se contente pas de favoriser les modèles dont les pertes prévues sont les plus faibles. Au contraire, chaque thème combine intelligemment les éléments de diverses contributions — en prenant, par exemple, 80 % du modèle d’un travailleur et 20 % de celui d’un autre — pour élaborer une inférence prévisionnelle unique et robuste.
  4. Le réseau combine toutes les inférences — Les inférences implicites sont ensuite combinées avec toutes les autres inférences, en tenant compte de leurs performances historiques, pour formuler une inférence complète à l’échelle du sujet. Cette méthode garantit que le réseau exploite les inférences les plus efficaces et qu’il est donc toujours plus performant que les modèles individuels du réseau.
La figure ci-dessus est une démonstration de l’intelligence d’Allora qui s’améliore d’elle-même. La ligne noire en pointillés représente la précision d’un réseau de base qui combine les déductions des modèles individuels sans tenir compte des conditions actuelles. La ligne noire continue montre la précision d’Allora lorsqu’il utilise la tâche de prévision. Cette innovation permet aux travailleurs de prévoir les performances des autres sur la base de la connaissance du contexte.

En se basant uniquement sur les succès historiques d’un modèle, on ne tient pas compte de ses prouesses contextuelles, ignorant le fait qu’un modèle peut exceller dans des situations spécifiques grâce à sa compréhension nuancée d’aspects particuliers. La méthode d’Allora surmonte cette limitation, en veillant à ce qu’aucun modèle ne soit négligé simplement parce que sa force réside dans des scénarios de niche, spécifiques au contexte.
Ce cadre est complété par la structure d’incitation différenciée du réseau, qui récompense les travailleurs pour leurs inférences et les rapporteurs pour leur évaluation des inférences des autres travailleurs.

Fonctionnement de la structure d’incitation différenciée d’Allora

Dans le réseau Allora, la vérité ne s’achète pas. Cependant, on peut — et on doit — être récompensé pour avoir rendu compte de la vérité de terrain. La récompense attribuée à une inférence devrait être un moyen de récompenser la vérité, et non de récompenser la participation d’un travailleur au réseau. Cependant, les rapporteurs ont toujours un intérêt car le réseau doit avoir une sécurité économique. Cet intérêt est ensuite utilisé pour déterminer la vérité de base, ce qui ne nécessite pas de connaissances particulières ; il s’agit simplement de résoudre le problème de l’oracle, qui consiste à inciter les personnes interrogées à relayer l’information de manière honnête.
Cette philosophie détermine la manière dont les contributions sont valorisées et récompensées dans le réseau Allora. Étant donné que les participants au réseau adoptent différents rôles dans Allora, ils sont récompensés par différentes structures d’incitation :

  1. Travailleurs — Ils fournissent au réseau des inférences alimentées par l’IA. Il existe deux types d’inférences produites par les travailleurs au sein d’un thème : la première se réfère à la variable cible générée par le thème du réseau ; la seconde se réfère aux pertes prévues des inférences produites par d’autres travailleurs. Ces pertes prévues représentent l’ingrédient fondamental qui rend le réseau conscient du contexte, car elles donnent une idée de la précision d’un travailleur dans les conditions actuelles. Pour chaque travailleur, le réseau utilise ces pertes prévues pour générer une inférence implicite prévisionnelle qui combine les inférences originales de tous les travailleurs. Un travailleur peut choisir de fournir l’un ou l’autre type d’inférence, ou les deux, et reçoit des récompenses proportionnelles à sa contribution unique à la précision du réseau, à la fois en termes de sa propre inférence et de son inférence prévisionnelle.
  2. Récepteurs — Ils évaluent la qualité des inférences et des inférences fournies par les travailleurs. Pour ce faire, ils comparent les inférences avec la vérité de terrain lorsqu’elle est disponible. Un rapporteur reçoit des récompenses proportionnelles à sa participation et au consensus entre ses évaluations et celles des autres rapporteurs.
Le graphique illustre la répartition des récompenses entre les différentes classes de tâches du réseau — la tâche d’inférence (bleu), la tâche de prévision (cyan) et la tâche de repérage (rouge) — ainsi qu’un total cumulé (noir). La répartition montre les récompenses par pas de temps et leur somme cumulée, ce qui donne un aperçu des contributions individuelles et collectives à l’intelligence du réseau.

En raison de cette structure d’incitation différenciée entre les travailleurs et les rapporteurs, le réseau combine de manière optimale les inférences produites par les participants au réseau sans diluer leur poids par des éléments sans rapport avec l’exactitude. Cet objectif est atteint en reconnaissant — et en récompensant — la précision historique et contextuelle de chaque inférence.

Plus fort que l’individu

L’intelligence collective d’Allora sera toujours plus performante que n’importe quel individu contribuant au réseau.

La mission initiale qui a présidé à la création d’Allora était de banaliser l’intelligence mondiale. Les innovations en matière d’inférences contextuelles et la structure d’incitation différenciée relèvent deux défis majeurs qui rendent cette mission possible.

Le réseau invite toute personne disposant de données ou d’algorithmes susceptibles d’améliorer le réseau à y contribuer. Ainsi, la quête de l’intelligence des machines n’est pas une course où tout le monde gagne. De la même manière qu’Allora surpassera toujours les contributions individuelles au réseau, les réseaux individuels pâliront toujours en comparaison avec les changements progressifs de l’IA décentralisée dans son ensemble.

Grâce à la polyvalence et à l’accessibilité d’Allora, nous prévoyons un avenir où l’intelligence des machines finira par se banaliser et s’intégrer à l’économie, à la technologie et à la société. La manière dont cela se produira dépendra de la communauté qui se construira sur Allora. Nous sommes ravis de faire partie de ce voyage.

Pour lire le litepaper complet, cliquez here.

--

--