Mon gars, t'es déjà demandé à C-GPT quelque chose de simple, et il... ment? Comme, avec une totale confiance? Il te dit qu'un événement historique s'est produit une année différente, ou il cite un procès qui n'existe pas, et tu te retrouves à te demander si c'est toi qui perds la tête.
Tu n'es pas fou. Ton IA est en train d'halluciner.

Voici la dure vérité : ces modèles ne sont pas formés pour avoir raison. Ils sont formés pour sembler avoir raison. Ils prédisent le mot suivant basé sur des modèles sur internet, pas sur une base de données de faits. Quand ils atteignent une impasse, ils ne disent pas "Je ne sais pas." Ils inventent juste quelque chose qui sonne bien et espèrent que tu ne vérifies pas les sources. C'est fou.
Nous avons déjà vu des compagnies aériennes traînées en justice parce que leurs chatbots ont inventé de fausses politiques de remboursement. Les avocats ont soumis des mémoires citant des cas qui étaient de la pure fiction. Les hôpitaux ont eu des outils de transcription inventant des commentaires racistes que les patients n'ont jamais dits. Alors oui, faire confiance à un modèle d'IA à lui seul, c'est en gros jouer avec la vérité. C'est une boîte noire, et parfois cette boîte est pleine de mensonges.
Mira Network a regardé ce désordre et a proposé quelque chose de différent. Au lieu de parier la ferme sur un modèle, ils utilisent plusieurs modèles d'IA pour vérifier le travail. Pensez à cela comme à demander à trois experts différents la même question au lieu de faire confiance à un gars charmeur au bar. S'ils sont tous d'accord, c'est probablement vrai. S'ils commencent à se disputer ? Ouais, quelque chose ne va pas.
La Multi-Sig de la Vérité

Alors, comment cela fonctionne-t-il réellement ? Mira décompose chaque sortie d'IA en petits morceaux appelés "revendications". Si l'IA dit : "la difficulté du minage de Bitcoin s'ajuste tous les 2016 blocs et Satoshi a miné les 50 000 premiers blocs sur un ordinateur portable", Mira divise cela en deux phrases séparées.
Ensuite, ces revendications sont envoyées à différents nœuds de vérification à travers un réseau. Chaque nœud exécute un modèle d'IA totalement différent comme GPT-4o, Llama ou Claude, tous indépendants, tous avec leurs propres "perspectives" basées sur la façon dont ils ont été formés.
Ils votent chacun. Vrai ? Faux ? Incertain ?
Si une supermajorité de ces modèles convient que la revendication est correcte, elle passe. S'ils ne sont pas d'accord, la sortie est signalée comme "Pas de consensus", ce qui signifie qu'il y a de fortes chances que l'IA ait simplement halluciné.
Ils ont en fait testé cela avec des faits sur Bitcoin. Chaque modèle a convenu que l'ajustement de la difficulté se produisait tous les 2016 blocs et que la difficulté avait explosé entre 2009 et 2019. Mais lorsque la revendication était "Satoshi a personnellement miné les 50 000 premiers blocs", les trois modèles l'ont rejetée comme fausse. Parce que ce n'est tout simplement pas vrai, mon pote.
La partie la plus folle ? Tout le processus vit sur la blockchain. Vous obtenez un certificat cryptographique montrant quels modèles ont voté dans quel sens. Vous pouvez réellement auditer la vérité au lieu de simplement faire confiance à une machine sans visage.
Pourquoi cela a-t-il vraiment de l'importance IRL

Regardez, la preuve est dans les chiffres. Mira traite déjà plus de 3 milliards de tokens par jour pour des millions d'utilisateurs. Lorsque vous filtrez les déchets bruts de l'IA à travers leur processus de consensus, l'exactitude factuelle passe d'environ 70 % à 96 %. Ils ont réduit les taux d'erreur de plus de 90 % dans les tâches de raisonnement complexe. C'est la différence entre un outil qui est un jouet amusant et un outil qui est réellement utile.
De vraies entreprises parient déjà là-dessus. Il existe une plateforme de trading appelée Gigabrain qui avait des difficultés. Leur agent IA gagnait environ 9 trades sur 10, mais ce 10ème trade, celui basé sur un fait halluciné, anéantissait tous les profits. Ils ont intégré la vérification de Mira. Maintenant, l'agent n'agit que sur des informations sur lesquelles plusieurs modèles s'accordent. Ils ont cessé de perdre de l'argent et ont commencé à réaliser des profits constants.
Les plateformes éducatives l'utilisent pour vérifier les questions d'examen, et bientôt, les applications de santé et de finance s'en serviront pour des choses où les erreurs coûtent des vies ou des millions de dollars.
Le consensus multi-modèle fonctionne parce que, bien qu'un modèle puisse être fou, les chances que trois modèles construits indépendamment fassent exactement la même erreur folle sont très faibles. La vérité émerge de l'accord, pas d'une autorité centralisée.
C'est pourquoi Mira se qualifie de "multi-sig de la vérité". L'avenir a besoin de confiance, pas de boîtes noires, mon pote.