L’émergence de la loi de Moore de l’IA

Publié:

L’émergence de la loi de Moore de l’IA

Bonjour, passionnés d’IA. La courbe des capacités de l’IA a trouvé son « moment de loi de Moore », grâce à de nouvelles recherches montrant que les capacités de réalisation de tâches doublent tous les 7 mois depuis 2019.

Avec des systèmes capables aujourd’hui de réaliser des tâches humaines d’une heure et potentiellement des projets d’un mois d’ici 2030, le monde est-il prêt pour le tsunami de l’automatisation qui arrive rapidement ?

Les capacités de l’IA suivent la « loi de Moore »

Des chercheurs de METR ont récemment publié des données indiquant que la durée des tâches que les agents IA peuvent réaliser de manière autonome double environ tous les 7 mois depuis 2019, révélant une « loi de Moore » pour les capacités de l’IA.

  • L’étude a suivi la performance humaine et celle de l’IA à travers 170 tâches logicielles allant de décisions de 2 secondes à des défis d’ingénierie de 8 heures.
  • Les modèles de pointe comme le 3.7 Sonnet ont un « horizon temporel » de 59 minutes, réalisant des tâches que des humains compétents accomplissent avec une fiabilité d’au moins 50 %.
  • Les modèles plus anciens comme GPT-4 peuvent gérer des tâches nécessitant environ 8 à 15 minutes de temps humain, tandis que les systèmes de 2019 peinent avec tout ce qui dépasse quelques secondes.
  • Si la tendance exponentielle se poursuit, les systèmes IA seront capables de réaliser des projets mensuels équivalents à ceux des humains d’ici 2030.
  • La loi de Moore prédit que la puissance de calcul double approximativement tous les deux ans, expliquant pourquoi les appareils deviennent plus rapides et moins chers avec le temps.

La découverte d’un motif de croissance prévisible des capacités de l’IA fournit un outil de prévision important pour l’industrie. Les systèmes capables de gérer beaucoup plus longtemps des tâches complexes indépendamment remodeleront complètement la façon dont les entreprises abordent l’IA et l’automatisation.

Nvidia développe des modèles de raisonnement open-source

Nvidia a lancé sa gamme de modèles de raisonnement open-source Llama Nemotron, conçus pour accélérer l’adoption des IA capables de résoudre des problèmes complexes et de prendre des décisions.

  • La nouvelle famille de modèles est déclinée en trois tailles : Nano (8B), Super (49B) et Ultra (249B) — chacune optimisée pour différents scénarios de déploiement.
  • Les premiers tests montrent des performances impressionnantes, avec la version Super surclassant à la fois le Llama 3.3 et DeepSeek V1 dans les tests STEM et d’outils.
  • Les modèles disposent d’un commutateur permettant aux systèmes IA de passer entre un raisonnement intensif et des réponses directes selon la tâche.
  • La post-formation a conduit à une précision meilleure de 20 % par rapport aux modèles Llama de base et une vitesse 5 fois supérieure à celle des raisonneurs open-source concurrents.
  • Nvidia va également publier en avril un cadre « AI-Q Blueprint » pour aider les entreprises à connecter leurs agents IA avec leurs systèmes et sources de données existants.

Les modèles de raisonnement de Nvidia sont peut-être éclipsés par le nombre incroyable de sorties ces dernières 48 heures, mais le géant de la fabrication de puces a apparemment construit chaque bloc nécessaire pour être une force sur l’ensemble de la chaîne AI — du matériel le plus avancé aux modèles de raisonnement de haute qualité prêts pour l’ère agentique.

Conclusion

La découverte d’une croissance exponentielle des capacités de l’IA, semblable à la loi de Moore, et les récents développements de Nvidia en matière de modèles de raisonnement soulignent le rythme rapide des avancées dans le domaine de l’automatisation et de l’intelligence artificielle. Les perspectives de projets mensuels accomplis par IA d’ici 2030 ne sont plus des rêves lointains, mais une réalité imminente qui transformera notre manière d’envisager les capacités technologiques.

Leave a Reply

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Continuer à lire