L'AGI ? On s'en fout.
Dans le vaste lexique de l’intelligence artificielle (IA), un terme se distingue par sa capacité à susciter fascination et controverse : l’AGI, ou Artificial General Intelligence.
Ce concept, souvent perçu comme un Graal technologique, désigne une IA capable de comprendre et d’apprendre n’importe quelle tâche complexe de manière autonome, sans entraînement spécifique, en observant et en s’adaptant. Une sorte d’intelligence humaine simulée par une machine.
Des entreprises comme DeepMind et OpenAI ont ouvertement affiché leur ambition d’atteindre cette étape. En revanche, des figures comme Yann LeCun, que j’ai eu la chance d’entendre lors d’une conférence à Station F, considèrent l’idée d’une AGI imminente comme irréaliste, voire trompeuse. Il martèle qu'il est prématuré, voire inutile, de débattre d'une technologie qui reste encore largement hypothétique.
Mais les paradigmes évoluent. Ce qui était autrefois perçu comme un sommet inatteignable, voire une menace (coucou les scénarios dystopiques façon Terminator), pourrait bien être un simple palier. Et selon Sam Altman, PDG d’OpenAI, ce palier pourrait même passer inaperçu.
Quand l’AGI devient insignifiante
Lors d’une interview récente au DealBook Summit du New York Times relayé par The Verge, Sam Altman a surpris son auditoire en relativisant l’importance de l’AGI. Selon lui, son impact pourrait être bien moins révolutionnaire que prévu.
« Mon intuition est que nous atteindrons l’AGI plus tôt que ce que la plupart des gens pensent, mais que cela aura beaucoup moins d’importance », a-t-il déclaré.
Il explique que l’arrivée de l’AGI, que certains imaginaient comme un moment de rupture pour l’humanité, ressemblerait davantage à une simple accélération des avancées actuelles qu’à une révolution totale. Le véritable bouleversement, selon lui, viendra plus tard, avec ce qu’il appelle la superintelligence – une IA dépassant de loin les capacités humaines.
Altman précise que, contrairement aux craintes souvent exprimées, les véritables défis liés à la sécurité et à l’éthique des IA ne surviendront pas au moment où l’AGI émergera, mais bien plus tard, au fur et à mesure de sa transformation vers cette superintelligence. Entre les deux, il prévoit une longue phase d’évolution où l’impact économique et sociétal se fera progressivement sentir.
Une perspective plus nuancée
La vision d’Altman invite à repenser notre manière d’aborder l’innovation technologique. Imaginer qu’une technologie puisse constituer une finalité en soi revient, selon moi, à sous-estimer l’essence même de l’humanité : notre capacité à repousser sans cesse les limites de notre créativité.
Prenons un exemple : au Moyen Âge, si l’on avait parlé d’une machine capable de transmettre la voix à distance, cela aurait été perçu comme l’apogée de la technologie. Aujourd’hui, le téléphone est un outil banal, intégré à notre quotidien. De la même manière, l’AGI pourrait n’être qu’un outil parmi d’autres dans notre quête constante de progrès.
Croire à une singularité, une sorte de point culminant de l’innovation où les machines surpasseraient définitivement l’humain, relève davantage de la science-fiction que de la réalité. Ces outils, aussi puissants soient-ils, resteront des accélérateurs au service de notre potentiel.
Vers une technologie au service de l’humain
Plutôt que de craindre ou d’idéaliser l’AGI, il est peut-être temps de se concentrer sur ce qu’elle permettra : une accélération sans précédent de la résolution des défis planétaires. Mais aussi de garder à l’esprit que l’humain n’est pas remplaçable, en particulier dans des domaines comme la créativité, qui reste le moteur de toute innovation.
Alors, l’AGI ? Oui, c’est une étape importante. Mais ce n’est qu’une étape.