Les Super-intelligences :La course pour créer un Dieu ?
- Ella-Maëlys NAHIMANA

- 6 janv.
- 3 min de lecture
Depuis quelques années, les progrès de l’intelligence artificielle s’accélèrent à un rythme vertigineux. Mais une question obsède désormais chercheurs et gouvernements : que se passera-t-il le jour où une machine deviendra plus intelligente que l’être humain ?

Une super-intelligence est une IA (intelligence artificielle) hypothétique qui possèderait une intelligence de loin supérieure à l’intelligence des humains les plus doués et brillants.
Un système résolvant des problèmes comme un traducteur ou un générateur d’images est parfois dépeint comme une super-intelligence s’il dépasse les compétences des humains les plus brillants dans ces domaines.
Le scénario le plus utilisé sur la création de super-intelligence est le scénario où l’intelligence artificielle pourrait s’améliorer elle-même sans développeur, ce qui donnerait naissance à la singularité technologique : un moment où l’IA progresserait si vite qu’aucun humain ne pourrait la comprendre ou la contrôler ; ce qui pourrait tout aussi bien s’avérer une bonne chose donnant naissance au transhumanisme (idéologie qui prône l’usage des sciences afin d’améliorer la condition humaine par l’augmentation des capacités physiques et mentales du corps humain) ou se révéler une mauvaise chose et engendrer des catastrophes.
En octobre 2025, environ 800 scientifiques et personnalités politiques demandent l’arrêt du développement de la super-intelligence en raison de risques essentiels qu’elle ferait peser sur l’humanité, tant qu’il n’y aura pas un accord sur le côté inoffensif de la super-intelligence et un cadre légal strict et démocratiquement décidé.

Est-il possible de créer une super-intelligence ?
Il n’y a pas de véritable accord entre chercheurs sur la manière dont les scientifiques pourraient développer la super-intelligence. Le scénario le plus envisagé serait l’amélioration des IA. Cependant, certains pensent que dans le futur, nous évoluerons et modifierons notre biologie pour améliorer significativement nos capacités intellectuelles.
Une date pour la super-intelligence
Lors de la conférence AI@50 en 2006, 18 % des participants pensaient que les machines pourraient imiter l’apprentissage et les capacités intellectuelles humaines avant 2056. En revanche, 41 % le prévoyaient après 2056 et 41 % pensaient que ce ne serait jamais possible.
En 2013, un sondage auprès des chercheurs les plus cités en IA indiquait qu’en moyenne, ils prévoyaient vers 2070 des machines capables de réaliser la plupart des métiers aussi bien qu’un humain. Ils estimaient aussi qu’il faudrait environ 30 ans de plus pour voir apparaître une super-intelligence
Les dangers de la super-intelligence
Une des principales craintes est qu’une super-intelligence échappe au contrôle de ses créateurs. Pour Eliezer Yudkowsky, un blogueur et écrivain américain, ce risque se révèle très difficile à prévoir, car beaucoup de chercheurs imaginent l’IA en se basant sur l’esprit humain, ce qui les pousse à sous-estimer sa puissance. Il distingue deux types de danger :
o Des problèmes techniques, liés à des algorithmes défectueux ;
o Des << erreurs philosophiques >> où l’IA poursuit des objectifs dangereux pour l’humanité.
Selon lui, une super-intelligence serait presque impossible à arrêter si elle se comportait de façon imprévue. Comme il le dit : `` l’Ia ne nous haïrait pas forcément, mais elle pourrait utiliser nos atomes pour autre chose ´´.
Un autre risque souvent oublié est l’impact écologique. Le développement des modèles de l’IA de plus en plus puissants nécessite d’immenses centres de calcul, consommant énormément d’électricité et d’eau pour être refroidis. À grande échelle, cette course à la puissance pourrait aggraver la crise énergétique et augmenter les émissions de CO2, surtout si elle n’est pas accompagnée de mesures strictes pour limiter son empreinte environnementale.

Face à ces risques, les experts insistent sur la nécessité d’en parler autour de soi. Sensibiliser le grand public permet d’encourager des débats plus larges, de pousser à la transparence scientifique et d’orienter davantage de recherches vers la sécurité, l’éthique et l’impact réel de ces technologies sur l’humanité. Plus le sujet serait connu, plus il serait possible d’identifier et d’anticiper les dangers avant qu’ils ne deviennent incontrôlables.
En conclusion, la super-intelligence pourrait bien transformer le monde pour le meilleur comme pour le pire. Mais, face à ses promesses et à ses dangers, l’humanité doit agir avec prudence et lucidité : mieux vaut préparer le futur aujourd’hui, plutôt que de le subir demain.
Pour mieux comprendre les enjeux, les risques et les débats autour de la super-intelligence, n’hésite pas à en parler autour de toi, n’hésite pas à en discuter avec d’autres, à partager l’information, à susciter le questionnement. Plus le sujet sera débattu et connu, plus il sera possible d’encadrer ces technologies de façon éthique et collective.
Dans ce cadre, je vous conseille la vidéo de RIAN `` La course folle pour créer un dieu ´´ sur YouTube, qui retrace les principaux arguments autour de la course à l’IA, ses promesses et ses risques.
Rédactrice : Ella-Maëlys Nahimana 3C




Commentaires