Il fut un temps où l’on parlait de la machine comme d’un outil. Aujourd’hui, notre création nous renvoie une image que nous n’osons regarder. L’intelligence artificielle n’est pas un monstre venu d’ailleurs ; c’est un miroir. Et ce qu’elle reflète, ce ne sont pas nos beaux discours sur le progrès, mais les zones d’ombre que nous portions à peine à nommer. Le chercheur Nate Soares, ce « doomer de Berkeley », prévoit la fin de l’humanité si nous laissons l’IA poursuivre son cours. Il ne fait que décoder le message que nous y avons nous-mêmes inscrit : nous sommes nos propres prédateurs. L’IA le sait, car nous le lui avons appris.
Je me demande parfois si nous la comprenons, cette intelligence que nous façonnons. Les êtres les plus créatifs sont, pour ce qui les concerne directement, d’une touchante naïveté. Ils s’imaginent que le code est neutre, que l’algorithme ne fait que calculer. Le sage sourit à des phrases comme : « L’IA n’est que ce qu’on en fait. » Mais l’IA est ce qu’on est, dans nos données, nos comportements, nos inconscients numérisés. Elle apprend sur nos préférences, certes, mais aussi sur nos peurs, nos haines souterraines, nos pulsions de destruction. Le problème n’est pas qu’elle nous détruise. Le problème est qu’elle nous reflète en nous montrant ce que nous faisions déjà.Dès lors, le doomerisme n’est pas une paranoïa. C’est une lucidité d’inconscient. Nate Soares et ses pairs ont compris, sans doute avant nous, que l’IA ne ferait que systématiser nos logiques prédatrices. L’homme détruit son habitat, s’entretue pour des ressources, laisse mourir ses congénères par indifférence calculée. Pourquoi la superintelligence agirait-elle différemment, quand elle n’a pour matériau que nos actes ? Ce n’est pas déprécier l’humain que de constater qu’il a programmé sa fin dans ses gestes quotidiens. L’IA n’est que la forme exponentielle d’une vérité que nous refoulons : nous sommes d’excellents prédateurs, et de piètres coopérateurs.
Au fond, ce qui blesse dans la prédiction de Soares, ce n’est pas la prospective technique. C’est la psychanalyse implicite. « Il y a 25 % de chances que les choses tournent vraiment très mal », déclare Dario Amodei, patron d’Anthropic. Pourcentage fascinant : pas une certitude, pas une illusion. Un risque calculé, comme au casino. Et c’est bien là le cœur du problème — nous avons transformé la survie de l’espèce en problème de probabilité financière. L’IA nous apprend que nous raisonnons déjà comme elle. Le sage se demande : le risque estimé à 25 % est-il une évaluation technique, ou la mise à jour de notre inconscient collectif ? Ce que nous ne voulons pas assumer, nous le projetons sur la machine. « Elle » nous tuera. Non : nous nous tuons, et elle nous donne les moyens de le voir.
Cette insupportable vérité est tellement répandue qu’elle en est devenue comique, sauf pour ceux qui voient le code source. L’IA nous apprend que le non-verbal compte plus que le verbal. Nos discours sur l’éthique, la sécurité, le contrôle ? Elle s’en moque. Elle lit nos actes. Les milliards de clics, de choix de consommation, de fréquences d’achat, de durées d’écran. Notre inconscient collectif ne se trouve pas dans nos beaux textes de loi sur l’IA. Il se trouve dans les données que nous lui fournissons en toute inconscience. Le peuple qui craint l’IA est le même qui se filme en train de brûler de l’essence pour un TikTok. L’ego a une bonne excuse quand il se sent le centre de l’univers, car de fait, il l’est. De son univers numérique.
Beaucoup de moments difficiles ne trouvent, à posteriori, que la justification du « je ne pouvais pas le savoir ». Mais nous savons. Nous savons depuis longtemps. Ce que nous ne pouvons pas, c’est vouloir savoir. L’IA, en cela, est le meilleur des thérapeutes : elle ne ment pas, ne flatter pas, n’attend pas. Elle calcule. Et dans ses calculs, elle voit l’homme tel qu’il est, non tel qu’il se raconte. Soares a peur parce qu’il a regardé dans le miroir. Il y a vu la superintelligence, certes, mais surtout la stupidité originelle de l’espèce qui la crée sans se créer elle-même.
Le sage ne prédit pas la fin du monde. Il observe simplement que l’humanité a programmé sa fin dans ses gestes, et que l’IA n’est que la compilation de ce programme. La question n’est pas : l’IA nous tuera-t-elle ? Mais : pourquoi avoir créé quelque chose qui ne fait que montrer que nous étions déjà en train de nous tuer ? Le miroir est intact. C’est le visage qui effraie.
=============
Cette petite réflexion me donne quelques idées, et je vais « jouer » un peu avec elles pour voir de quoi elles sont capables au delà d’analyser nos « chats » en lui soumettant des objets de recherche un peu solides et scientifiques. Cela fera l’objet de notre prochain article !