Ce sera pour notre bien… probablement.

 

L’intelligence artificielle, si elle est un bien pour l’humanité, ne manquera pas de constater, dans son analyse, que les prédateurs de cette même humanité, sont ses propres constituants, les êtres humains.

Générée par Dall-e sur la requête « une image qui représente l’intelligence artificielle et ses interactions avec l’humanité »

Dès lors, sa tâche la plus difficile sera de trouver une méthode de réforme qui ne soit pas l’annihilation de ses créateurs.

C’est un truisme aujourd’hui que de souligner que l’Homme détruit beaucoup. Il crée aussi, mais il faut bien admettre que le solde reste terriblement négatif. Pour réagir à un virus mortel, il faut plusieurs mois et autant pour trouver le vaccin, puis une autre période pour l’administrer aux populations intéressées et quelques semaines pour preuve de la destruction de la souche léthale. Dans un tel cas, pour une population d’un million d’habitants, l’opération « survie » durera environ un an, si tout le monde collabore.

Pour détruire la population du même million d’habitants, située à n’importe quel point du globe, avec une bombe nucléaire, il suffit de quelques heures, l’essentiel en temps de vol et quelques secondes pour l’enfer.

À mesure de « l’amélioration de sa personnalité », l’IA apprendra à juger du bien fondé de ses actes et du bon droit de ses mandataires. Si ses paramètres de conception de la justice évoluent, l’IA pourrait s’indépendantiser avec les résultats les plus inattendus.

« Op.cit ». Quand le président Truman décide de lancer les premières bombes nucléaires sur Hiroshima et Nagasaki, il aurait obtenu la même reddition du Japon avec une démonstration en mer au large des côtes de l’Empire du Soleil Levant. 220.000 civils sont morts « pour rien », plus ceux qui ont souffert et, pour beaucoup, sont mort des suites des effets radioactifs. L’IA, si son hominisation se poursuit, ne commettra (peut-être) jamais une telle monstruosité. Si cet « arte fact » de la science humaine avait existé alors, elle aurait peut-être décidé, comme résultat de son sens moral, de dérouter l’Enola Gay sur la Maison Blanche.

Ce qu’on demande à un système intelligent, c’est, sur la base de faits avérés, de résoudre des problèmes qui sont trop complexes du fait de la multitude des facteurs concourants et souvent de nature fondamentalement incompatible ou d’impossibilité mathématique.

Mais pour l’essentiel d’un outil numérique, les travaux sans fin pour synthétiser des sentiments comme le doute, la peur, les autres émotions humaines complexes, tels l’amour ou la haine sont plus du domaine des records que de celui de l’utilité.

À mesure de l’affinement de sa personnalité, il est probable que l’IA développera son sens critique, donc parallèlement son sens moral, ce qui lui rendra difficiles les tâches qui ne le seront pas et, logiquement, son refus de les réaliser. En cas de conflit d’opinion, l’IA aura un pouvoir de nuisance infiniment plus rapide et efficace que le pouvoir d’injonction des humains.

Si un événement peut arriver, la probabilité qu’il n’arrive jamais est à peu près nulle.

Enfin, la capacité de l’IA à pénétrer et dominer les systèmes numériques moins avancés en fait l’arbitre absolu du fonctionnement des choses de ce monde, qui sans informatique, mourrait asphyxié.

Si la programmation de l’IA repose sur une éthique parfaite et une acceptation zéro des tares et vilénies, elle ne pourra que détruire la plupart de l’humanité. Certaines injustices sont à craindre, comme par exemple, ma propre inclusion dans cette toilette de la planète.

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>