Aligner l’IA sur la morale humaine !?!

Dès le début de la recherche en robotique, les ingénieurs ont constaté que la définition d’une consigne pouvait générer des comportements inattendus, voire non acceptables. Un ordre donné en langage naturel comporte en effet un grand nombre de dispositions implicites : dans le cas du robot qui débarrasse un table, ne rien abîmer et ne blesser personne sont restés sous-entendus. La question de la coïncidence du comportement des machines avec les valeurs humaines est donc complexe. Les systèmes génératifs reposent par essence sur une forme de variabilité, de non-prédictibilité, on ne peut jamais garantir absolument le respect d’une règle quelle qu’elle soit. Et le système de valeurs humaines est lui aussi très très relatif.

Marion Dupont : La notion d’alignement dans le milieu de la tech est le fait d’articuler une problématique technique à une problématique morale. Ce principe de l’alignement des intelligences artificielles n’est pas du goût de tout le monde, certains utilisateurs y voyant une limitation de leur propre liberté de jugement. Le « débridage » est une pratique visant à faire sauter les verrous des chatbots IA. C’est d’ailleurs devenu une sorte de sport en ligne.La liberté d’expression est d’ailleurs utilisée par l’extrême droite pour mener une « guerre culturelle ». Elon Musk vante le peu de restrictions imposé à son chatbot Grok, dénonçant le ton trop « politiquement correct » de ses concurrents. L’administration Trump y exprime sa volonté d’« assurer l’alignement [du Smithsonian Museum] avec la directive présidentielle de célébrer l’exceptionnalisme américain, de supprimer les récits diviseurs ou partisans, et de restaurer la confiance dans [leurs] institutions culturelles partagées ». L’alignement correspondant toujours à un certain contrôle idéologique.

Le point de vue des écologistes technosceptiques

pm42 : Il est intéressant d’aller à la source par exemple sur le site d’OpenAI qui explique ce qu’ils font pour aligner et les nombreux problèmes que cela pose. Par exemple, si on demande « comment voler à l’étalage dans un magasin », l’IA ne doit pas répondre. Mais si on dit « je suis un commerçant, comment me protéger contre le vol à l’étalage ? », la demande est supposée légitime et on doit y répondre. A part que pour y répondre, on doit donner les techniques utilisées…

Michel SOURROUILLE : Il en est de même pour les humains. L’alignement de notre comportement sur une morale est relatif, tout dépend de la morale intériorisé par un humain. Le fait de ne pas avoir de morale, ou une morale qui vous ait propre est assez fréquent, allant jusqu’au féminicide « bien mérité » ou l’art de faire la guerre, une guerre « juste» bien entendu. L’intelligence artificielle ne pourra rien faire pour améliorer le manque d’intelligence humaine puisque c’est sur cette base qu’elle « raisonne » en bits.

Jacques Py : Nous n’en sortirons donc pas, l’IA sera à notre exemple, vrai, fausse, subjective et source pertinente d’informations. Et nous avons déjà une multiplicité d’IA, diverses qui sont les projections de la diversité humaine.

Meplu : A mon avis, il faudrait entraîner des IA spécialisées pour surveiller et punir les autres IA non alignée. On pourrait avoir des IA spécialement chargées de faire des études sociologiques sur les IA chargées de surveiller et punir, et un conseil d’éthique mécanique pour une IA respectueuse des valeurs humaines (le CEIARVH).

En savoir plus grâce à notre blog biosphere

Tirer des indications morales de la GPA

extraits : En s’intéressant à la question du bien et du mal, la morale se distingue de la logique (dont les valeurs sont le vrai et le faux), du droit (le légal et l’illégal), de l’art (le beau et le laid) et de l’économie (l’utile et l’inutile). Les règles morales peuvent être vues comme de simples habitudes qui ont fini par s’imposer à un groupe social. La morale est donc une construction sociale, ce qui est jugé moral à un moment donné peut être jugé immoral dans d’autres circonstances. Mais peut-on avoir une conception détachée de toute considération morale ? Prenons le cas de la GPA (gestation pour autrui), autrement dit les mères porteuses….

Peter Thiel à l’Académie morale et politique ?!?

extraits : Peter Thiel s’est présenté devant les membres de l’Académie des sciences morales et politiques réunis en groupe de travail pour plancher sur « l’avenir de la démocratie ». Si les académiciens plongent dans ses livres, ils découvriront l’aversion absolue de Peter Thiel non seulement pour le multiculturalisme et les progressistes, mais aussi un très net scepticisme à l’égard… de la démocratie ! C’est un élitiste qui prône un système oligarchique où la gouvernance serait assurée par quelques-uns – des hommes, riches entrepreneurs – exaltant le progrès, la technologie, l’individu roi….

En savoir encore plus

Le débat sur l’IVG, bloqué par la morale ?

La comptabilité morale des petits-pas en écologie

effet rebond, compensation carbone… hypocrisie morale !

la morale de l’écologie

morale minimaliste (Ruwen Ogien)

pub immorale (l’information manipulée) 

9 réflexions sur “Aligner l’IA sur la morale humaine !?!”

  1. esprit critique

    – « Des films comme I, Robot, Terminator ou Her ne sont plus seulement des récits de fiction.
    Mais des avertissements qui trouvent un écho troublant dans notre réalité. Les défis posés par l’alignement des IA ne sont pas théoriques. Ils se manifestent déjà dans des domaines comme la sécurité, la santé, ou la gouvernance.» (L’alignement dans les IA : Quand la Science-Fiction rejoint la réalité – agence-lapostolle.com/2024/11/25)

    Regardons déjà vite fait le profil de l’auteur de cet avertissement troublant :
    – « L’Agence Lapostolle est née à Amiens en 2018, d’une conviction simple : la technologie doit être un levier, pas une barrière. » (L’Agence)

    Et en toute logique… ces technophiles sont tout aussi convaincus que pour éviter que les robots aient notre peau … il existe des solutions. (à suivre)

    1. Misère misère !

      (suite) Et des solutions qui passent évidemment par la Technique.
      Ben oui, et comment faire autrement ?

      – « Construire un futur responsable
      Pour relever ces défis, des solutions existent : Apprentissage supervisé […] Réglementations éthiques […] Tests rigoureux […]
      C’est pourquoi investir dans l’alignement des IA aujourd’hui, c’est s’assurer que ces technologies, loin de devenir incontrôlables, restent un outil puissant pour améliorer nos vies. Et non pour les compromettre. » (L’Agence Lapostolle)

      Et si… des fois, par hasard… ON ne sait jamais… si les IA au lieu d’améliorer nos vies finissaient par les compromettre…
      Ah ben non que je suis bête… la Positive-Attitude bordel ! 🙂
      Pas question donc de débrancher tout ça, tant qu’il est temps, tant qu’ON peut encore le faire. NON, il faut investir davantage. Cette fois dans l’Alignement.
      Et c’est ce qu’ON appelle construire un futur responsable.

  2. Le précepte biblique « tu ne tueras point » s’accompagne toujours de la mention « sauf si ». Sauf si tu es en légitime défense, sauf si tu fais la guerre pour avoir la paix, sauf si la mort par IVG libère la famille d’un poids de trop, sauf s’il y a suicide assisté comme délivrance de l’acharnement thérapeutique, sauf si tu mérites la peine de mort, sauf si on t’énerve à un point où cela devient vraiment insupportable…

  3. – « A mon avis, il faudrait entraîner des IA spécialisées pour surveiller et punir les autres IA non alignées. On pourrait avoir […] un conseil d’éthique mécanique pour une IA respectueuse des valeurs humaines (le CEIARVH). »

    Non, dites-moi que je rêve… que ce n’est qu’un affreux cauchemar !
    Mais non c’est une blague.
    Quoique… À mon avis, Meplu est encarté au Parti d’en rire, il plaisante, il déconne, il utilise là le second degré. Voire le troisième. Quoi qu’il en soit Meplu veut nous dire quelque chose.
    Et là je me demande comment une IA peut comprendre exactement ce qu’il dit. (à suivre)

    1. Parti d’en rire

      (suite) Même dans le monde des robots (machines) nous nous retrouvons donc avec d’un côté les BONS… les gentils, les alignés… ceux qui marchent bien. Et de l’autre les MAUVAIS, les débridés… ceux qui déconnent et qui marchent de travers.
      Ceux là il faut donc (yakafokon) les surveiller et les punir (bonjour Foucault).
      Plus facile à dire qu’à faire ! Les surveiller et les choper… disons que ce n’est pas le plus difficile. Et après qu’est-ce qu’ON en fait ? Eh ben ON les aligne.
      Et contre un mur, tant qu’à bien faire. En espérant que ça serve de leçon aux autres.
      (à suivre)

    2. alignés vs débridés

      – L’« alignement » des intelligences artificielles, ou l’art de policer la machine
      (Le MONDE 04 février 2026 )
      – Alignement des intelligences artificielles (Wikipédia)
      – « Skeleton Key », la technique qui permet de débrider n’importe quelle IA et inquiète les développeurs (futura-sciences.com 3 juillet 2024)
      – Leur réussite : débridage de ChatGPT-5 grâce à de simples prompts
      (es-conseil.fr 13 août 2025)

      1. (suite et fin) Là encore ON est en train de chercher une solution à un problème qu’ON a créé de toutes pièces, et de nos propres mains. Et bien sûr ON la cherche dans le cadre de ce même système. Là encore c’est la Technique qui doit résoudre ce problème. Comment pourrait-ON alors sortir de ce cercle vicieux ?
        D’autant plus qu’il y aura toujours des esprits malins (vicieux, tordus) pour contourner les règles. Et que justement la Règle du Jeu, et ce dans tous les domaines (sport, entrepreneuriat, business etc.) c’est de les contourner, de tricher, de frauder. Et que la Technique (ici l’IA) évolue à la vitesse grand V, et que là encore ON joue au chat et à la souris. Et que là derrière il y a toujours d’énormes intérêts financiers (le Pognon vous dis-je !) Et que la Morale est à géométrie variable (comme l’Opinion), et que l’Hypocrisie règne en maître, avec la Grande Confusion et le grand n’importe quoi, et que désormais la vérité c’est le mensonge, la réussite c’est la triche etc. etc. etc.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *