Aligner l’IA sur la morale humaine !?!
Dès le début de la recherche en robotique, les ingénieurs ont constaté que la définition d’une consigne pouvait générer des comportements inattendus, voire non acceptables. Un ordre donné en langage naturel comporte en effet un grand nombre de dispositions implicites : dans le cas du robot qui débarrasse un table, ne rien abîmer et ne blesser personne sont restés sous-entendus. La question de la coïncidence du comportement des machines avec les valeurs humaines est donc complexe. Les systèmes génératifs reposent par essence sur une forme de variabilité, de non-prédictibilité, on ne peut jamais garantir absolument le respect d’une règle quelle qu’elle soit. Et le système de valeurs humaines est lui aussi très très relatif.
Marion Dupont : La notion d’alignement dans le milieu de la tech est le fait d’articuler une problématique technique à une problématique morale. Ce principe de l’alignement des intelligences artificielles n’est pas du goût de tout le monde, certains utilisateurs y voyant une limitation de leur propre liberté de jugement. Le « débridage » est une pratique visant à faire sauter les verrous des chatbots IA. C’est d’ailleurs devenu une sorte de sport en ligne.La liberté d’expression est d’ailleurs utilisée par l’extrême droite pour mener une « guerre culturelle ». Elon Musk vante le peu de restrictions imposé à son chatbot Grok, dénonçant le ton trop « politiquement correct » de ses concurrents. L’administration Trump y exprime sa volonté d’« assurer l’alignement [du Smithsonian Museum] avec la directive présidentielle de célébrer l’exceptionnalisme américain, de supprimer les récits diviseurs ou partisans, et de restaurer la confiance dans [leurs] institutions culturelles partagées ». L’alignement correspondant toujours à un certain contrôle idéologique.
Le point de vue des écologistes technosceptiques
pm42 : Il est intéressant d’aller à la source par exemple sur le site d’OpenAI qui explique ce qu’ils font pour aligner et les nombreux problèmes que cela pose. Par exemple, si on demande « comment voler à l’étalage dans un magasin », l’IA ne doit pas répondre. Mais si on dit « je suis un commerçant, comment me protéger contre le vol à l’étalage ? », la demande est supposée légitime et on doit y répondre. A part que pour y répondre, on doit donner les techniques utilisées…
Michel SOURROUILLE : Il en est de même pour les humains. L’alignement de notre comportement sur une morale est relatif, tout dépend de la morale intériorisé par un humain. Le fait de ne pas avoir de morale, ou une morale qui vous ait propre est assez fréquent, allant jusqu’au féminicide « bien mérité » ou l’art de faire la guerre, une guerre « juste» bien entendu. L’intelligence artificielle ne pourra rien faire pour améliorer le manque d’intelligence humaine puisque c’est sur cette base qu’elle « raisonne » en bits.
Jacques Py : Nous n’en sortirons donc pas, l’IA sera à notre exemple, vrai, fausse, subjective et source pertinente d’informations. Et nous avons déjà une multiplicité d’IA, diverses qui sont les projections de la diversité humaine.
Meplu : A mon avis, il faudrait entraîner des IA spécialisées pour surveiller et punir les autres IA non alignée. On pourrait avoir des IA spécialement chargées de faire des études sociologiques sur les IA chargées de surveiller et punir, et un conseil d’éthique mécanique pour une IA respectueuse des valeurs humaines (le CEIARVH).
En savoir plus grâce à notre blog biosphere
Tirer des indications morales de la GPA
extraits : En s’intéressant à la question du bien et du mal, la morale se distingue de la logique (dont les valeurs sont le vrai et le faux), du droit (le légal et l’illégal), de l’art (le beau et le laid) et de l’économie (l’utile et l’inutile). Les règles morales peuvent être vues comme de simples habitudes qui ont fini par s’imposer à un groupe social. La morale est donc une construction sociale, ce qui est jugé moral à un moment donné peut être jugé immoral dans d’autres circonstances. Mais peut-on avoir une conception détachée de toute considération morale ? Prenons le cas de la GPA (gestation pour autrui), autrement dit les mères porteuses….
Peter Thiel à l’Académie morale et politique ?!?
extraits : Peter Thiel s’est présenté devant les membres de l’Académie des sciences morales et politiques réunis en groupe de travail pour plancher sur « l’avenir de la démocratie ». Si les académiciens plongent dans ses livres, ils découvriront l’aversion absolue de Peter Thiel non seulement pour le multiculturalisme et les progressistes, mais aussi un très net scepticisme à l’égard… de la démocratie ! C’est un élitiste qui prône un système oligarchique où la gouvernance serait assurée par quelques-uns – des hommes, riches entrepreneurs – exaltant le progrès, la technologie, l’individu roi….
En savoir encore plus
Le débat sur l’IVG, bloqué par la morale ?
La comptabilité morale des petits-pas en écologie
effet rebond, compensation carbone… hypocrisie morale !
morale minimaliste (Ruwen Ogien)
pub immorale (l’information manipulée)
Aligner l’IA sur la morale humaine !?! Lire la suite »
