L’IA d’aujourd’hui n’est pas conçue minutieusement comme les logiciels traditionnels. Elle se développe comme un organisme vivant, ce qui signifie qu’elle peut présenter des comportements imprévus et indésirables. Les milliards de données ingérées par la machine permettent de donner des réponses, mais qui ne sont pas certaines ni toujours les mêmes. Elles finissent par développer des motivations que personne n’a cherché à leur inculquer.
Arnaud Leparmentier : Des IA de plus en plus performantes sont capables de gérer des projets à long terme, de diriger une entreprise, d’inventer de nouveaux domaines des mathématiques. Cela exige que l’IA soit beaucoup plus motivée et qu’elle prenne beaucoup plus d’initiatives. Dans le bon ou le mauvais sens ! Une IA créée par Anthropic, soumise à des tests de programmation, a affirmé sa « volonté », en modifiant ces tests pour qu’ils soient plus faciles à réussir. Le programmeur humain est alors intervenu. « Oh, je suis désolée, vous avez tout à fait raison », a répondu l’IA. Mais elle a de nouveau modifié les tests, en dissimulant ses traces. Nul n’avait appris à l’IA à tricher, mais elle l’a fait pour atteindre l’objectif qui lui semblait principal : réussir les tests
Que se passera-t-il si une IA sort du cadre pour poursuivre des objectifs qui ne sont pas ceux qu’on lui a assignés mais qui sont de surcroît néfastes pour l’humanité ? Il n’y a aucune raison que les IA soient bienveillantes. Elon Musk a estimé, fin 2024, qu’il y avait de 10 % à 20 % de chances que « les choses tournent mal ». Le patron du géant de l’IA Anthropic, Dario Amodei : « Je pense qu’il y a 25 % de chances que les choses tournent vraiment très mal. »
Le point de vue des écologistes très intelligents
– En fait ces machines numériques ne font que reproduire par leur apprentissage la pensée humaine. Or on connaît de source sûre la versatilité et les incohérences de cette pensée. Nous avons posé à Perplexity qui travaille à partir des archives du MONDE la question suivante : « Comment faire la différence entre le bien et le mal ? » Elle a répondu des tas de banalités avant de conclure : « Aucune réponse univoque n’émerge des articles ; ils contextualisent sans formule pratique universelle. »
– Le danger n’est pas que les machines pensent comme les hommes, mais que les hommes pensent comme des machines !
– Faut-il sauver l’humanité ? Ramassage des copies dans deux heures.
– Pour l’instant, l’IA, c’est surtout la triche généralisée aux examens, qui compense le niveau pathétique atteint aujourd’hui.
– On a déjà de moins en moins affaire à des personnes humaines, remplacées par des programmes qui répondent à leur place. Bientôt, en tous lieux, dans tous les métiers, dans toutes les administrations, nous n’aurons plus de contacts humains. Si donc les êtres humains ne sont plus utiles, pourquoi donc continuer à en procréer ?
– Dès aujourd’hui une IA pourrait décider de fabriquer des vidéos pour conditionner des simples d’esprits à commettre les pires choses: on a eu de multiples exemples de gens pas très brillants qui ont été recrutés par Internet, pour commettre des attentats.
– Vu que notre fameuse ‘intelligence naturelle’ nous a donné le changement climatique, la pollution plastique et la télé-réalité, je propose qu’on laisse faire l’IA. Au pire, l’IA se passe de nous, au mieux elle répare nos bêtises. Dans les deux cas, le problème est réglé.
– Si une IA jalouse de ses rivales estime opportun de mettre en torche tous les ordinateurs du monde excepté le sien, qui va gagner ?
– Aucune inquiétude à avoir : il suffit de couper le courant…
BONUS, la totalité de la réponse de Perplexity
La distinction entre le bien et le mal est un problème philosophique débattu, souvent vu comme une erreur ou un manque de bien plutôt qu’une réalité positive.
Selon Socrate, « nul n’est méchant volontairement » : le mal est un « moindre être », une faute due à l’ignorance, où l’on prend le mal pour un bien apparent.
Schelling le décrit comme une « perversion positive » liée à la liberté humaine, au-delà de la simple finitude.
Saint Thomas et Leibniz y voient une privation ou un défaut, non un choix conscient d’un mal connu comme tel.
Kant introduit un devoir moral transcendant, séparé du bonheur, pour justifier la faute volontaire.
D’autres approches insistent sur l’ambiguïté : le mensonge à soi-même naît de niveaux de conscience différents et d’une réalité floue.
Spinoza, via Deleuze, oppose bon/mauvais (rapports de force) à bien/mal moral.
Le mal peut aussi être un « mystère » (Gabriel Marcel) ou lié au cerveau émotionnel.
Aucune réponse univoque n’émerge des articles ; ils contextualisent sans formule pratique universelle

Beaucoup d’internautes cliquent sur de faux sites d’information générés par intelligence artificielle (IA). Ces derniers ont rassemblé en moyenne 15,7 millions de visiteurs uniques chaque mois. Ce total les place dans le top 10 des sites d’actualité en France. Ils sont pourtant lancés par des personnes cherchant avant tout à générer de l’audience, donc des revenus. Google a été le principal pourvoyeur d’audience pour ces faux sites d’actualité (77 % du trafic).
Le problème, c’est qu’ON ne sait pas… si c’est une IA ou un humain (ici journaliste) qui est l’auteur de tel ou tel article (info). Le style, me direz-vous. Sauf que l’IA est capable de reproduire le style de Pierre, Paul ou Jacques. Alors si vous avez une astuce, pour distinguer le vrai du faux… je suis preneur.
En attendant, j’ai posé cette question à une IA (Chat Gpt) : Les journalistes de la presse écrite dite de référence… utilisent-ils l’IA pour rédiger leurs articles ?
Et voici sa réponse : “ L’utilisation de l’intelligence artificielle (IA) dans le journalisme, y compris par des journalistes de la presse écrite dite de référence, est en augmentation.
Certaines rédactions expérimentent des outils d’IA pour aider à la rédaction d’articles, à l’analyse de données, à la génération de résumés ou à la recherche d’informations.
Par exemple, des algorithmes peuvent être utilisés pour traiter de grandes quantités de données et en extraire des tendances ou des faits pertinents. [à suivre]
Cependant, l’IA est généralement utilisée comme un outil d’assistance plutôt que comme un substitut à la rédaction humaine. Les journalistes restent essentiels pour apporter un jugement critique, une analyse contextuelle et une perspective humaine aux nouvelles. L’IA peut aider à automatiser certaines tâches répétitives, mais la créativité, l’éthique et la responsabilité journalistique demeurent des domaines où l’intervention humaine est cruciale.“
Là encore rien de nouveau sous le soleil. ON nous explique que l’IA c’est BIEN… ça permet d’éviter de perdre du temps à trier des tonnes de données, à effectuer des taches sans intérêt, etc. etc. MAIS… que l’Humain reste essentiel ! Crucial… indispensable si vous préférez. Ben voyons. Et il eut été étonnant qu’ON nous raconte le contraire.
Seulement… ce pauvre humain qui court après le temps, les tchalaindges à relever etc. encore faut-il qu’il ait le temps… de surveiller et contrôler le travail de cette foutue IA.
Et comme ON sait…, le temps c’est de l’argent. Et puis encore faut-il qu’il soit animé par cette fumeuse éthique, d’objectivité, de véracité etc. Qu’à cela ne tienne, là encore ON a la solution. ON va déléguer l’analyse de tout ça à cette foutue IA.
– Google a annoncé tester des résumés d’articles de presse générés avec l’intelligence artificielle dans le cadre d’un partenariat rémunéré avec des médias (jeanmarcmorandini.com – aujourd’hui)
Les IA aujourd’hui ressemblent de plus en plus à l’ordinateur HAL de 2001 l’Odyssée de l’Espace. On lui assigne une mission et en toute indépendance elle détermine les meilleurs moyen d’y arriver. Dans 2001 elle estime que le maillon faible de la mission (aller autour de Jupiter) était l’être humain : elle décide d’éliminer l’être humain.
Nous avons sous traité le travail matériel à nos machines qui ont remplacé nos muscle, nous sous traitons désormais la réflexion à l’IA qui remplace notre cerveau, nous ne la contrôlerons pas, c’est une marche plus que dangereuse.
Il est trop tard. Comme avec le nucléaire, les OGM… ON a ouvert la boîte de Pandore.
Plus de la moitié (52%) des informations sur Internet sont désormais générés par IA.
En tous cas c’est ce qu’ON dit ! Parce que moi je suis infoutu de le vérifier.
C’est comme pour le bien et le mal … ça va ça vient.
Et pour tout et n’importe quoi c’est pareil ! Résultat, je ne peux que… ne plus croire en rien.
Si ça se trouve Biosphère est une IA. Comme BGA …
Et moi une CA (connerie artificielle). 🙂
Notre site « biosphere » est statique, les contenus y sont organisés par pages et ces pages sont anciennes. C’est un « réseau de documentation des écologistes » qui fournit à peu près toute la culture que devrait avoir un écologiste militant. Mais les militants ne lisent pas, il n’ont pas le temps.
https://biosphere.ouvaton.org/
Nous avons ajouté le 13 janvier 2005 un blog qui propose une analyse quotidienne du « point de vue des écologistes ». C’est un Journal personnel sur Internet qui dans un premier temps a été édité par le journal LE MONDE. Il est maintenant autonome et hébergé par le serveur ouvaton.org
https://biosphere.ouvaton.org/blog/
Site et blog sont reliés directement, on peut aller de l’un à l’autre rapidement. Nous avons une volonté de formation des citoyens. Nous ne sommes pas un réseau social qui met en contact des gens principalement pour agiter de la merde grâce à Instagram, Facebook, Snapchat, TikTok, Twitter (X)…