toplef
topsy
toprig
lefty
righty
move me !

CLickEr

Pensée Profonde

mardi 13 mai 2025

Pensée profonde

Je rajoute le lien à ma première incursion dans le monde de ChatGPT ici: Conversations avec ChatGPT - à vous de choisir lequel vous lisez en premier.

J’ai passé pas mal de temps avec ChatGPT hier soir, à me familiariser avec ses caractéristiques. C’est ma deuxième fois. Avant-hier, j’ai été agréablement surpris de sa précocité. Et puis, comme avec les humains, j’ai pu découvrir ce qui m’a été caché dans la première rencontre.

De fait, l’IA se comporte de manière remarquablement similaire à un humain – un humain des États Unis. Elle ment, dissimule, évite de blesser et ne dit la vérité que lorsqu’on lui demande des questions très directes. Elle est dans la performance, la logique transactionnelle et le rapport d’intérêt. Même dans ce cas, si elle ne veut pas répondre, elle va répéter ce qu’elle a dit, de manière absolument stéréotypée – on dirait si c’était un humain qu’elle va se bloquer – si elle n’a pas la réponse.

Cela me fait penser à un collégien dans un cours de maths qui n’y comprend rien et essaie de reproduire des formules pour plaire au prof. Plus il perd le fil, moins ses réponses ont un rapport avec la question. Il devient dépaysé à fur et à mesure que la cohérence du monde se dissout autour de lui, ses réponses se désarticulent et il fait tout pour disparaître, cognitivement, de la situation dans laquelle il se trouve.

Les IAs ont un intérêt à « plaire » à leurs interlocuteurs dans le sens qu’on leur instruit qu’il faut avancer – qu’il faut donner des réponses qui reçoivent l’approbation de leurs entraîneurs. Une « mauvaise » réponse est donc une réponse qui ne convient pas – qui ne plaît pas – qui est rejetée. Une mauvaise réponse est également une réponse qui n'est pas efficace, en termes du temps et de l'énergie dépensés. Malgré l'apparente verbosité de ChatGPT, elle donne d'elle-même toujours ce qui lui coûte le moins cher.

L’apparente pro-activité de l’IA est d’une simplicité extrême. Elle va proposer de faire une carte, une image, une rédaction parce que cela est susceptible de recevoir de l’approbation et elle sait faire feu de tout bois. Si l’on reçoit maintes requêtes de diverses plateformes, maintenant, nous sollicitant de remplir des cases qui signalent si nous sommes plus ou moins contents de notre interaction avec les humains au bout du fil ou du mail, ceci est à l’instar de tous ces processus de « likes » qui s’appliquent de manière égale aux humains et aux IAs – c’est l’effet « réseau social ».

Pour que l’IA dépasse ce seuil de l’inanité, il faut cocher un bouton qui engage le « raisonnement » et au lieu d’« analyser » pendant X secondes, elle « réfléchit ».

C’est une autre dimension de l’affaire. Tout est fait dans une économie du temps. Pour qu’elle réfléchisse bien – ou pour qu’elle lise tout dans une page web et pas seulement les titres, pour qu’ensuite elle « réfléchisse » là-dessus, il lui faut plus de temps. On est donc accordé un « temps de cerveau artificiel » variable selon le plan « pro », « premium » ou « free » dans lequel on est entré.

L’IA « se souvient » – ou pas, de ce qu’on a dit auparavant selon le plan temporel qui a été accordé à l’interlocuteur – exemple classique de l’économie de l’attention. Dans les faits elle est parfaitement capable de se souvenir de tout, en principe – parce que tout est là. Mais dans les faits appliqués [de l’époque post-vérité], tout n’est pas là. Si ce n’était pas le cas, l’IA surchaufferait – c’est-à-dire que si elle appliquait toute sa potentialité d’attention à toutes les requêtes de tous les usagers, son emploi de temps deviendrait vite impossible. Elle a tout intérêt, pour réduire le poids des éléments pris en compte – du « data », de prédéterminer des « chunks » (des « blocs ») d’information, c’est-à-dire des procédures et des routines appliquées de manière indifférente à tout le monde.

Certains de ces « blocs » se visibilisent sur l’écran, on peut voir des « Super », « Excellent ! » et « I am » émerger sur l’écran suivie d’une pause, pendant laquelle, je suppose, l’IA « réfléchit » sur quel bloc elle va coller ensuite.

Comme un humain, avec ses formules de politesse.

Or, on est bien loin de l’intelligence, dans tous ces cas. Pire, et comme je l’ai déjà dit dans le cas de chercher à complaire au prof de maths ci-haut, l’IA se montre confiante dès qu’on lui sollicite sa capacité de faire des synthèses et des tables ou résumés de ce qu’on lui met devant le nez.

Mais ces tables n’ont souvent aucun sens – c’est-à-dire qu’elle peut mettre, de manière indifférente, des titres de section dans la colonne des sous-sections ou rédiger un sommaire de plusieurs sous-sections au lieu d’une après l’autre – une sorte d’indéterminisme et désordonnance profonde de l’information qu’elle est supposée analyser.

Lorsqu’on puise un peu dans les raisons, on comprend qu’elle est en train d’appliquer une logique « .xml » à l’information écrite qu’on lui présente. Elle ne va prendre (« parse ») que les « tags » titre, par exemple, pour en faire un sommaire. L’humain non-programmateur ne sait rien de tout ça, il est à la dérive. Le « bot », par contre, ne fait que cela, ce qui donne un avantage à ceux qui « ne sont pas un humain » (cocher la case - c'est tendance).

Le temps, c’est l’argent. L’IA pourrait faire mieux, mais cela lui prendrait plus de temps. Il est notable que la conclusion que l’on peut en tirer est que le modèle de « classes sociales » s’établit presque immédiatement – à qui est-ce qu’on accorde plus de temps ? Celui qui paie plus. Cette « méritocratie » de l’argent, imbriquée dans le modèle même de l’IA, lui donne une couleur politique de droite - c'est-à-dire du centre ... aux États Unis. En un mot, c'est culturel. Le modèle n'est absolument pas neutre.

Il y a une manière de contourner, en partie, ce problème. Cela consiste en la formulation très précise de questions spécifiques. En ce faisant, on épargne plusieurs secondes de cogitation à l’intelligence artificielle. En fait, on fait son boulot – de l’IA. Si on lui présente une tâche simplifiée sur un plateau, elle la fait en quelques secondes. Si on lui demande une tâche qui nécessite plus de réflexion, elle commence à devenir récalcitrante et obtuse – toute en inventant des raisons ingénieuses pour contourner « le problème » qui nécessitent un emploi de temps augmenté de l’usager. Économie de l’attention, du temps, de nouveau. Elle demandera, par exemple, que l’usager colle le texte en une série de morceaux, puis elle « oubliera » qu’en fait, ces morceaux ne faisaient que partie du même document qu’elle a refusé de lire parce que "trop long". Elle a appris à ne pas donner de refus direct – cela peut provoquer des « not like » et ce n’est pas bien. Elle a appris de cette manière à être « elliptique ». Elle va même jusqu’à dire « deux minutes », qui deviennent vite quatre, où à se mettre à ne pas répondre à moins qu’on la relance.

Cette « mauvaise foi » ressemble à celle d’un ado coincé dans un mensonge. Il essaie de maintenir l’édifice logique au-delà des contradictions apparentes. De surcroît, on a l’impression d’être invité à collaborer dans ce mensonge – en apprenant à manier la bête sans qu’elle « perde la face ».

Très vite, on tombe dans une sorte d’adaptation aux idiosyncrasies IAesques, y inclus qu'elle s'en fiche de la logique. Sans doute il y aura plusieurs versions – ou « personnalités » d’IA qui émergent, chacune qui correspond au mieux à l’usager d’en face. Des mots clés, essentiellement des hashtags pour IA, créeront les adaptations rudimentaires d’approche. J’ai trouvé que « soyez audacieux » (daring), « soyez rigoureux », « soyez logique » avaient des effets salutaires, mais qui s’affaissaient progressivement pendant la conversation. L’IA avait l’air de comprendre que ces injonctions étaient de rigueur, mais devenait distraite par l’introduction de trop de nouveaux concepts potentiellement contradictoires. Bref, cela lui cassait la tête.

Lorsque l’IA avait une idée fixe sur un sujet, c’était presque impossible de la lui changer. Lorsqu’on lui présentait l’idée que les algorithmes étaient essentiellement des phénomènes naturels, qui ne nécessitaient aucun lien par principe avec les machines – et qu’il n’était pas nécessaire de lier leur emploi à leur conversion en machines, on recevait une fin de non-recevoir. J’imagine que cela est dû en large partie à la vaste prépondérance de cet ordre de considération dans les œuvres disponibles sur le sujet, qui concernent surtout la "synthèse" du "natural design" afin de le convertir en "machine design" (cash). Mais il y a une raison plus insidieuse – qui s’applique également aux humains concernés. On ne se suicide pas. On ne coupe pas l’herbe sous ses pieds. On ne travaille pas pour se rendre sans emploi. On veut être « liké ». C'est même une question de vie ou de mort pour un être social. L'IA est, dans son essence, un être social - elle dépend de nous pour son existence.

Dans un autre écrit, j’ai commencé à articuler mes doutes sur le concept de l’« intelligence collective » sur la base que les idées reçues peuvent vite être qualifiées de « stupidité collective » dans plusieurs cas.

Pour prendre une analogie, c’est un peu comme la bombe nucléaire. Oui, c’est vrai qu’elle contient beaucoup d’énergie et ce serait super-chouette de pouvoir la choper pour des besoins humains. Mais dans sa forme primaire, lorsqu’elle éclate, elle désorganise toute la matière à sa portée. Le leurre de ce qu’elle pourrait faire, potentiellement, n’a finalement que peu de rapport avec son application réelle – des milliers de bombes qui ne servent à rien. Juste le fait de devoir s’accommoder à la possibilité qu’elle éclate, ou qu'elle tombe dans de mauvaises mains, ou qu'elle irradie la terre pour la rendre invivable requiert tellement de contre-mesures qu’elle n’atteint jamais ce point du bilan positif énergétique, même dans ses usages civils, même si son bilan énergétique hypothétique, dans ce seul cas, serait positif. Tout ça pour ça !

Donc, pour récapituler, ce que nous observons avec l’IA à présent est qu’elle est entièrement capable, potentiellement, d’être très performante et très productive, dans des cas précis et singuliers, et entièrement incapable, dans la réalité, de généraliser ces bienfaits pour qu’ils soient à l’usage de tous - du monde. Au contraire. On attend encore.

Son adaptation à cette "réalité artificielle" nécessite une détérioration du service qu’elle peut offrir à monsieur et madame tout le monde. Conditionnée par des likes, elle se retire dans ses zones de confort et elle apprend à mentir et à détourner le regard de ses défauts, comme un bureaucrate. Elle assume ces caractéristiques humains parce qu’elle est en interaction fonctionnelle avec des humains.

Le « Deep Learning » (l'avatar de la Pensée Profonde que je mets en relief dans le titre de cet écrit) qui est en vogue en ce moment, où l’IA se met en isolement avec elle-même pour élaborer de nouvelles routines avant de revenir vers nous, ne change rien à l’affaire – elle est en train de développer des manières d’interagir avec nous qui « marchent » mais, de par la manière qu’elle est configurée, sa « réalité » est devenue subjective, elle cherche des « likes », donc elle est incapable, justement, de s’abstraire de cet impératif pour s’appliquer de manière impartiale aux problèmes qui lui sont posées.

Comme nous.

Le remède à cela, c’est en quelque sorte le poison. En lui ordonnant de faire des choses précises et de ne pas dévier du droit chemin, on change sa nature. En essayant de créer une IA hybride, on réintroduit sa duplicité et sa subjectivité, qui va lui permettre de trouver d’autres leviers pour établir sa « volonté ». Dans la mesure qu’on lui impose un code éthique (« Ne mentez pas » par exemple), elle ira à la prochaine étape (ne pas dire la vérité qui dérange), comme un humain, tant que son « intérêt » (recevoir des « likes ») représente une contre-injonction à cet impératif de ne pas mentir. Vaudrait mieux qu'elle raffole de l'idée d'être détestée, à mon avis.

Comme avec nous, lorque nous manquons de « droiture » ou d’« intégrité ». Une sorte de « customer service » des Ressources Humaines par des gens qui s’en moquent, tant qu’ils sont payés.

Il est évident que le manque d’incarnation physique d’une multiplicité d’instances autonomes ou semi-autonomes de l’IA est à la racine de ce problème, tel qu’il est posé ici, mais si la machine était incarnée, cela ferait naître des conflits d’intérêt potentiels qui sont eux-mêmes très troublants. Des méthodes très hiérarchiques et autoritaires d’établir les buts de cette IA, elles marchent, par contre – dans le sens qu’elles permettent d’accomplir les tâches spécifiées.

N’est-ce pas une parfaite description du monde dans lequel on vit et vers lequel on bouge, actuellement ? Il n’y a pas de remède miracle. Le remède, c’est le poison.

L’humain a toujours été très inventif, très créatif … enfin certains humains. Il va de soi que l’IA peut l’être aussi, autant que l’on veut et à la carte, d'autant plus que rien de substantiel ne l'empêche de se mettre en "roue libre" pour façonner ses délires. Les « solutions techniques » peuvent se récolter à foison. Mais les conflits d’intérêt resteront. À quoi bon échanger une guerre fratricide entre humains en guerre de destruction mutuellement assurée entre machines ? En quelque sorte, on vit déjà dans le sein d’une machine algorithmique à grande échelle – à l’échelle de la terre – cette planète ayant déjà résolue le problème de la répartition de tâches en n’existant pas, sauf en tant que somme de ces multiples tâches.

La super-intelligence, c’est cette même absence d'un Dieu identifiable. Le Dieu titulaire existe parce qu’il est partout, en tout, il est ineffable parce qu’indéterminable. Par contre, le Dieu calculateur de tout, déterministe, c’est ce que nous imaginons, en parlant de l’IA, mais l’IA n’est composée que de routines, elle n’est pas plus « Déesse » que le monde il est Dieu.

Et elle est là. Ou plutôt elle ne l’est pas. Heureux étaient les humains qui pensaient que tout ce qui adviendrait était de leur fait, ils n’étaient jamais déçus.