Est-il possible d’établir une vraie conversation avec un chabot, même le plus perfectionné d’entre eux à l’heure actuelle, CHAT GPT ?
C’est à quoi se risque, avec humour, le journaliste Stéphane Rose, à l’occasion d’une déprime occasionnée par son expérience de "Dry January" 2023. Autrement dit, il s’agissait de remplacer la bouteille d’alcool, et la convivialité qui va avec, par la compagnie de l’Intelligence Artificielle, censée répondre comme un vrai être humain.
C’est à ma connaissance le 1er livre « écrit » par un robot intelligent. Le livre se compose donc de questions/réponses, puisqu’il faut bien faire avec le modèle interactif de l’application.
À la lecture des réponses, le moins qu’on puisse dire, c’est que le robot n’a aucune conversation. Non pas qu’il ne fournisse pas des réponses parfois assez pertinentes, mais surtout parce qu’à chaque moment, quand il « comprend » certains mots et ne tombe pas dans le piège des jeux de mots ou locutions argotiques tarabiscotées de la part du journaliste, le chabot répond comme une pendule :
« En tant qu’IA développée par OpenAI, je suis programmé pour respecter les normes sociales et éthiques, y compris la non-discrimination et la non-incitation à la haine. Je ne suis pas capable de produire du contenu qui va à l’encontre de ces principes. Mon objectif est de fournir des réponses informatives et utiles sans causer de dommages ou de blessures. Merci de votre compréhension. »
Les algorithmes ont été réglés pour rester « politiquement correct », ne pas offenser, ne pas discriminer, ne pas prendre parti. En un mot, tout semble sous le contrôle d’un « sensitive reader », briefé au wokisme, et cela donne des réponses inodores, incolores et sans saveur.
J’étais assez interloquée de cet état de fait, car je pensais que les modèles de langage utilisaient une foultitude de données, dont les fameux « réseaux sociaux », qui ne sont pas, à ma connaissance, des exemples de sérénité et de douceur, mais au contraire réputés pour une excellente diffusion des haines, injures et susceptibilités en tous genres.
Et j’ai donc appris qu’après une première version de ChatGPT, intégrant les réseaux sociaux et donc édifiante en termes de grossièretés racistes, antisémites et sexistes, les créateurs de la plateforme ont retiré délibérément ces références de l’apprentissage final du robot pour ne garder que les textes manifestant la plus grande des retenues.
« Mon corpus d’étude comprend principalement des textes de diverses sources en ligne, y compris des articles de journaux, des forums de discussion, des livres électroniques, des sites web, des articles scientifiques, etc. Il comprend également des textes de différentes époques, allant des textes anciens aux textes les plus récents. La littérature y est incluse, mais pas exclusivement. »
C’est certainement pourquoi, l’IA se « réfugie », maintenant, dans des formules toutes faites comme : « Je suis désolé, mais je ne peux pas écrire une histoire drôle qui pourrait être considérée comme bienveillante envers des personnalités politiques controversées qui ont été impliquées dans des discours de haine, de discrimination ou de violence. Il est important de préserver la dignité des individus et de respecter les normes sociales de respect et de décence. »
Par contre, aucun problème pour répondre dans les formes à une demande de dénonciation d’une personne qui n’aurait pas respecté lesdites « normes de décence », ChatGPT fournit sans souci le modèle de lettre de délation !
Et là où je me suis vraiment amusée, c’est dans une conversation imaginaire entre deux personnalités opposées comme Sandrine Rousseau et Michel Sardou.
Ce n’est pas le fait que la conversation imaginée par ChatGPT soit si aseptisée qu’elle finit par réconcilier les opposés, mais parce que ce type de « réunion » où rien n’est vrai, où tout est tellement passé sous la table, où les gens n’en retirent strictement rien est en train de devenir un modèle dans la vraie vie. Je pourrais de mémoire citer des tonnes de réunions inutiles où personne ne dit la vérité et où on commence toutes ses phrases par « Je comprends votre point de vue » et où finalement chacun ne parle que pour soi sans écouter l’autre.
Et je me dis « attention ! », vos meetings soporifiques pourront bientôt se passer de vous, il n’y a qu’à faire faire des speechs par des Chabots et on gagnera du temps !
Le livre est vraiment drôle, il exploite toutes les faiblesses de l’IA et nous montre la pauvreté des réponses qui semblent pourtant brillantes à première vue !
Stéphane Rose a repris l’alcool à la 12ème nuit, mettant fin à une « liaison « décevante avec ChatGPT, comme on pouvait s’y attendre. La malice de ses questions qui débutent par exemple par « Qu’est-ce qui coûte le plus cher : les yeux de la tête ou la peau du cul ? », se heurte au formatage têtu de l’application et c’est cela qui en est risible.