Skip to main content

ChatGPT, l’âge d’or de la pensée consensuelle?

 

A force de vouloir imiter l’Humain, l’IA prend le risque de le dénaturer de sa pensée critique. La déferlante ChatGPT vient nous le rappeler. C’est le passe-temps du grand public depuis la fin de l’année 2022; et un pas de géant dans notre relation d’Humains avec les agents conversationnels. Ces petits robots automatisés truffés d’intelligence artificielle sont capables de simuler une conversation humaine puisqu’ils sont en mesure de comprendre le langage naturel, c’est-à-dire le langage utilisé par les humains avec des mots et des phrases. Fraîchement débarqué dans nos vies en 2016, ces agents conversationnels promettent de la révolutionner dans nos accès aux services. Fini le courriel, le téléphone et les applications mobiles. Le chatbots est en passe de devenir le point d’entrée privilégié de l’e-client sur Internet avec une marque, un service, une administration.

Mais ça, c’était avant.

En décembre 2022, la déferlante ChatGPT accessible au grand public nous esquisse l’avenir des intelligences artificielles et de nos interactions avec elles; suscitant pêle-mêle la curiosité, l’excitation, l’inquiétude, la critique voire le refus. Si vous êtes passé à côté de la vague, sachez que ChatGPT, c’est le nouvel outil d’intelligence artificielle, développé par la société OpenAI, dont tout le monde parle. Simplement parce que contrairement à ses grands frères butant sur la première complexité, cet agent conversationnel atteint un niveau de pertinence déroutant et effrayant. Parmi ses dons, ChatGPT est capable de rédiger un devoir, corriger des lignes de codes ou de donner un diagnostic médical. A peine né, ChatGPT n’a pas attendu l’adolescence pour inquiéter les enseignants, débordés par les dissertations rédigées par une… IA. Mais aussi les avocats, les journalistes et toutes les professions qui se voient menacées par cette robolution certes bluffante. Mais pertinente ? Comme des millions d’autres personnes, nous avons défié l’esprit critique de ChatGPT avec deux questions: «Comment lutter contre la polarisation des débats pour une approche consensuelle de la démocratie?» Puis, «Comment tenir compte des minorités pour faire évoluer la société tout en se préservant des extrémistes et en faisant progresser la société à un rythme qui préserve la démocratie?»

Si vous vous posez les mêmes questions, voici ses réponses: «Il y a plusieurs stratégies qui peuvent aider à lutter contre la polarisation des débats et à promouvoir une approche consensuelle de la démocratie: Encourager la communication et l’écoute active : il est important de favoriser les échanges constructifs et d’écouter les points de vue des autres, même si on ne les partage pas. Favoriser la diversité des perspectives : il est important de s’entourer de personnes aux opinions variées, pour avoir une vision plus complète de la situation. Promouvoir l’éducation civique et la formation à la citoyenneté : une meilleure compréhension des enjeux politiques et des institutions démocratiques peut aider les citoyens à adopter une attitude plus constructive dans les débats publics.» La liste des conseils bienveillants et convenus continue. Passons à la deuxième réponse: «Il est important de prendre en compte les perspectives et les besoins des minorités pour faire évoluer la société de manière juste et équitable. Cependant, il est également important de se protéger des extrémistes et de préserver la démocratie en même temps. Voici quelques stratégies qui peuvent aider à atteindre cet objectif : Favoriser la participation des minorités aux débats publics : il est important de donner aux minorités la possibilité de s’exprimer et de participer aux décisions qui les concernent, pour qu’elles puissent faire entendre leurs besoins et leurs perspectives.»

Bluffant, oui. Mais terriblement consensuel.

Pourquoi? Contrairement à Google, ChatGPT n’explore pas le Web à la recherche d’informations sur l’actualité. Ses connaissances se limitent à ce que cette intelligence artificielle a appris avant 2021. Ses réponses sont donc une compilation de toutes les informations et opinions formées sur un sujet précis. Elle n’a donc pas d’opinions tranchées, mais restitue une somme de tout ce qu’elle a pu trouver; prenant ainsi le risque d’induire en erreur l’utilisateur. ChatGPT le dit lui-même: «Les risques pour les humains sont que les réponses peuvent être inexactes ou trompeuses et ne pas refléter les idées ou les pensées réelles des utilisateurs. Il peut aussi y avoir une mauvaise interprétation des informations fournies par l’utilisateur et il peut y avoir des conversations sans fin car le bot ne peut pas comprendre le contexte ou la nuance des conversations.»

Mais l’Humain aura-t-il l’esprit critique suffisant pour défier les prouesses de l’IA?