L'intelligence artificielle s'est érigée en tant que miroir fascinant de notre société, reflétant à la fois ses mérites et ses faiblesses. Des chatbots aux applications d'édition de photos ou de création de musiques, ces intelligences artificielles surpassent les limites habituellement associées aux technologies et offrent désormais une compréhension contextuelle, un jugement moral et, plus surprenant, des émotions. l'IA peut être utilisée à des fins aussi nobles que la médecine de précision ou aussi controversées que la surveillance de masse. Et dans ce contexte, la notion d'éthique et les biais cognitifs occupent une place de choix.
Mais comment ce miroir révélateur de nos mœurs nous confronte-t-il aux défis éthiques inhérents à la construction du monde de demain ?
Les IA, miroirs grossissants de nos propres imperfections
Lorsque des IA comme ChatGPT formulent des phrases discriminatoires, il est difficile de ne pas s'interroger sur la source de ces biais. Steven T. Piantadosi, scientifique cognitif à Berkeley, a brillamment exposé ces faiblesses en partageant des conversations qui mettent en lumière un "problème fondamental sur la façon dont ces modèles sont structurés."
En effet, les IA comme ChatGPT sont formées sur des ensembles de données colossaux, tels que "Common Crawl," qui capturent le contenu disponible sur Internet. Comme le note Meredith Broussard, professeur de journalisme des données à NYU, "il y a beaucoup de toxicité et de désinformation sur Internet."
Cela nous rappelle la critique adressée au site participatif Wikipédia, pour lequel les vérifications sont aujourd'hui effectuées progressivement et à plusieurs niveaux, tout d'abord par les patrouilleurs, puis par les contributeurs des projets concernés.
Mais le propos de Sam Altman (Président d'OpenAI), conseillant de simplement signaler les défaillances pour améliorer le logiciel, apparaît insuffisant face à l'ampleur de la tâche. Comme l'indique Lauren Klein, co-auteur de Data Feminism, le problème des biais dans l'IA relève en dernière instance d'une question de pouvoir. Les technologies sont contrôlées par des entités puissantes, souvent peu enclines à intégrer les questionnements éthiques au cœur de leurs décisions.
La présence d'applications comme Lensa AI, qui génèrent des portraits hautement sexualisés, ajoute une complexité supplémentaire au débat actuel. Imaginons que l'on sollicite une IA pour créer une photo de "secrétaire" ; le résultat tombe malheureusement facilement dans la caricature.
"La raison pour laquelle Lensa AI produit ces images fortement sexualisées réside dans sa formation sur des images extraites du Web ouvert. Et que trouve-t-on en abondance sur ce Web ouvert ? Du contenu pornographique! ", analyse Meredith Broussard, journaliste et développeuse américaine, auteure de "Artificial Unintelligence: How Computers Misunderstand the World."
Mais si l'on part du constat que les IAs fonctionnent essentiellement comme un miroir amplificateur des biais de notre société, la réflexion semble se nuancer ! Ce n'est donc pas tant que le Web serait intrinsèquement raciste ou sexiste, mais plutôt que les algorithmes reflètent et amplifient les préjugés existants dans les données sur lesquelles ils sont formés. Le "sexisme algorithmique" est donc une réalité, mais la conclusion à en tirer pour minimiser ces biais est qu'une formation éthique rigoureuse est indispensable.
Éthique et construction du monde de demain
Une autre préoccupation concerne la supposée inclination politique des IA. Des études suggèrent que des systèmes comme ChatGPT semblent avoir une inclination démocrate, ce qui pose des questions sur l'objectivité de ces technologies. Cela peut être particulièrement problématique dans des domaines où l'impartialité est requise, tels que le journalisme ou l'enseignement.
Il est en effet possible d’influencer les comportements de réponses des IAs, mais à quel prix ? Cela pourrait-il avoir des conséquences sur la liberté d’informer l’utilisateur ?
Prenons pour exemple Ernie Bot, un cas éloquent du ChatGPT chinois développé par Baidu. Ce robot conversationnel se distingue en évitant sciemment les sujets sensibles comme le Parti communiste et les événements de Tiananmen. Ce choix révèle la tension existante entre la volonté de promouvoir l'innovation en IA et le contrôle strict de l'information par les autorités chinoises. C'est un exemple frappant de la façon dont les normes éthiques peuvent varier d'un contexte culturel et politique à un autre.
Sans aborder des sujets aussi délicats que le communisme ou le massacre de la place Tian'anmen, il est important de noter que les modèles d'IA doivent être soigneusement formés pour naviguer dans des environnements culturels et politiques varié, en toute objectivité ! Cela soulève la question des biais inhérents aux systèmes d'IA, qu'ils soient politiques, ethniques ou d'autres natures. Il ne s'agit pas uniquement de corriger les biais mais également de "nourrir la machine" avec des données et des apprentissages qui permettront aux futures IAs d'être bien éduquées.
Profit à court terme VS éthique à long terme : une équation temporelle inconciliable ?
Il convient de souligner le dilemme temporel qui se pose dans le domaine de l'intelligence artificielle : l'opposition entre une vision à court terme, axée sur le retour sur investissement immédiat, et une perspective à long terme, tournée vers la construction d'un avenir plus éthique et inclusif. Tandis que le premier est motivé par des impératifs économiques et des pressions boursières, le second requiert une réflexion nuancée et des investissements conséquents dans la recherche et le développement éthique.
Dans l'écosystème actuel marqué par une course effrénée à la performance marketing, l'éthique dans le domaine de l'intelligence artificielle suscite donc des interrogations légitimes. Prenons l'exemple de l'écriture inclusive. Saluée comme une progression sociale, elle demeure cependant en marge des algorithmes de SEO; limitant ainsi sa visibilité et son adoption à grande échelle.
Ce dilemme éthico-commercial met en lumière l'ambiguïté du rôle que peuvent jouer les entreprises technologiques. D'une part, elles ont la possibilité — et, diraient certains, la responsabilité — d'innover de manière socialement responsable. D'autre part, les contraintes économiques et légales, notamment les enjeux de droit d'auteur, pèsent lourdement sur leur marge de manœuvre.
Le cas de ChatGPT, qui se trouve à la croisée de la presse et de la technologie, est un exemple particulièrement parlant. Il soulève des préoccupations quant à la dilution de la valeur du journalisme professionnel, voire l'appropriation non autorisée de son contenu. D'une certaine manière, il pourrait être vu comme une force positive, en démocratisant l'accès à des informations de sources fiables telles que le New York Times, contribuant ainsi à l'éducation et à l'information du public. Toutefois, en faisant cela, il risque également d'empiéter sur le territoire professionnel des journalistes, enlevant une part du mérite qui leur revient pour leur travail rigoureux. Le New York Times a d'ailleurs mis à jour sa page robots.txt pour interdire explicitement l'accès au GPTBot d'OpenAI, affectant ainsi la manière dont ce dernier peut indexer le contenu de ses éditions.
Conclusion
Alors que l'horizon s'éclaircit grâce à des initiatives innovantes telles que Perplexity (une plateforme axée sur la traçabilité et la transparence des données en intelligence artificielle), une question persistante se dessine : qui prendra le risque d'adopter un modèle éthique, sans garanties concrètes de retour sur investissement ?
Dans un contexte où les technologies disruptives comme l'intelligence artificielle bouleversent notre écosystème, le dilemme éthique et économique constitue un enjeu majeur. Chaque avancée technologique nous pousse à réévaluer nos paradigmes éthiques et économiques. Internet a déjà changé notre compréhension de la gratuité, en monétisant nos données personnelles et en faisant de nous le "produit". Aujourd'hui, les futurs accords entre IA et sources d'information pourraient très bien instaurer un nouveau modèle économique.
Mais dans ce contexte, le défi est d'intégrer une éthique robuste aux impératifs économiques. La clé pourrait résider dans un engagement constant pour l'éducation, s'appliquant aussi bien aux humains qu'aux IA. C'est en posant ces fondations éthiques que nous pourrons aspirer à un monde plus juste et équilibré.