Pourquoi les outils d’intelligence artificielle ont encore des biais

Les outils d’intelligence artificielle (IA), tels que les algorithmes décisionnels et les logiciels génératifs, sont connus pour avoir des biais inhérents. Malgré cette connaissance, les versions les plus récentes des outils d’IA présentent toujours des biais. Les grands modèles de langage comme le GPT natif d’OpenAI, par exemple, sont formés sur des données étendues, ce qui complique l’identification des sources de biais. Les propres chercheurs d’OpenAI ont reconnu que les modèles formés sur Internet ont des biais reflétant le conservatisme présent dans leurs données de formation.

Lorsque GPT-3 a été publié, il s’est avéré qu’il reproduisait des stéréotypes sexistes, racistes et religieux. Cela soulève la question de savoir pourquoi des mesures pour identifier et traiter les biais ne sont pas mises en place pendant la phase de développement. Le Dr Mhairi Aitken, chercheur en éthique à l’Institut Alan Turing, souligne la nécessité d’une surveillance et d’une responsabilité accrues des grandes entreprises technologiques afin de réduire les biais dans les outils d’IA.

Des efforts sont en cours pour créer une IA plus responsable, notamment en apprenant des versions précédentes et en mettant en œuvre des mesures de protection pour prévenir les abus. OpenAI, par exemple, a introduit une API de modération pour signaler les contenus nuisibles. Le gouvernement américain a également coordonné une évaluation publique des systèmes d’IA par le biais d’une conférence sur le piratage, semblable à un exercice «d’équipe rouge» en matière de cybersécurité.

Une autre technique pour lutter contre les biais est l’apprentissage par renforcement à partir de la réponse humaine, où les travailleurs humains évaluent les sorties des modèles d’IA pour obtenir des résultats plus naturels et moins nocifs. Cependant, cette approche est limitée par les biais individuels des évaluateurs humains.

A lire  Émissions de télévision passionnantes d’automne à regarder en 2023

Des entreprises comme Anthropic prennent des mesures pour garantir un comportement éthique dans les outils d’IA. Anthropic a créé son propre chatbot, Cloud, en incorporant des principes provenant de diverses sources, dont la Déclaration des droits de l’homme des Nations Unies et les meilleures pratiques de confiance et de sécurité.

L’engagement des entreprises d’IA envers l’éthique fait l’objet d’un examen minutieux, car on craint que les entreprises ne privilégient l’innovation aux considérations éthiques. Timnit Gebru et Margaret Mitchell, d’éminents chercheurs en éthique de l’IA, ont récemment été licenciés par Google, et il y a eu des licenciements importants au sein des équipes d’éthique des entreprises technologiques.

Il y a une prise de conscience croissante de l’importance de lutter contre les préjugés dans l’IA et de la nécessité pour les experts en sciences sociales et humaines d’être impliqués dans ces questions. Cependant, il est important de reconnaître que l’IA est un produit de la prise de décision humaine et qu’elle ne sera jamais totalement exempte de préjugés.

L’article basé sur le lien des nouvelles