Home Actus ChatGPT pointé du doigt par le Comité d’éthique européenne

ChatGPT pointé du doigt par le Comité d’éthique européenne

Par Christian Tetchi
chatgpt-pointe-du-doigt-comite-ethique-europeenne

L’engouement pour ChatGPT retombe peu à peu. Après l’effervescence observée, la prise de conscience prend le relais tout doucement. ChatGPT ne poserait-il pas un problème d’éthique ? Depuis sa sortie en novembre 2022, ChatGPT a réussi à convertir les plus sceptiques.

Seulement, au fur et à mesure de son utilisation, les zones rouges ont fait surface. OpenIA (la maison mère de ChatGPT) a en effet, vendu son Intelligence artificielle tel un miracle sans relever ses limites et ses manquements. Pas étonnant que de nombreuses questions fusent concernant notamment l’éthique de cette IA en particulier. Le comité européen d’éthique, connu pour sa rigidité sur les statuts des réseaux sociaux et applications, n’a pas manqué de poser ses vétos.

ChatGPT : un système à haut risque ?

Jusqu’ici, les IA étaient classées applications libres et donc soumises à un règlement plus léger que celui auquel sont soumis les réseaux sociaux. Seulement, Le Comité national pilote d’éthique du numérique (CNPEN) semble avoir pris les choses en main, afin de fournir des textes de lois qui permettront de mieux encadrer ces IA qui veulent envahir le marché.

Selon ces derniers, ChatGPT a de fortes chances d’être considéré comme un système à risque. Mais, qu’est-ce que cela signifie concrètement ? En fait, sur une échelle de notation sur la notion d’atteinte à l’éthique, être considéré comme un système à haut risque est le dernier palier.

Désormais, les systèmes concernés devront passer des contrôles, visant à forcer les développeurs à introduire des voies de contournement et de sorties aux utilisateurs. Les textes seront plus rigoureux et les sanctions à porter de main. La transparence et la coopération avec les autorités seront les mots d’ordre sous peine de se retrouver dans les mauvais cahiers des responsables, ce qui peut coûter cher à OpenIA.

ChatGPT : pas si intelligent que ça !

Surestimé et même surévalué, ChatGPT ne serait pas si intelligent qu’on veut bien nous faire croire. Basées sur la restitution de données par le moyen des instructions, les IA commencent à présenter leurs limites et à causer un problème d’éthique. Selon la (CNPEN), des systèmes tels que ChatGPT peuvent présenter un danger épistémique en donnant des informations convaincantes, mais fausses.

En tant que modèle de langage, ces IA se fondent sur des algorithmes qui leur permettent de fournir des résultats présentés comme irréprochable, et donc biaisé dès la base. Ils ne se remettent pas en question et malgré les arguments convaincants avancés, ils ne réfléchissent pas par eux même. On peut aussi signifier un problème de propriété intellectuelle qui est bafoué à tous les niveaux du processus.

La diffusion de fausses informations peu ou pas remises en question par les utilisateurs, l’accès à la propriété intellectuelle sans autorisation préalable, la production de contre-vérités, un ensemble de problèmes qui nécessite une utilisation contrôlée et prudente des IA. Il est primordial de comprendre qu’une IA ne pourra pas se frotter même de près à une intelligence humaine dotée de logique et d’analyse.

Articles similaires

Laissez un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.