Tunisie – Lotfi Dhiab appelle à conjuguer les efforts pour faire réussir l'expérience des entreprises citoyennes    Ayoub Ghedamsi donne des détails sur l'affaire de Houssem Hajlaoui    Complot contre la sûreté de l'Etat : 12 accusés d'Ennahdha renvoyés en justice    L'Espagne va reconnaitre l'Etat de Palestine à cette date !    Tunisie – La Manouba : Jadida : Dix élèves intoxiqués par des bonbons offerts par leur camarade    Tunisie – La Manouba : Arrestation d'un individu recherché par Interpol    LTDH : non à la torture, non à la répression des libertés !    Audi offre un facelift aux Q7 et Q8 électrifiés    Le "lobbying" revient comme un boomerang : la Cour confirme les 3 ans de prison et l'amende d'un million de dollars    Le ministère italien de l'Environnement a autorisé le projet Elmed    ENNAKL Automobiles en avant dans le virage ESG de la Bourse de Tunis    Nabeul : Démantèlement d'un réseau de trafic de drogue    Cette année, le prix du mouton de l'Aïd monte en flèche    Recensement : Plus de 3 millions de ménages concernés    Mandat de dépôt contre Sherifa Riahi    Guerre en Ukraine: Situation actuelle (Ambassade d'Ukraine en Tunisie)    300 000 dinars pour l'approvisionnement alimentaire des élevages    Royaume-Uni/Etats-Unis: "La liberté de la presse dans le monde risque d'être durablement menacée" selon Amnesty International    Symposium international 'Comment va le monde? Penser la transition' à Beit al-Hikma    CA : 5 billets par supporter pour le derby tunisien    Rencontre avec les lauréats des prix Comar d'Or 2024    Hechmi Marzouk expose 'Genèse Sculpturale' à la galerie Saladin du 18 mai au 23 juin 2024    Daily brief régional du 17 mai 2024: Des peines de huit mois de prison pour 60 migrants irréguliers subsahariens    ST: Rêver plus grand    Ligue des champions — L'EST affronte Al Ahly en finale (Demain à Radès — 20h00) Mohamed Amine Ben Hmida : "Pour l'emporter, nous devons être concentrés et sobres !"    Vient de paraître — Des sardines de Mahdia à la passion: des mathématiques La vie fascinante de Béchir Mahjoub    COINNOV : Ouverture de la deuxième session de candidature pour le Fonds dédié aux PME industrielles    Le CA affronte le CSKorba à Korba: Siffler la fin de la récréation    Exposition «punctum» de Faycel Mejri à la Galerie d'art Alexandre-Roubtzoff: L'art de capturer l'éphémère    Ce samedi, l'accès aux sites, monuments et musées sera gratuit    Raoua Tlili brille aux championnats du monde paralympiques    Pourquoi: Diversifier les activités…    Pris sur le vif: La valse des étiquettes    Le Mondial féminin 2027 attribué au Brésil    Industrie du cinéma : une affaire de tous les professionnels    Mokhtar Latiri: L'ingénieur et le photographe    Météo de ce vendredi    16 banques locales accordent à l'Etat un prêt syndiqué de 570 millions de dinars    Le ministre de l'Agriculture supervise l'achèvement des travaux de surélévation du barrage Bouhertma    La croissance n'est pas au rendez-vous    Basket – Pro A : résultats complets de la J2 play-out (vidéo)    Palestine : la Tunisie s'oppose aux frontières de 1967 et à la solution à deux Etats    Bank ABC sponsor de la paire Padel Hommes    76e anniversaire de la Nakba : La Tunisie célèbre la résistance du peuple palestinien    En bref    Nakba 1948, Nakba 2024 : Amnesty International dénonce la répétition de l'histoire    Urgent : Une secousse sismique secoue le sud-ouest de la Tunisie    Le roi Charles III dévoile son premier portrait officiel    







Merci d'avoir signalé!
Cette image sera automatiquement bloquée après qu'elle soit signalée par plusieurs personnes.



Maledh Marrakchi: Ethique et gouvernance de L'intelligence artificielle générative
Publié dans Leaders le 20 - 06 - 2023

L'intelligence artificielle (IA) est un domaine en pleine effervescence qui suscite beaucoup d'enthousiasme et d'inquiétudes. Le développement de systèmes d'IA avec apprentissage automatique (ou apprentissage machine-Machine Learning) de plus en plus puissants pousse les limites des possibilités de cette technologie. En apprentissage machine, il existe principalement deux sous-catégories de modèles: les modèles apprenants discriminatifs et les modèles apprenants génératifs.
La majorité des modèles utilisés sont discriminatifs. Que ce soit pour la classification, la segmentation ou la régression, il s'agit de modèles d'apprentissage machine ayant comme principe de base d'associer un enregistrement en entrée (x) à une valeur de sortie (y). Par exemple, un cas où une image x en entrée est classifiée par le modèle dans une classe prédéterminée (de chats, de chiens, de véhicules, etc.). Peu importe la technique d'apprentissage (par un réseau de neurones artificiels ou un arbre de décision), le principe de fonctionnement des modèles discriminatifs est le même: associer une variable d'entrée à un label de sortie bien spécifique. Les modèles génératifs représentent une catégorie à part. Contrairement aux modèles discriminatifs qui associent les valeurs d'entrée à des étiquettes de sortie, ils ont pour objectif de générer de nouvelles données suivant des règles et des conditions spécifiques. Les modèles génératifs sont capables d'apprendre les caractéristiques communes d'une collection de données et, ensuite, de générer des données similaires. Au moment où les modèles discriminatifs associent un enregistrement x à une étiquette y, les modèles génératifs génèreront un autre enregistrement x'. Par exemple, si l'enregistrement x est l'image «d'un chat», associé à une étiquette y «la classe chats», un bon modèle génératif sera capable de générer une image de chat x' si réaliste qu'un modèle discriminatif pourra l'associer à une étiquette y (classe de chats).
Il existe une multitude d'utilités pour les modèles génératifs. Historiquement, comme ils étaient difficiles à entraîner, les cas d'usage opérationnels étaient limités. Actuellement, la construction d'un modèle d'IA générative est devenue possible grâce à l'augmentation de la puissance de calcul et à la quantité de stockage de données disponible. ChatGPT en est un exemple et a été formé sur 45 téraoctets de données textuelles pour un coût estimé à plusieurs millions de dollars américains. Ce type d'outils génératifs peut créer une grande variété de textes, puis répondre aux critiques pour rendre le texte plus adapté à son objectif.
L'IA générative se trouve à un point de basculement en termes d'adoption et d'impact, tout comme l'apprentissage automatique et l'IA il y a quelques années. Mais cette fois, les enjeux, l'environnement réglementaire, les effets sociaux, politiques et économiques potentiels de ces technologies et le rythme exponentiel de l'adoption et de l'évolution sont différents. Beaucoup de voix s'élèvent aujourd'hui pour dire que le moment est venu de poser la question suivante: comment les régulateurs et les entreprises devraient-ils permettre une transparence significative des technologies d'IA générative afin de garantir la responsabilité vis-à-vis de la société? Ces technologies ne sont pas dénuées de potentiel. L'amélioration des technologies d'accessibilité grâce à la génération d'images à partir de textes est prometteuse. Le potentiel de personnalisation de l'éducation avec de l'IA et l'IA générative particulièrement pourrait être transformateur. Les applications de l'IA générative dans les domaines de la santé, de l'industrie pharmaceutique, de l'industrie chimique et d'autres, offrent des potentiels énormes. L'IA générative peut améliorer l'efficacité de la conception et pourrait contribuer aux efforts de développement durable. Comment pouvons-nous donc tirer parti de ces avantages tout en évitant les inconvénients? Quels sont les systèmes de gouvernance nécessaires? Quelles sont les capacités techniques à développer pour ces systèmes de gouvernance afin de garantir que la technologie réponde aux besoins de la société?
Plusieurs gouvernements, organismes et experts explorent les mécanismes permettant une surveillance technique responsable de l'IA générative. Parmi les sujets cruciaux pour l'IA générative à explorer, citons: les nouveaux développements en matière de dommages et leurs impacts, l'équilibre entre la transparence et la sécurité dans la recherche ouverte, et la manière de permettre un contrôle technique significatif dans le paysage réglementaire naissant, l'impact sur les droits d'auteur et de propriété intellectuelle, etc. Ces problématiques alimentent les thèmes et les questions clés que les régulateurs et les auditeurs techniques indépendants devraient comprendre et être prêts à aborder. Le cas de l'IA a particulièrement mis en exergue l'influence, de plus en plus importante, des compagnies privées dans le domaine public et la nécessité de repenser les voies de la responsabilisation des acteurs privés à l'ère des algorithmes.
Ces nouvelles technologies ont le pouvoir énorme d'amplifier les préjudices existants et d'en créer de nouveaux d'une manière que nous ne pouvons pas encore imaginer. Par exemple, l'IA générative peut aider à produire des documents efficaces pour les campagnes de propagande à une échelle beaucoup plus rapide et avec un niveau de précision plus élevé que ce qui était possible auparavant. En outre, les modèles renvoient souvent des réponses erronées en toute confiance, citant même des documents "inexistants" ou d'autres documents de référence qui existent sans garde-fous empiriques. L'intégration des modèles génératifs dans les moteurs de recherche, l'assistance à la clientèle et d'autres outils essentiels utilisés par le public suscite des inquiétudes légitimes quant au tissu social de la confiance et de la démocratie. Le rythme de croissance et d'évolution de ces modèles est rapide. En lançant de nouveaux modèles, les entreprises brouillent la frontière entre "recherche" et "produit", tout en s'efforçant de trouver un équilibre entre transparence et sécurité. Etant donné que ces modèles sont formés à partir de données publiques, des voix s'élèvent aussi pour demander qu'ils soient exploités ouvertement et en tant que ressource publique. Cependant, les modèles à source ouverte - bien qu'ils soient ambitieux - peuvent réduire les capacités à freiner les acteurs malveillants. Pour permettre une transparence responsable, les modèles de "recherche ouverte" doivent tenir compte des risques d'utilisation malveillante. Les législateurs sont aux prises avec la réglementation de ces systèmes dans un environnement réglementaire de l'IA naissant. De nombreuses réglementations naissantes et possibles s'appuient sur l'audit technique et l'accès aux données en tant que mécanisme de transparence clé pour garantir la responsabilité. Toutefois, pour que ces mécanismes constituent un outil de responsabilisation efficace, nous devons mieux comprendre ce qui a changé (le cas échéant) avec les progrès de l'IA générative, où se situent les compromis entre transparence et sécurité, et quelles sont les capacités techniques nécessaires en dehors de l'industrie pour mettre en œuvre une surveillance technique efficace.
Stephen Hawking disait : «Notre avenir est une course entre le pouvoir croissant de la technologie et la sagesse avec laquelle nous l'utilisons». L'innovation ne peut fleurir que dans un espace de libertés, mais il nous appartient d'avoir la sagesse d'en faire bon usage.
Maledh Marrakchi
Universitaire, spécialiste en IA


Cliquez ici pour lire l'article depuis sa source.