Retrouvez ici tous les articles en lien avec l'intelligence artificielle
Quels sont les risques techniques, éthiques et juridiques liés à ces technologies et aux nouveaux usages auxquels elles ouvrent la voie ? Le LINC publie quatre articles sur les enjeux des IA génératives.
La deuxième édition du Privacy Research Day a eu lieu à la CNIL à Paris le 14 juin 2023. Un panel de cette journée a permis aborder le sujet de l’Intelligence Artificielle sous l’angle des données.
Cette technique pouvant être mise en œuvre par une diversité de protocoles fait l’objet d’un nombre important de publications qui ont attiré l’attention du LINC.
Dans une interview pour le LINC, Camille Girard-Chanudet nous propose d'explorer les coulisses de la fabrique des Intelligence artificielles de justice.
Dans cet article, nous analysons les différentes solutions proposées pour reconnaitre les contenus artificiels et envisageons des pistes pour l’avenir de ces techniques.
Brandie par de nombreux acteurs comme la solution la plus robuste le tatouage numérique est pourtant une notion ambigüe dans le domaine de l’IA et peut être le nom de pratiques différentes. Cet article détaille chacune d’entre elles en s’appuyant sur une revue de littérature scientifique.
Les modèles de langage de grandes tailles (en anglais LLM pour large langage models) sont des constructions statistiques modélisant la distribution de séquences de mots dans de nombreuses langues. Ces dernières années ont vu leur importance grandir considérablement au point que de nouveaux modèles sont de plus en plus fréquemment édités, en particulier par les grands acteurs du numérique (GPT-3, BERT, Gopher, Megatron-Turing NLG, Chinchilla, PaLM, LaMDA, etc.). Toutefois de tels objets ne sont pas sans poser de questions, en particulier pour la protection des données.
En générant des données synthétiques, certains organismes prétendent parvenir à créer des données anonymes tout en conservant une certaine représentativité des données sources. Pourtant, un compromis doit forcément être fait entre la conservation des caractéristiques utiles et celles permettant de réidentifier les personnes. Alors, comment trouver ce compromis, et quels sont les risques qui lui sont liés ?
L'appétit en données de tous les secteurs grandissant, de nouvelles techniques émergent pour alimenter encore et toujours les serveurs en données de toutes sortes. La synthèse de données, en produisant des données à partir de données pourrait répondre aux besoins des réutilisateurs dans le respect des obligations de confidentialité. Mais les données synthétiques sont-elles vraiment anonymes ?
Dans quelle mesure les outils d’audit sont-ils capables d’aider à mieux comprendre le choix d’un système algorithmique ? Après avoir présenté les « règles du jeu » dans l’article précédent, voici la description des conditions dans lesquelles a été menée l’expérimentation et les résultats obtenus. Ces derniers démontrent clairement l’intérêt de tels outils, mais exposent également certaines limites.
Avec le développement croissant de systèmes algorithmiques se pose la question de leur audit à des fins de régulation. Cette question, renforcée par la publication de la proposition de règlement de la Commission européenne sur l'IA, est particulièrement complexe. Dans le cadre du partenariat noué avec Inria, la CNIL a souhaité expérimenter les outils IBEX et Algocate développés par Clément Henin pendant sa thèse.
Comment pourrait se dérouler un audit de système d’IA ? Après une présentation du contexte et des outils IBEX et Algocate développés par Clément Hénin* dans l’article précédent, passons à l’expérimentation « grandeur nature » qu’ont décidé de lancer la CNIL et Inria. Ce test a mis à contribution des agents de la CNIL : en voici les « règles du jeu ».
Les systèmes d’IA engendrent des risques de sécurité spécifiques en comparaison à des systèmes d’information classiques, tant les nouvelles capacités d’apprentissage automatique (machine learning) augmentent la « surface d’attaque » de ces systèmes, en introduisant de nombreuses (et nouvelles !) vulnérabilités. Le LINC vous propose un triptyque d’articles afin d'y voir plus clair.
L’approche classique consistant à mettre en commun les données d’entraînement collectées localement afin d’entraîner un modèle algorithmique s’avère parfois irréalisable en pratique pour des raisons de protection des données, de propriété intellectuelle, ou encore de logistique. Afin de contourner ce problème, des approches distribuées ont vu le jour.
La lutte contre la Covid-19 a été l’occasion d’utiliser les ressources offertes par l’intelligence artificielle (IA). De grands espoirs et ambitions ont ainsi été nourris. Toutefois, un an et demi après le début de la pandémie le bilan de son utilisation reste mitigé.
Dans le cadre de ses travaux sur les enjeux de régulation de l’intelligence artificielle, LINC s’est entretenu avec Nicolas Papernot, chercheur à l’Université de Toronto et au Vector Institute, dont le travail se situe à l'intersection des questions relatives à la sécurité, à la confidentialité et à l'apprentissage automatique (machine learning).
Pour mieux cerner les enjeux de l’apprentissage fédéré, approche décrite dans un article dédié, LINC a interrogé Aurélien Bellet et Marc Tommasi, chercheurs au sein de l’équipe Magnet (Machine Learning in Information Network), par laquelle collaborent Inria et l’université de Lille afin de résoudre certains problèmes éthiques liés à l’apprentissage machine.
A partir de ses travaux sur les algorithmes prédictifs dans la justice pénale aux États-Unis, la sociologue Angèle Christin présente les apports des approches ethnographiques pour étudier les « algorithmes en pratique ».
Les chercheurs de l'Inria exposent pour LINC les enjeux de l’explicabilité des algorithmes et leurs travaux de recherche sur ce sujet.
Spécialiste des questions de discrimination algorithmique, Philippe Besse évoque, outre les enjeux de transparence inhérents à l’usage de ces outils, les moyens qui pourraient être mis en œuvre pour assurer leur loyauté.
L'homologue de la CNIL porte son regard dans la boite noire de l'intelligence artificielle, dans un document publié en janvier 2018
Quand les voitures autonomes ne parviennent pas à reconnaitre des autocollants posés sur des voitures ou des panneaux de signalisation, elles nous apprennent beaucoup sur les conséquences pour nos sociétés de la multiplication de ces machines intelligentes, et notamment pour certaines de nos libertés, même les plus anodines.
Terreau de la science-fiction, l’intelligence artificielle (IA) n’est déjà plus un fantasme, mais bel et bien une réalité. Elle surprend, impressionne, terrorise, et fait couler beaucoup d’encre, mais la connaît-on vraiment ? Quels sont et seront ses impacts sur la vie privée ?
L'IA est plus artificielle que réellement intelligente, la raison pour laquelle elle est si vulnérable.
La multiplication des interactions intermédiées par des formes d’intelligence artificielle pose la question de nos relations avec les machines.
Une étude révèle que les images camouflées par pixellisation, floutage ou selon la méthode "p3", ne protègent pas toujours efficacement notre vie privée.