Aller au contenu principal
FR
EN
Twitter
Github
CNIL.FR
Certains documents sont momentanément indisponibles à la consultation et au téléchargement. Veuillez nous excuser pour la gêne occasionnée.
Image
.
Toggle navigation
Dossiers
Expérimentations
Publications
Le LINC
Étiquette : IA
37
results
Understand machine unlearning: anatomy of a goldfish
07 mars 2025
Understand machine unlearning: anatomy of a goldfish
While the risks posed by AI models on training data are still being studied, and it seems difficult…
Digital watermark: a salutary transparency measure? [2/2]
07 mars 2025
Digital watermark: a salutary transparency measure? [2/2]
A well-known technique in copyright protection, digital watermarking has been put forward as a…
Overview and out perspective for artificial content detection solutions [1/2]
07 mars 2025
Overview and out perspective for artificial content detection solutions [1/2]
Recent excitement surrounding generative artificial intelligence systems has been accompanied by…
Foray into the security toolbox of large language models (1/2): targeted risks and security by design
07 mars 2025
Foray into the security toolbox of large language models (1/2): targeted risks and security by design
At a time when conversational agents are multiplying, the security of personal data processed via…
Foray into the security toolbox of large language models (2/2): security on the fly
07 mars 2025
Foray into the security toolbox of large language models (2/2): security on the fly
We are continuing the foray into the LLM security tool box with an overview of techniques aimed at…
Incursion dans la caisse à outils de la sécurité des grands modèles de langage (2/2) : la sécurité sur le vif
22 octobre 2024
Incursion dans la caisse à outils de la sécurité des grands modèles de langage (2/2) : la sécurité sur le vif
Nous poursuivons l’incursion dans la caisse à outil de la sécurité des GML par un tour d’horizon…
Incursion dans la caisse à outils de la sécurité des grands modèles de langage (1/2) : risques visés et sécurité dès la conception
22 octobre 2024
Incursion dans la caisse à outils de la sécurité des grands modèles de langage (1/2) : risques visés et sécurité dès la conception
A l’heure de la multiplication des agents conversationnels, la sécurité des données personnelles…
[1/3] Contrôle humain, décisions hybrides : quels enjeux ?
16 octobre 2024
[1/3] Contrôle humain, décisions hybrides : quels enjeux ?
Alors que les systèmes d’aide à la décision se répandent, leur usage dans des contextes…
[2/3] Croire ou douter : la question des biais de confiance dans la prise de décision
16 octobre 2024
[2/3] Croire ou douter : la question des biais de confiance dans la prise de décision
Alors que les systèmes d’aide à la décision se répandent, leur usage dans des contextes…
[3/3] Prédire sans expliquer, ou quand l’opacité algorithmique brouille les cartes
16 octobre 2024
[3/3] Prédire sans expliquer, ou quand l’opacité algorithmique brouille les cartes
Alors que les systèmes d’aide à la décision se répandent, leur usage dans des contextes…
Afficher plus
Haut de page