Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the naxly domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/literatiatimbdeb/public_html/wp-includes/functions.php on line 6131
Warning: The magic method Merlin_Logger::__wakeup() must have public visibility in /home/literatiatimbdeb/public_html/wp-content/themes/naxly/demo-import/includes/class-merlin-logger.php on line 194 Intelligence Artificielle, Chatbots, Éthique et Vie Privée : Entretien avec Sébastien Gambs – LiteratIA Notice: Function WP_Styles::add was called incorrectly. The style with the handle "naxly-child-style" was enqueued with dependencies that are not registered: naxly-style. Please see Debugging in WordPress for more information. (This message was added in version 6.9.1.) in /home/literatiatimbdeb/public_html/wp-includes/functions.php on line 6131
Intelligence Artificielle, Chatbots, Éthique et Vie Privée : Entretien avec Sébastien Gambs
Dans cette vidéo, nous avons le plaisir d’échanger avec Sébastien Gambs, professeur au département d’informatique de l’UQAM et titulaire de la chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives. Le sujet du jour porte sur l’intelligence artificielle (IA), les chatbots, l’éthique et la vie privée.
Sébastien Gambs s’intéresse aux tensions existantes entre l’analyse des données massives et le respect de la vie privée, ainsi qu’aux problématiques éthiques soulevées par les systèmes personnalisés. Il souligne que l’utilisation de données massives permet de créer des services personnalisés et d’extraire des connaissances pour le bien de la société. Cependant, il est nécessaire de considérer les enjeux éthiques, notamment la protection de la vie privée, la discrimination, et la transparence.
Sébastien explique que les modèles d’IA peuvent potentiellement reconstruire les données d’entraînement, ce qui pose un risque pour la vie privée des individus. De plus, ces modèles peuvent reproduire et renforcer les biais historiques s’ils sont entraînés sur des données biaisées. La transparence est également un enjeu important, car il est nécessaire d’expliquer les décisions des systèmes d’IA aux utilisateurs et de leur permettre de les contester.
S’agissant de la protection du consommateur et du citoyen, notre invité évoque les efforts déployés par les comités éthiques dans la recherche publique pour mieux aborder les enjeux des données massives et de l’IA. Cependant, il souligne les difficultés rencontrées par les entreprises pour opérationnaliser ces enjeux éthiques et rendre des comptes à la société. Il mentionne également le phénomène du “blanchiment éthique” en apprentissage machine, où les entreprises donnent l’impression d’avoir pris en compte les enjeux éthiques sans réellement les résoudre.
Sébastien plaide pour une législation forte pour réguler l’utilisation de l’IA, citant l’exemple du projet européen AI Act. Il estime que l’auto-régulation des entreprises a ses limites et qu’une législation solide est nécessaire pour garantir une gestion éthique et responsable de l’IA.
En conclusion, cette vidéo met en lumière les défis et les enjeux éthiques liés à l’utilisation des données massives et de l’intelligence artificielle, soulignant l’importance de la législation et de la prise en compte des problématiques éthiques pour assurer une utilisation responsable et respectueuse de la vie privée.