Est-que notre confort nous coûte cher grâce à l’IA?

2 septembre 2024

Est-que notre confort nous coûte cher grâce à l’IA?
Par Cecilia Garcia Podoley

Chère Lectrice, cher Lecteur,Par

J’espère que vous avez passé un bel été. Pour ma part, j’en ai profité pour terminer mon travail de fin de cours sur la gouvernance de l’IA (« Tech Savvy or Tech Sorry. A Guide to Navigating the AI Around Us »). Vous pouvez le consulter ici – en version anglaise pour le moment – et je serais ravie de recevoir vos retours.

Aujourd’hui, je vous présente un petit résumé du chapitre sur les « compromis » (« trade-offs ») dans le contexte de l’IA.

Les compromis se réfèrent à l’équilibre entre des priorités concurrentes lors de l’utilisation de systèmes d’intelligence artificielle. Cela signifie qu’optimiser un aspect de l’IA peut en compromettre un autre. Il est important de souligner que tous les cas présentés ici ne sont pas des « vrais » compromis. C’est à chacun de nous d’utiliser notre pensée critique (en tenant compte des risques encourus et de nos croyances personnelles) lors de la sélection et de l’utilisation d’une IA.

Prenons comme exemple la technologie de reconnaissance faciale (FRT), largement adoptée à des fins de sécurité, comme l’identification des individus dans les espaces publics et le renforcement de la sécurité dans les aéroports et lors d’événements publics. En 2019, la ville de San Francisco est devenue la première grande ville des États-Unis à interdire l’utilisation de la reconnaissance faciale par les agences municipales. Cette décision a été motivée par des préoccupations concernant la vie privée, le potentiel de mauvaise utilisation et le manque de transparence sur la manière dont la technologie était utilisée. C’est pour cette raison que l’AI Act de l’UE a déterminé que la reconnaissance faciale devait être soumise à des règles strictes et à des exigences pour son utilisation.

Quelles sont les implications éthiques ? On peut identifier des risques dans trois domaines concrets :

  • Vie privée : L’utilisation de la FRT dans les espaces publics peut empiéter sur la vie privée des individus en surveillant et en enregistrant constamment leurs mouvements sans leur consentement.
  • Consentement : Les individus ne sont souvent pas conscients ou ne consentent pas à ce que leurs données soient collectées et utilisées par la FRT.
  • Mauvaise utilisation : Il existe un potentiel de mauvaise utilisation par les autorités ou des acteurs malveillants, entraînant une identification erronée et des discriminations.

Quels sont les potentiels compromis pour l’utilisateur final ?

  • Sécurité vs Vie privée : Bien que la FRT puisse renforcer la sécurité et aider à identifier les criminels, elle constitue également une menace significative pour la vie privée et les libertés civiles. Parfois, les gens disent « je n’ai rien à cacher », oubliant que la loi protège notre droit à ne pas subir d’interférences de l’État dans notre vie privée. Est-ce que les potentiels risques pour la sécurité justifient l’utilisation de technologies invasives ? Si oui, jusqu’où l’État peut-il pousser cette vigilance ? Quelles sont les limites ?
  • Sécurité vs Transparence : Le manque de transparence sur le fonctionnement des systèmes de FRT et l’utilisation des données rend difficile pour le public de faire confiance à ces technologies. Nous ne savons pas forcément qui a accès à notre image et à nos données, quelles sont les garanties en place pour éviter des abus, ou quels sont les recours pour l’individu en cas de violation de ces droits.

Ceci est un des exemples d’IA utilisée dans notre quotidien, et des questions qui se posent. Nous pourrions analyser toutes les IA de la même manière pour déterminer si notre confort (ou d’autres avantages) vaut le prix à payer pour nos droits individuels et sociétaux. Et vous, avez-vous réfléchi à cette question ?

Retrouvez l’ensemble de nos articles Inside

 

Recommandé pour vous