Chère Lectrice, cher Lecteur,Par
J’espère que vous avez passé un bel été. Pour ma part, j’en ai profité pour terminer mon travail de fin de cours sur la gouvernance de l’IA (« Tech Savvy or Tech Sorry. A Guide to Navigating the AI Around Us »). Vous pouvez le consulter ici – en version anglaise pour le moment – et je serais ravie de recevoir vos retours.
Les compromis se réfèrent à l’équilibre entre des priorités concurrentes lors de l’utilisation de systèmes d’intelligence artificielle. Cela signifie qu’optimiser un aspect de l’IA peut en compromettre un autre. Il est important de souligner que tous les cas présentés ici ne sont pas des « vrais » compromis. C’est à chacun de nous d’utiliser notre pensée critique (en tenant compte des risques encourus et de nos croyances personnelles) lors de la sélection et de l’utilisation d’une IA.
Prenons comme exemple la technologie de reconnaissance faciale (FRT), largement adoptée à des fins de sécurité, comme l’identification des individus dans les espaces publics et le renforcement de la sécurité dans les aéroports et lors d’événements publics. En 2019, la ville de San Francisco est devenue la première grande ville des États-Unis à interdire l’utilisation de la reconnaissance faciale par les agences municipales. Cette décision a été motivée par des préoccupations concernant la vie privée, le potentiel de mauvaise utilisation et le manque de transparence sur la manière dont la technologie était utilisée. C’est pour cette raison que l’AI Act de l’UE a déterminé que la reconnaissance faciale devait être soumise à des règles strictes et à des exigences pour son utilisation.
Ceci est un des exemples d’IA utilisée dans notre quotidien, et des questions qui se posent. Nous pourrions analyser toutes les IA de la même manière pour déterminer si notre confort (ou d’autres avantages) vaut le prix à payer pour nos droits individuels et sociétaux. Et vous, avez-vous réfléchi à cette question ?
Retrouvez l’ensemble de nos articles Inside