La loi européenne sur l'intelligence artificielle contient des dispositions relatives à la surveillance. Cette disposition marque la tentative de l'UE d'établir un nouvel équilibre entre le développement technologique et la protection des droits fondamentaux. Ce projet de loi procède à une gestion hiérarchique des systèmes d'intelligence artificielle à des fins de surveillance et propose des catégories claires d'interdictions, à haut risque et à risque limité. L’objectif est de lutter contre les abus liés aux technologies de surveillance, tout en laissant un espace correspondant à l’innovation en matière de conformité. L’essentiel est de garantir que les activités de surveillance sont menées dans le cadre de l’État de droit et dans le respect de la dignité humaine et de la vie privée.

Comment le projet de loi de l’UE sur l’IA définit la surveillance à haut risque

Il existe un tel projet de loi, qui définit les systèmes de surveillance « à haut risque » comme les applications qui constituent une menace potentielle importante pour la sécurité des personnes ou les droits fondamentaux dans des domaines critiques. Plus précisément, la surveillance biométrique à distance en temps réel utilisée dans les contextes d'application de la loi sera classée dans cette catégorie, ainsi que les recherches biométriques post-événement dans les lieux publics (comme l'utilisation de la reconnaissance faciale pour retrouver des suspects). Suspects) seront classés dans cette catégorie, tout comme les systèmes de reconnaissance des émotions utilisés sur les lieux de travail et dans les établissements d'enseignement. La clé de cette définition réside dans la « sensibilité contextuelle » qu’elle présente, c’est-à-dire que la même technologie de reconnaissance faciale sera traitée de manière complètement différente par la loi lorsqu’elle est utilisée pour déverrouiller des téléphones portables et lorsqu’elle est utilisée pour filtrer les foules à grande échelle sur les places.

L’identification des catégories à haut risque déclenchera une série d’obligations strictes. Les fournisseurs doivent procéder à une évaluation de qualification avant de mettre le système sur le marché, établir un système de gestion des risques, garantir la haute qualité des ensembles de données pour réduire les biais, fournir une documentation technique détaillée et des informations sur les utilisateurs, et les institutions ou entreprises publiques déployant de tels systèmes de surveillance doivent mener des évaluations d'impact sur les droits fondamentaux pour garantir que l'utilisation du système a une base juridique, une nécessité et une proportionnalité claires, et accepter une supervision manuelle. Ces exigences visent à enfermer le pouvoir de surveillance dans une cage institutionnelle.

Quelles applications de surveillance de l'IA sont explicitement interdites dans l'UE

Le projet de loi s’engage à protéger les droits fondamentaux comme une ligne rouge clé et interdit clairement plusieurs types d’applications de surveillance hautement intrusives. La plus notable d’entre elles est l’interdiction de la surveillance biométrique à distance en temps réel par les forces de l’ordre dans les lieux publics, bien qu’il existe quelques exceptions strictement limitées, par exemple pour retrouver des victimes spécifiques d’enlèvement ou pour prévenir des menaces imminentes posées par des attaques terroristes. L'interdiction répond directement aux profondes inquiétudes concernant une « société de surveillance ».

Selon le projet de loi, l'utilisation de données biométriques basées sur des personnes physiques pour mettre en œuvre des systèmes de déduction de classification aveugles sera interdite, comme par exemple déduire des tendances politiques, l'orientation sexuelle ou la fiabilité à travers les visages. Les technologies subliminales conçues pour manipuler le comportement humain et contourner leur libre arbitre sont toujours interdites. Ces interdictions délimitent les limites éthiques du développement technologique et indiquent que même si elles sont techniquement réalisables, certaines applications de surveillance qui nuisent fondamentalement à la structure sociale ne sont pas autorisées à exister. Cela incarne le « principe de précaution ».

Quelles sont les exigences de conformité pour les entreprises utilisant l’IA pour surveiller leurs employés ?

Pour que les entreprises déploient une surveillance de l’IA sur le lieu de travail, le projet de loi définit une voie de conformité claire. Si le système est utilisé pour la sélection du recrutement, l'évaluation des promotions, l'organisation des tâches de travail ou le suivi du comportement et des performances des employés, il est très probable qu'il soit considéré comme un système à haut risque. Cela montre que les entreprises ne peuvent pas introduire des logiciels de surveillance au hasard, qu'elles doivent assumer toutes les responsabilités de conformité pour les systèmes à haut risque et accorder une attention particulière à la protection des données.

Les entreprises doivent informer de manière transparente les salariés ou leurs représentants sur l'existence, le but et la logique du contrôle. Il doit y avoir une base juridique plus stricte pour le traitement de catégories particulières de données telles que les données biométriques. Plus important encore, pour toute décision basée uniquement sur un traitement automatisé et ayant un impact juridique ou similaire significatif sur les salariés, comme un licenciement automatique, les salariés ont le droit d'obtenir une intervention humaine, d'exprimer leurs opinions et de recevoir des explications. Le cœur de la conformité réside dans le traitement des employés comme des sujets de droits plutôt que comme de simples objets de gestion.

Quelle autorisation est requise pour que les organismes publics puissent déployer des systèmes de surveillance ?

Ce ne sont pas les institutions publiques, notamment les forces de l’ordre, qui sont confrontées aux contraintes les plus strictes lors du déploiement de systèmes de surveillance par IA. En plus de devoir se conformer aux règles générales applicables aux systèmes à haut risque, l'utilisation de leurs systèmes doit être clairement autorisée par le droit de l'UE ou des États membres, c'est-à-dire que la loi sur l'autorisation doit clairement définir le but de l'utilisation, la loi sur l'autorisation doit clairement définir la portée géographique, la loi sur l'autorisation doit clairement définir la période de conservation des données et la loi sur l'autorisation doit clairement définir les garanties pertinentes.

Même les exceptions autorisées par le projet de loi, comme l'utilisation de la biométrie en temps réel pour rechercher des enfants disparus ou prévenir des attentats terroristes, nécessitent toujours une autorisation préalable d'organismes judiciaires ou administratifs indépendants, ou l'autorisation doit être complétée en cas d'urgence. Quelle que soit l'heure à laquelle il est utilisé, des enregistrements et des rapports détaillés doivent être conservés pour garantir que l'ensemble du processus peut être retracé et audité. Ceci est fait pour empêcher l’expansion sans fin et les abus du pouvoir de surveillance et pour garantir que chaque fois que le pouvoir de surveillance est exercé, il peut résister à une stricte responsabilité démocratique.

Quelles sont les obligations de transparence des systèmes de surveillance de l’IA ?

Il existe une pierre angulaire, à savoir la transparence, qui renforce la confiance dans la société. Il existe un projet de loi qui obligerait les fournisseurs et les déployeurs de systèmes d'IA à haut risque à veiller à ce que leurs opérations ne soient pas des « boîtes noires ». Les exigences relatives à la documentation technique fournie aux autorités réglementaires doivent être détaillées. Les informations fournies aux personnes concernées par la surveillance, telles que les membres du public analysés ou les employés évalués, doivent être claires et compréhensibles. Cela inclut la raison pour laquelle le système est utilisé, quel est son objectif, qui est l'entité responsable et quels sont les droits de l'individu.

Les systèmes d’IA qui interagissent directement avec le public, comme les robots de discussion ou les dispositifs de reconnaissance des émotions, doivent clairement identifier leurs attributs d’intelligence artificielle. Lors de l'utilisation de systèmes de reconnaissance des émotions ou de classification biométrique, les parties doivent être informées que ces obligations de transparence ne sont pas seulement liées au droit de savoir, mais aussi une condition préalable pour que les individus puissent exercer leur droit d'opposition, de recours ou d'obtention d'un examen manuel, brisant ainsi l'asymétrie de la technologie de surveillance.

Quelles sont les sanctions en cas de violation des dispositions de surveillance de la loi sur l'IA ?

Le projet de loi établit un système de sanctions strictes et progressives requis pour la mise en œuvre des dispositions. Pour les activités interdites de surveillance de l’IA, l’amende maximale est de 7 % du chiffre d’affaires annuel mondial ou de 35 millions d’euros, le montant le plus élevé étant retenu. En cas de fourniture ou de déploiement de systèmes de surveillance à haut risque mais non-respect des obligations en vigueur, l'amende maximale est de 3 % du chiffre d'affaires annuel global ou de 15 millions d'euros.

Au lieu d’imposer de lourdes amendes, les régulateurs ont également le pouvoir de retirer du marché le système incriminé, de révoquer sa certification CE et d’exiger des fournisseurs qu’ils rappellent leurs produits. Des violations graves peuvent même entraîner une interdiction temporaire d’activité. Ces sanctions constituent non seulement un puissant moyen de dissuasion financière, mais elles sont également liées à la réputation de l'entreprise et à ses capacités opérationnelles continues, obligeant tous les acteurs du marché à prendre la conformité au sérieux.

Cette législation de l’UE fournit une norme de référence stricte pour la gouvernance mondiale de l’IA, mais il reste à déterminer si elle peut être efficacement mise en œuvre dans la réalité technique complexe et les besoins en matière d’application de la loi. À votre avis, un cadre réglementaire aussi strict protégera-t-il efficacement les libertés et les droits civils, ou risque-t-il également d'entraver la capacité de l'Europe à innover et à être compétitive dans le domaine des technologies de sécurité ? Vous êtes chaleureusement invités à partager vos opinions et vos idées dans la zone de commentaires. Si cet article vous a inspiré, n'hésitez pas à liker et à soutenir.

Posted in

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *