| EN BREF
|
Les agences fédérales américaines se retrouvent confrontées à un manque d’informations essentielles concernant plusieurs de leurs systèmes d’IA à haut risque. De nombreux algorithmes acquis pour surveiller la sécurité des citoyens, tels que ceux utilisés dans les contrôles de sécurité des voyageurs, souffrent d’une absence de documentation appropriée sur la qualité des données utilisées lors de leur développement. Les agences comme Customs and Border Protection et la Transportation Security Administration ne possèdent pas les informations détaillées sur ces systèmes, ce qui soulève des inquiétudes concernant les conséquences pour les droits civils et la sécurité des individus. En outre, des algorithmes liés à la santé des anciens combattants soulèvent des questions sur la manière dont les données médicales ont été collectées, potentiellement compromettant l’intégrité des modèles. Cette situation met en lumière la dépendance croissante du gouvernement envers les entreprises privées pour la gestion de systèmes d’IA jugés risqués, sans un contrôle suffisant sur leurs algorithmes.
Résumé
Les agences fédérales américaines sont confrontées à un défi majeur en ce qui concerne l’acquisition et l’utilisation d’algorithmes d’intelligence artificielle (IA). Ces systèmes, qui ont le potentiel d’affecter la sécurité physique et les droits civiques des citoyens, manquent souvent d’informations essentielles sur leur fonctionnement et leur formation. Des études récentes révèlent qu’un grand nombre de ces algorithmes ont été acquis sans documentation adéquate, soulevant des inquiétudes quant à leurs implications éthiques et opérationnelles.
La dépendance croissante aux algorithmes d’IA
Au cours des dernières années, les agences fédérales ont de plus en plus adopté l’intelligence artificielle pour améliorer l’efficacité et la prestation des services. Cependant, cette adoption rapide a mis en lumière l’absence d’un cadre réglementaire clair concernant l’évaluation des risque associés à ces technologies. Lors des rapports sur les systèmes d’IA utilisés par le gouvernement, il a été constaté que moins de la moitié des algorithmes jugés à haut risque étaient développés en interne, la plupart provenant de sociétés privées.
Le manque de documentation et de transparence
Les agences comme la Customs and Border Protection (CBP) et la Transportation Security Administration (TSA) ne détiennent pas de documentation concernant la qualité des données utilisées pour concevoir les algorithmes qui analysent la sécurité des voyageurs. Leurs rapports d’inventaire de l’IA de 2024 montrent qu’il existe une méfiance croissante quant à la fiabilité de ces systèmes d’intelligence artificielle.
Les défis de l’acquisition d’algorithmes
Le Veteran Health Administration est un exemple de l’acquisition d’algorithmes sans compréhension claire de leur fonctionnement. L’agence a commencé à négocier avec une entreprise privée pour obtenir un algorithme capable de prédire des maladies chroniques parmi les vétérans. Cependant, l’origine des données médicales nécessaires au servie reste floue, ce qui soulève la question de la légitimité de ces systèmes à prédire des conditions critiques.
Les conséquences d’un manque de contrôle sur les algorithmes
Il a été révélé que plus de 100 algorithmes en usage peuvent avoir un impact non négligeable sur les droits civils et la sécurité physique des citoyens, mais que les agences n’ont pas accès à des éléments cruciaux comme le code source. Cette situation non seulement limite la capacité des agences à comprendre comment ces algorithmes prennent des décisions, mais cela accroît également le risque potentiel de biais et de discrimination.
Études internes et impact négatif des algorithmes
Des études internes ont mis en lumière de graves problèmes liés à certains algorithmes à haut risque déployés par les agences fédérales. Par exemple, un modèle raciste utilisé par l’IRS pour déterminer quels contribuables auditer a été critiqué pour ses biais. Une autre étude a révélé qu’un algorithme de prévention du suicide déployé par le VA favorise les hommes blancs sur d’autres groupes ethniques, illustrant les dangers de l’opacité dans l’IA.
La nécessité d’un encadrement réglementaire
Le manque d’évaluation rigoureuse des risques associés à ces systèmes a conduit à un appel croissant pour une réglementation stricte. L’administration Biden a mis en place des directives spécifiques pour évaluer les systèmes d’IA à haut risque, exigeant que des évaluations approfondies soient menées. Toutefois, certaines agences, comme le Department of Justice, n’ont pas encore publié leurs propres inventaires d’IA.
Résistance à la réglementation
Certains fournisseurs de logiciels et d’IA se sont opposés à ces nouvelles règles, affirmant que celles-ci pourraient être trop restrictives et nuire à leur capacité à innover. Ils soutiennent que les agences devraient être libres de décider de la transparence exigée en fonction de chaque cas particulier. Ce conflit pose la question de l’équilibre entre innovation technologique et sécurité publique.
L’appel à la transparence et à la responsabilité
Les experts appellent à une transparence accrue dans la manière dont les systèmes d’IA sont acquis et utilisés. Les documents tels que des scorecards, qui décrivent les données et techniques d’apprentissage des algorithmes, sont considérés comme un début positif, mais non suffisant. La nécessité d’un cadre juridique clair pour protéger les droits des citoyens et garantir l’intégrité des systèmes d’IA devient donc de plus en plus pressante.
Risques à long terme associés à l’IA
Les implications d’un manque de contrôle sur les algorithmes d’IA peuvent être lourdes. L’acquisition imprudente de ces systèmes pourrait non seulement nuire à la confiance du public envers les agences gouvernementales, mais aussi avoir des répercussions graves sur la société, en exacerbant l’inégalité et les biais systémiques. Par conséquent, une réglementation proactive est nécessaire pour éviter une crise de confiance et protéger les droits civiques.
Conclusion anticipée
Alors que les agences fédérales continuent de s’appuyer sur des systèmes d’IA, il est impératif qu’elles aient accès aux informations nécessaires pour garantir la sécurité et les droits des citoyens. La mise en œuvre d’un cadre transparent d’acquisition et d’évaluation des systèmes d’IA semble plus que jamais incontournable pour éviter les dérives et les abus liés à ces technologies.
Conclusion sur le manque d’informations critiques pour les systèmes d’IA des agences fédérales
Les récentes révélations concernant le manque d’accès aux données et à la documentation des systèmes d’intelligence artificielle (IA) au sein des agences fédérales soulèvent des inquiétudes majeures quant à la sécurité et aux droits civils. Bien que ces technologies soient de plus en plus intégrées dans des processus décisionnels sensibles, il est alarmant de constater que les agences utilisent un nombre considérable d’algorithmes sans comprendre pleinement leur fonctionnement, leur origine ou leur capacité à générer des biais.
Le recours croissant à des solutions fournies par des entreprises privées amplifie le risque, car ces partenaires commerciaux ne partagent pas toujours les informations nécessaires pour évaluer des systèmes qui peuvent affecter directement la vie des citoyens. Par exemple, des algorithmes que l’on suppose capables de prédire des maladies ou d’évaluer des menaces à la sécurité publique pourraient, s’ils sont maltrainés ou incompris, exacerbent les inégalités ou nuire à la justice.
Le besoin urgent de transparence et de régulation dans la gestion des systèmes d’IA est donc primordial. Les agences fédérales doivent être tenues de respecter des normes strictes en matière d’évaluation et de documentation des algorithmes qu’elles utilisent, afin d’assurer une gouvernance responsable et de préserver les droits des individus. L’absence de mécanismes robustes de contrôle pourrait entraîner des dérives inquiétantes et des résultats imprévisibles pour la société dans son ensemble.
En somme, il est essentiel que le gouvernement établisse des directives claires permettant d’exiger la transparence des processus liés à l’IA, afin de protéger les citoyens et de garantir que ces technologies servent véritablement l’intérêt public, plutôt que de se traduire par des résultats biaisés ou pernicieux.
Sur le même sujet
Comment anticiper les évolutions des citrouilles algorithmiques ?
Dans un monde où la technologie évolue à une vitesse fulgurante, anticiper les changements au sein des citrouilles algorithmiques devient un enjeu crucial. Ces algorithmes, véritables moteurs de notre stratégie numérique, exigent une compréhension approfondie pour rester à la pointe…
Un Algorithme d’IA Nous Rapproche de la Prédiction des Aurores Boréales
En plein cœur de la quête scientifique, un nouvel espoir se profile à l’horizon de la compréhension des aurores boréales. Grâce aux avancées en intelligence artificielle, des chercheurs sont désormais en mesure de trier et d’analyser des millions d’images de…
EN BREF Département de la Justice dépose une plainte contre six grands bailleurs. Accusation de participation à un système de tarification algorithmique. Agissements nuisibles pour des millions de locataires aux États-Unis. Bailleurs incriminés : RealPage, Greystar, Blackstone, Camden, Cushman &…
Le monde de la médecine est en constante évolution grâce aux avancées technologiques, notamment dans le domaine de l’intelligence artificielle (IA). Récemment, une équipe de chercheurs de Mount Sinai a mis au point un algorithme révolutionnaire qui promet d’améliorer considérablement…
ByteDance, le parent de TikTok, réfute l’idée que ses algorithmes génèrent des bulles de filtres
Dans un contexte où les inquiétudes concernant l’influence des algorithmes sur notre consommation de contenu sont de plus en plus omniprésentes, ByteDance, l’entreprise mère de TikTok, s’est récemment exprimée sur le sujet. Un membre exécutif de la société a affirmé…

