Informations

Linkin-news.com est un journal électronique tunisien développé par la société Linkin Way.

Nous sommes disponibles 24/ 7. Appelez-nous dès maintenant.
4.7/5 - (17 votes)

Les régulateurs financiers aux États-Unis ont désigné l’intelligence artificielle (IA) comme un risque pour le système financier pour la première fois. 

Dans son dernier rapport annuel, le Financial Stability Oversight Council a déclaré que l’utilisation croissante de l’IA dans les services financiers est une “vulnérabilité” qui doit être surveillée. 

Bien que l’IA offre la promesse de réduire les coûts, d’améliorer l’efficacité, d’identifier des relations plus complexes et d’améliorer les performances et la précision, elle peut également “introduire certains risques, y compris des risques liés à la sécurité et à la solidité, tels que les risques cybernétiques et les risques liés aux modèles”, a déclaré le FSOC dans son rapport annuel publié jeudi. 

Le FSOC, créé à la suite de la crise financière de 2008 pour identifier les risques excessifs dans le système financier, a déclaré que les évolutions en matière d’IA devraient être surveillées afin de garantir que les mécanismes de surveillance “tiennent compte des risques émergents” tout en facilitant “l’efficacité et l’innovation”. 

Les autorités doivent également “approfondir leur expertise et leurs capacités” pour surveiller le domaine, a ajouté le FSOC

La secrétaire au Trésor américain Janet Yellen, qui préside le FSOC, a déclaré que l’adoption de l’IA pourrait augmenter à mesure que l’industrie financière adopte les technologies émergentes et que le conseil jouera un rôle dans la surveillance des “risques émergents”. 

“Soutenir une innovation responsable dans ce domaine peut permettre au système financier de récolter des avantages tels qu’une efficacité accrue, mais il existe également des principes et des règles existants en matière de gestion des risques qui devraient être appliqués”, a déclaré Yellen. 

En octobre, le président américain Joe Biden a publié un décret présidentiel complet sur l’IA qui se concentrait largement sur les implications potentielles de la technologie pour la sécurité nationale et la discrimination. 

Les gouvernements et les universitaires du monde entier ont exprimé des inquiétudes quant à la rapidité vertigineuse du développement de l’IA, soulevant des questions éthiques concernant la vie privée individuelle, la sécurité nationale et la violation des droits d’auteur. 

Dans une enquête récente menée par des chercheurs de l’Université Stanford, les travailleurs de la technologie impliqués dans la recherche en IA ont averti que leurs employeurs ne mettaient pas en place des garanties éthiques malgré leurs engagements publics en faveur de la priorisation de la sécurité. 

La semaine dernière, les décideurs de l’Union européenne ont convenu d’une législation historique qui obligera les développeurs d’IA à divulguer les données utilisées pour former leurs systèmes et à effectuer des tests sur des produits à haut risque.

Share:

Avatar photo

administrator

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *