Maison  >  Article  >  Périphériques technologiques  >  Les experts mettent en garde : l’intelligence artificielle pourrait déclencher la prochaine crise financière

Les experts mettent en garde : l’intelligence artificielle pourrait déclencher la prochaine crise financière

WBOY
WBOYavant
2023-08-22 19:57:18670parcourir

Selon un rapport publié le 15 août sur le site espagnol « Confidentiel », l'intelligence artificielle (IA) change rapidement notre société, et il existe encore des domaines inconnus quant à son impact sur l'économie. Cependant, certains ont averti que le risque que ces algorithmes d’apprentissage automatique provoquent un nouvel effondrement financier est réel. Le président de la Securities and Exchange Commission des États-Unis, Gary Gensler, a également lancé un avertissement, déclarant que « l'intelligence artificielle sera au cœur des futures crises financières et que les régulateurs seront confrontés à d'énormes défis »

Dans une interview avec Bloomberg, Gensler, en tant que chef de l'agence de régulation, a déclaré que le plus grand risque de l'intelligence artificielle sur les marchés financiers réside dans les algorithmes de boîte noire, c'est-à-dire fonctionnant dans un système fermé où les utilisateurs ne peuvent pas comprendre les fonctions internes de l'organisme. algorithme, ce qui peut entraîner une perte de contrôle et éventuellement déclencher un krach boursier

Gensler prévient depuis des années que l’intelligence artificielle pourrait présenter d’énormes dangers si elle n’est pas maîtrisée à temps. En 2020, Gensler, alors professeur au MIT, a averti dans un article que l’apprentissage profond (un type de système d’apprentissage automatique et d’intelligence artificielle) présentait des risques pour la stabilité financière. L'article souligne que les mécanismes réglementaires existants ne sont pas prêts à faire face à cette menace potentielle

Il a souligné que l'homogénéité des marchés financiers est l'un des dangers de l'intelligence artificielle. Cette situation peut être due à ce que l'on appelle « l'effet d'apprentissage », qui se produit lorsque les personnes qui dirigent ces systèmes sont issues de la même école, ont le même parcours et ont développé une forte affinité. "Peu de personnes sont formées pour construire et gérer ces modèles, et elles viennent souvent d'horizons similaires", a expliqué Gensler dans l'étude

.

Le contrôle réglementaire de l'IA pourrait entraîner des risques et augmenter la probabilité que la plupart des entreprises choisissent d'utiliser la même IA auprès d'une poignée de fournisseurs

L'évolution de l'intelligence artificielle est imprévisible et il nous est difficile de comprendre son mécanisme comportemental, qui comporte l'un des risques énormes, à savoir la possibilité de comportements discriminatoires à l'égard des humains. Par exemple, une IA qui n’était pas raciste hier peut le devenir aujourd’hui sans que nous puissions la détecter et l’arrêter à temps. De plus, les règles sont complètement opaques et incontrôlables, avec un manque de réglementation rétroactive, ce qui rend pratiquement impossible pour les régulateurs de prévenir de futures catastrophes

Gensler a averti que les modèles construits à l'aide du même ensemble de données pourraient donner lieu à des prédictions hautement corrélées et que cette cohérence pourrait déclencher un regroupement. De plus, il estime que le besoin de sources de données massives pourrait conduire à des monopoles et devenir un « point de défaillance unique » entraînant l'effondrement de l'ensemble du système

Il a également noté que même les ensembles de données les plus importants sont insuffisants pour couvrir un seul cycle financier complet, car l'utilisation d'Internet, les données des appareils portables, les données télématiques, les données GPS et les données des smartphones ne sont pas assez longues

Gensler estime que pour une surveillance efficace, le stock de capital requis par les institutions financières pour utiliser les outils d'intelligence artificielle devrait être augmenté. Les régulateurs peuvent exiger des tests sur les systèmes d’IA pour empêcher ou interdire aux entreprises de prendre des mesures inexpliquées susceptibles de ralentir leur croissance. Cependant, Gensler a également averti que même si cela était fait, il serait difficile d’éviter une augmentation des risques systémiques. Il a déclaré que même si les règles réglementaires sont mises en œuvre, cela ne suffit toujours pas pour accomplir les tâches actuelles

Les experts mettent en garde : l’intelligence artificielle pourrait déclencher la prochaine crise financière

Cette phrase est réécrite comme suit : D'après l'actualité de référence

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer