Maison  >  Article  >  Périphériques technologiques  >  Comment les DSI peuvent faire face aux risques perçus posés par l’IA

Comment les DSI peuvent faire face aux risques perçus posés par l’IA

王林
王林avant
2024-03-21 13:01:09396parcourir

Comment les DSI peuvent faire face aux risques perçus posés par l’IA

Demandez à une personne moyenne quels sont les plus grands risques de l'IA, et ses réponses pourraient inclure : l'IA nous rendra obsolètes, les humains, Skynet deviendra une réalité et nous fera disparaître, et les outils de création de deepfakes seront utilisés par de mauvaises personnes. faire de mauvaises choses.

Les PDG estiment que le plus grand risque de l'IA réside dans les opportunités manquées, en particulier parce que les concurrents peuvent mettre en œuvre des capacités commerciales basées sur l'IA plus tôt qu'eux.

En tant que DSI, vous devez prendre en compte les risques réels de l'IA et également prévoir les risques potentiels. Voici comment y parvenir efficacement.

Risques perçus par les gens ordinaires

1. L'IA aura-t-elle un impact sur les humains Réponse : Ce n'est pas un risque, mais un choix. Les ordinateurs personnels, puis Internet, puis les smartphones, ont tous ouvert des opportunités aux humains augmentés par ordinateur. L'IA peut faire de même, et les dirigeants d'entreprise peuvent se concentrer sur la création d'une entreprise plus forte et plus compétitive en utilisant les capacités de l'IA pour augmenter et responsabiliser leurs employés.

Ils peuvent, certains le feront, d'autres utiliseront l'IA pour automatiser les tâches actuellement effectuées par les humains qu'ils emploient.

Ou, plus probablement, ils feront les deux, ni l’un ni l’autre ne seront meilleurs dans l’absolu, mais ils seront différents. En tant que DSI, vous devez contribuer à communiquer les intentions de l'entreprise, que l'IA soit utilisée pour ajouter des employés ou pour les remplacer.

Skynet est l'un des futurs possibles de l'IA qui fait frémir les gens, mais est également considéré comme le scénario le plus improbable. Ce n’est pas parce qu’il est impossible de créer des robots tueurs, mais parce qu’il n’y a aucune bonne raison de créer et d’investir dans une intelligence artificielle aussi destructrice.

Dans la nature, s'attaquer à d'autres organismes est l'un des besoins de survie de la plupart des organismes. Les prédateurs poursuivent leurs proies pour assurer leur survie et leur capacité à se reproduire. Cependant, très peu de créatures autres que les humains feraient du mal à d’autres espèces simplement pour le plaisir. Ce comportement est rare et constitue généralement un comportement anormal provoqué par une intervention humaine ou des dommages environnementaux. L'interdépendance et l'équilibre de la nature permettent de maintenir la relation entre proies et proies, et chaque être vivant joue un rôle important dans cet écosystème

En plus des domaines de l'électricité et des semi-conducteurs, trouverons-nous une relation avec une personne volontaire L’IA ? La concurrence pour les ressources est devenue si féroce qu’un scénario de robot tueur deviendra un problème auquel nous devons faire face, qui reste sujet à caution.

En effet, si l’IA nous concurrence dans les domaines de l’énergie et des semi-conducteurs, elle est moins susceptible de gaspiller des ressources en construisant des robots tueurs.

3. Les Deepfakes, oui, les deepfakes sont un problème, et en tant que point culminant de la guerre de la réalité, ils sont un problème qui ne fera qu'empirer, l'IA deepfake et l'IA de détection des deepfakes devront devenir de plus en plus rapides. L'amélioration consiste simplement à maintenir le statut de chacun.

Ainsi, tout comme les contre-mesures contre les logiciels malveillants ont évolué de mesures antivirus autonomes vers une cybersécurité à l’échelle de l’industrie, nous pouvons nous attendre à une trajectoire similaire pour les contre-mesures deep fake à mesure que la guerre contre la réalité s’intensifie.

Les risques liés à l'IA tels que perçus par les PDG

Les PDG qui ne veulent pas devenir d'anciens PDG de si tôt consacreront beaucoup de temps et d'attention à une forme d'analyse « TOWS » (menaces, opportunités, faiblesses et forces). ).

En tant que DSI, l'une de vos responsabilités les plus importantes a longtemps été de contribuer à la stratégie commerciale en reliant les points, des capacités informatiques aux opportunités commerciales (si votre entreprise les exploite en premier) ou aux menaces (si les concurrents exploitent eux en premier).

C’était le cas avant que l’engouement actuel pour l’IA ne s’empare de l’industrie informatique, c’est ça le « numérique », et encore plus maintenant.

Couplés à l'IA, les DSI ont un autre niveau de responsabilité, qui consiste à savoir comment intégrer leurs nouvelles capacités dans l'ensemble de l'entreprise.

Menaces silencieuses basées sur l'IA : faiblesses créées par l'homme

Il existe un autre type de risque dont il faut s'inquiéter et qui retient peu l'attention, appelé « vulnérabilités humaines d'origine humaine ».

Partez de la pensée de Daniel Kahneman, rapide et lente. Dans le livre, Kahneman identifie deux manières de penser. Lorsque nous réfléchissons vite, nous utilisons des circuits cérébraux qui nous permettent de comprendre les choses d’un coup d’œil, sans délai et presque sans effort. Penser vite, c'est aussi ce que nous faisons lorsque nous « faisons confiance à nos tripes ».

Lorsque nous réfléchissons lentement, nous utilisons un circuit qui nous permet de multiplier 17 par 53 - un processus qui nécessite une concentration, du temps et une puissance cérébrale considérables.

En matière d’IA, la réflexion lente est ce que font les systèmes experts, et à ce point, ce que fait la programmation informatique à l’ancienne, penser vite est ce qui est le plus excitant de l’IA, et c’est à cela que servent les réseaux de neurones.

Dans son état actuel de développement, la forme de pensée rapide de l’IA est également sujette aux mêmes erreurs cognitives que la confiance en notre intuition. Par exemple :

Déduire un lien de causalité à partir d'une corrélation : nous savons tous que nous ne devrions pas faire cela, cependant, il est difficile de nous empêcher de déduire un lien de causalité lorsque toutes nos preuves sont juxtaposées.

En fait, ce qu’on appelle aujourd’hui l’IA consiste en grande partie en un apprentissage automatique de réseaux neuronaux, qui consiste à déduire une causalité à partir d’une corrélation.

Retour à la moyenne : vous avez regardé The Great British Baking Show. Vous remarquerez que celui qui remporte le Star Baker Award dans un épisode a tendance à être pire dans l'épisode suivant, ce qui est la malédiction du Star Baker.

C'est juste que ce n'est pas une malédiction, c'est juste le hasard en action, la performance de chaque boulanger suit une courbe en cloche, quand on gagne Star Baker en une semaine, sa performance a atteint une queue de la courbe en cloche, la prochaine fois qu'il cuisine, ils sont plus susceptibles d'obtenir des performances moyennes, pas encore une fois à Star Baker Tail, car chaque fois qu'ils cuisent, ils sont plus susceptibles d'obtenir des performances moyennes, pas la queue gagnante.

Il n'y a aucune raison de s'attendre à ce que l'IA d'apprentissage automatique soit à l'abri de cette erreur, bien au contraire, face à des points de données aléatoires sur les performances des processus, nous devrions nous attendre à ce que l'IA prédise des améliorations après chaque mauvais résultat.

Ensuite, concluez que la cause et l'effet fonctionnent.

Pas de « montrez votre travail » : Eh bien, ce n’est pas votre travail, c’est le travail de l’IA. Des recherches actives sont en cours sur le développement de ce que l'on appelle « l'IA explicable », ce qui est nécessaire.

Supposons que vous ayez chargé un employé d'évaluer une éventuelle opportunité commerciale et de vous recommander un plan d'action, et qu'il le ferait et que vous lui demanderiez : « Pourquoi pensez-vous que tout employé compétent s'y attendrait ? » prêt à y répondre.

Jusqu’à ce que « l’IA explicable » devienne une fonctionnalité plutôt qu’une liste de souhaits, l’IA est moins performante dans ce domaine que les travailleurs que de nombreuses entreprises espèrent remplacer – ils ne peuvent pas expliquer leurs propres pensées.

Phrases à ignorer

Vous avez sans doute entendu quelqu'un affirmer, dans le contexte de l'IA, qu'« un ordinateur ne connaîtra jamais x », où x est quelque chose pour lequel les humains les plus qualifiés sont doués.

Ils ont tort, c'est une affirmation populaire depuis que j'ai débuté dans ce métier et depuis lors, il est évident que peu importe le x que vous choisissez, un ordinateur peut tout faire et le faire mieux que nous sommes meilleurs.

La seule question est de savoir combien de temps il faudra attendre pour que cela se produise.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer