Maison > Article > Périphériques technologiques > Comment l’intelligence artificielle peut responsabiliser les organisations en 2023
Depuis la sortie de ChatGPT fin 2022, Internet est rempli de diverses émotions pessimistes ou optimistes. Aimez-le ou détestez-le, l’intelligence artificielle arrive dans votre équipe de développement. Même si vous n'envisagez pas de développer un produit d'IA ou d'utiliser l'IA pour développer des robots permettant d'écrire du code, il peut toujours être intégré aux outils et plates-formes utilisés pour créer, tester et exécuter votre code source écrit manuellement.
Les outils d'intelligence artificielle présentent des risques uniques. De plus, ces risques pourraient contrebalancer les énormes gains de productivité liés à l’automatisation de tâches qui nécessitaient autrefois le cerveau humain. Ces risques découlent de la manière dont l’IA est formée, construite, hébergée et utilisée, qui sont toutes différentes des autres outils logiciels actuellement utilisés par les développeurs. Comprendre le risque est la première étape pour le gérer, et pour vous aider à comprendre les risques potentiels associés aux prochains outils d'IA, nous avons rédigé quelques questions d'entretien qui peuvent être prises en compte dans le cadre du processus d'intégration de l'IA.
Ces questions doivent être posées quel que soit le type d'IA ou l'objectif pour lequel vous espérez l'utiliser.
1. Où sera hébergé le serveur d'intelligence artificielle que vous choisirez ?
L'intelligence artificielle moderne nécessite actuellement du matériel spécialisé et coûteux pour accomplir les tâches incroyables qui font la une des journaux aujourd'hui. À moins que vous n’envisagiez d’acquérir un tout nouveau centre de données, vos robots IA travailleront à distance et nécessiteront les mêmes considérations de sécurité que les travailleurs humains distants utilisant l’accès à distance et le stockage de données hors site.
Quels types de protections sont en place pour éviter la perte d'adresse IP lorsque le code quitte la frontière ? Tout, des téléviseurs intelligents aux voitures, transmet les données d'utilisation aux fabricants. Certains utilisent ces données pour améliorer leurs logiciels, mais d’autres les vendent aux annonceurs. Comprenez exactement comment votre outil d'IA utilisera ou traitera le code source ou d'autres données privées pour sa mission principale.
2. Votre contribution sera-t-elle utilisée pour une future formation à l'intelligence artificielle ?
La formation continue des modèles d'IA sera un sujet de préoccupation croissante pour les propriétaires et ceux dont les données sont utilisées pour former le modèles . Par exemple, les propriétaires peuvent vouloir empêcher les annonceurs d’orienter les robots IA dans une direction qui favorise leurs clients. Les artistes qui partagent leur travail en ligne ont vu leurs styles copiés par des robots générateurs d’images IA, et ils s’inquiètent de la perte ou du vol de l’identité de leurs auteurs originaux.
3. Le défaut le plus connu de ChatGPT est l’inexactitude de ses résultats. Il affirmera avec confiance ce qui est faux comme étant vrai. C’est ce qu’on appelle « l’illusion » de l’intelligence artificielle. Comprendre comment et où l’IA peut halluciner peut aider à la gérer lorsqu’elle se produit. Au-delà de cela, les propriétaires et les développeurs d'IA auront leurs propres problèmes de sécurité. Ces nouvelles préoccupations incluent les menaces qui pèsent sur les modèles de formation en IA. Ces menaces pourraient compromettre ses résultats ou révéler des informations exclusives sur le fonctionnement du modèle. De plus, les modèles d’IA devront s’interfacer avec des API, des applications Web, mobiles et autres qui doivent être créées en toute sécurité. Les développeurs devront poser des questions spécifiques lorsqu'ils utiliseront des outils d'IA, tels que les scanners de sécurité IA, pour gérer les risques introduits lors du développement de logiciels.
4. Un outil d'IA est-il le mieux adapté à ce cas d'utilisation ?
Comprendre ce pour quoi l'IA est bonne et ce pour quoi elle n'est pas bonne est la clé. Une tâche peut être décomposée en « prendre des décisions basées sur des règles apprises » ou « écrire du contenu qui respecte les règles apprises », mieux l'IA y parviendra. Plus le problème s'écarte, plus l'IA est performante. Quelles garanties existe-t-il si l'outil ne capture pas le contenu ou crée l'illusion qu'il n'existe pas ? N'introduisez jamais un seul point de défaillance dans votre processus, notamment celui qui peut créer des hallucinations. Appuyez-vous sur des pratiques traditionnelles de défense en profondeur ou sur une approche « fromage suisse » de gestion des risques, où même si un niveau rate un problème, le niveau suivant le détecte.
Que faut-il pour surveiller les résultats de l’outil d’évaluation ? Ce problème concerne en réalité simplement du vieux vin dans des bouteilles neuves : les directives traditionnelles de journalisation sont divisées en deux parties. La première partie consiste à capturer les données des événements importants et la deuxième partie est le journal d'audit. Jusqu’à ce que l’IA mûrisse davantage et que ses lacunes soient comprises ou atténuées, les humains resteront partie intégrante du flux de travail.
De plus en plus de développeurs « embauchent » ChatGPT pour écrire du code source. Les rapports préliminaires indiquent que ChatGPT est capable d'écrire du code source dans de nombreux langages de programmation et parle couramment tous les langages courants et discutés publiquement. Mais en raison des limites de formation et du modèle de cette version bêta, le code qu'elle produit n'est pas toujours parfait. Souvent, il contient des failles de logique métier qui peuvent modifier le fonctionnement du logiciel, des erreurs de syntaxe qui peuvent fusionner différentes versions du logiciel et d'autres problèmes apparemment d'origine humaine. En d’autres termes, ChatGPT est un développeur junior. Lorsque vous utilisez du code écrit par ce développeur junior, vous devez réfléchir à la manière de le gérer.
Qui en sera les intendants et veillera à ce que le code soit fonctionnel, optimisable, de haute qualité et répond également aux normes de sécurité ? Les développeurs juniors ont besoin des conseils des développeurs seniors. Chaque ligne de code doit être testée et certaines doivent être corrigées. Cependant, les rapports préliminaires indiquent que ce processus de relecture est plus rapide et plus simple que l’écriture de code à partir de zéro.
5. Est-ce qu'il injecte ou remixe le code de formation dans votre base de code ?
Une menace plus insidieuse est que parfois des robots IA comme GitHub Copilot produisent du code source qui copie complètement des blocs de code à partir de leurs données d'entraînement. Cela nécessite des outils anti-plagiat pour garantir la gestion des risques liés aux droits d'auteur.
6. Où le robot obtient-il ses données d'entraînement ?
La qualité d'un modèle d'intelligence artificielle dépend de ses données d'entraînement. Si un robot est formé avec du code obsolète ou incorrect, il produira également des résultats obsolètes et incorrects.
7. Où est hébergé le moteur ?
De même, un robot IA qui analyse le code source devra apporter le code source à son installation de traitement. Portez une attention particulière à la manière dont les données sont protégées, utilisées et traitées après leur départ de votre entreprise.
La version de décembre de ChatGPT annonce une nouvelle ère dans le développement de logiciels. Il est important de s’adapter à ces changements plutôt que de se laisser écraser par eux. En adoptant ces nouveaux outils, comprenez que plus les choses changent, plus un principe reste le même : mieux vaut prévenir un incident de sécurité que de se faire mettre à terre par un tel.
Source : www.cio.com
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!