Maison >Périphériques technologiques >IA >Comment mener un entretien pour « embaucher » un codeur ChatGPT ?

Comment mener un entretien pour « embaucher » un codeur ChatGPT ?

WBOY
WBOYavant
2023-04-12 22:25:01834parcourir

​Traducteur | Zhu Xianzhong

Planificateur | Xu Jiecheng

Contrairement aux autres outils de développement de logiciels auxquels les développeurs font confiance, les outils d'IA présentent des risques uniques en termes de formation, de construction, d'hébergement et d'utilisation.

Depuis la sortie de ChatGPT fin 2022, Internet regorge d'arguments le soutenant et le contestant dans des proportions presque égales. Que cela vous plaise ou non, l’IA fait son chemin dans votre organisation de développement. Même si vous n'envisagez pas de développer un produit d'IA ou d'exploiter un outil d'IA pour écrire le code à votre place, celui-ci peut toujours être intégré aux outils et plates-formes utilisés pour créer, tester et exécuter le code source.

Les outils d'IA comportent des risques particuliers, qui peuvent affecter les gains de productivité apportés par les tâches automatisées. Ces risques proviennent principalement de la manière dont l’IA est formée, construite, hébergée et utilisée. Les outils d’IA diffèrent à bien des égards des autres outils auxquels les développeurs font confiance. Comprendre les risques est la première étape pour les gérer. Pour vous aider à comprendre les risques potentiels des outils d'IA, nous avons conçu quelques questions d'entretien pour les outils d'IA. Ces questions peuvent déterminer si l'outil peut « rejoindre » avec succès votre entreprise.

En général, tous les outils d'IA ont certains points communs. Quel que soit le type ou le but de l'intelligence artificielle, vous devez vous poser les questions suivantes avant de choisir de l'utiliser :

  • À quoi sert cet outil d'IA ? Où se situent les infrastructures ? Aucune intelligence artificielle moderne ne nécessite de matériel dédié et coûteux pour la prendre en charge. À moins que vous n'envisagiez d'acquérir un nouveau centre de données, vos outils d'IA ne fonctionneront qu'à distance et nécessiteront un accès à distance et un stockage de données hors site, ce qui créera certains risques de sécurité.
  • Quelles protections sont en place pour éviter la perte d'adresse IP lorsque le code quitte les limites de traitement ? Des téléviseurs intelligents aux voitures intelligentes, tous les produits d’intelligence artificielle fournissent des données à leurs fabricants. Certaines entreprises utilisent ces données pour optimiser leurs logiciels, mais d'autres les vendent aux annonceurs. Par conséquent, il est nécessaire que vous compreniez exactement comment l’outil d’IA utilisera ou traitera le code source ou d’autres données privées qu’il utilise pour sa tâche principale.
  • Votre contribution peut-elle être utilisée pour des tâches de formation de modèles ? La formation continue des modèles d’intelligence artificielle est une tâche qui préoccupe au plus haut point toutes les entreprises de mannequins et les formateurs de mannequins. Par exemple, les propriétaires de modèles ne souhaitent souvent pas que les annonceurs s'impliquent trop dans la formation de leurs modèles afin de bénéficier d'une publicité gratuite.
  • Quelle est la précision des résultats ? Le défaut le plus fatal de ChatGPT est l’inexactitude de ses résultats. Elle excelle à générer à la fois des mensonges et de la vérité ; c’est ce qu’on appelle l’illusion de l’IA. Comprendre les manières et les scénarios dans lesquels l’intelligence artificielle peut commettre des erreurs peut aider à gérer les erreurs commises par les outils d’IA.

De plus, toutes les entreprises et tous les développeurs d'intelligence artificielle seront confrontés à leur propre série de problèmes de sécurité. Ces nouvelles préoccupations incluent des menaces pesant sur les modèles formés à l'IA, qui pourraient corrompre leurs résultats et divulguer des informations exclusives sur le fonctionnement des modèles, ainsi que sur la qualité des résultats générés par les modèles. De plus, les modèles d’IA doivent interagir avec le monde traditionnel via des API, un accès Web, des applications mobiles et d’autres applications qui doivent être créées en toute sécurité.

En plus des questions générales, les développeurs doivent se poser d'autres aspects lorsqu'ils utilisent des outils d'IA, comme l'utilisation de scanners de sécurité IA, afin de gérer les risques introduits lors du développement logiciel.

  • Les outils d'IA sont-ils adaptés à de tels scénarios ? Il est essentiel de comprendre dans quels domaines l’IA n’est pas douée. Par exemple, si une tâche peut être décomposée en « prendre une décision basée sur une règle d’apprentissage » ou « écrire un contenu qui suit une règle d’apprentissage », alors l’IA est généralement très efficace pour de telles tâches ; Si le problème évolue au-delà de cela, l’IA risque de mal fonctionner.
  • Quelles mesures de protection prendre si un outil d'IA commet une erreur ? N’introduisez jamais un seul point de défaillance dans votre processus, surtout s’il pourrait créer des hallucinations. L’approche recommandée devrait consister à s’appuyer sur les pratiques traditionnelles associées à la défense en profondeur ou à une approche de gestion des risques – l’idée selon laquelle si une couche du système crée un problème, la couche suivante le détectera.
  • Comment les résultats de l'outil d'évaluation doivent-ils être surveillés ? En fait, c’est une vieille question qui revient. Les solutions traditionnelles de capture des journaux de problèmes sont généralement divisées en deux parties : la première consiste à obtenir des données sur les événements importants ; la seconde est le journal d'audit ; Jusqu’à ce que l’IA mûrisse davantage et que ses défauts soient compris ou atténués, les humains devront toujours garder le contrôle du cycle.

De nos jours, de plus en plus de développeurs « embauchent » ChatGPT pour écrire du code source. Les rapports préliminaires indiquent que ChatGPT est capable d'écrire du code source dans plusieurs langages de programmation et parle couramment tous les langages courants. En raison des limites de la formation et des modèles de la version bêta actuelle, le code qu'elle produit n'est pas toujours parfait. Il contient souvent des failles de logique métier qui peuvent modifier la façon dont le logiciel s'exécute, des erreurs de syntaxe qui peuvent mélanger différentes versions du logiciel et d'autres problèmes apparemment humains.

En gros, ChatGPT n'est qu'un programmeur junior. Alors, qui sera son supérieur ?

En d'autres termes, ChatGPT est un niveau de développeur junior. Par conséquent, lorsque vous utilisez le code écrit par ce développeur junior, vous devez réfléchir à la manière de le gérer :

  • Qui sera son supérieur pour assurer l'efficacité globale du code qu'il écrit ? Les développeurs juniors ont souvent besoin de l’aide de développeurs seniors. Chaque ligne de code doit être testée et certaines doivent être corrigées. Cependant, les rapports indiquent que ce processus de relecture prend plus de temps et est plus complexe que l’écriture de code à partir de zéro.
  • Est-ce qu'il injecte ou remixe le code de formation dans la base de code ? Une menace plus insidieuse est que parfois des robots IA comme GitHub Copilot produisent du code source qui réplique parfaitement des blocs de code à partir des données d'entraînement. Par conséquent, des outils anti-plagiat doivent être utilisés pour garantir la gestion des risques liés aux licences.
  • Où les outils d'IA obtiennent-ils les données d'entraînement ? Le niveau de capacité d'un modèle d'intelligence artificielle est étroitement lié à ses données d'entraînement. Si une IA est entraînée à l’aide d’un code ancien ou incorrect, elle produira des résultats anciens et incorrects.
  • Où est hébergé le moteur ? Les robots IA qui analysent le code source doivent intégrer le code source dans leurs dispositifs de traitement correspondants. Une attention particulière doit être accordée à la manière dont les données sont protégées, utilisées et supprimées une fois qu'elles ont quitté le contrôle de l'entreprise.

Quoi qu'il en soit, la sortie de ChatGPT en décembre 2022 annonce une nouvelle ère de développement logiciel. Il est important de prêter attention aux changements apportés à ces outils plutôt que de se laisser vaincre par eux. En adoptant ces nouveaux outils, sachez que plus les choses changent, plus elles doivent rester les mêmes : il vaut toujours mieux prévenir un incident de sécurité que d'en découvrir un.

Lien original : https://thenewstack.io/hiring-an-ai-tool-to-code-what-to-ask-at-the-interview/

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer