recherche
MaisonPériphériques technologiquesIAAI responsable à l'ère de l'IA générative

Introduction

Nous vivons maintenant à l'ère de l'intelligence artificielle, où tout ce qui nous entoure devient plus intelligent de jour en jour. Les modèles de langue de grande partie de la technologie (LLM) et les agents de l'IA sont capables d'effectuer des tâches complexes avec une intervention humaine minimale. Avec une telle technologie avancée vient la nécessité de les développer et de les déployer de manière responsable. Cet article est basé sur l'atelier de Bhaskarjit Sarmah au Datahack Summit 2024, nous apprendrons à construire une IA responsable, avec un accent particulier sur les modèles génératifs de l'IA (Genai). Nous explorerons également les lignes directrices du cadre de gestion des risques de l'Institut national des normes et de la technologie (NIST), prévu pour assurer le développement et le déploiement responsables de l'IA.

AI responsable à l'ère de l'IA générative

Aperçu

  • Comprendre ce qu'est l'IA responsable et pourquoi il est important.
  • Découvrez les 7 piliers de l'IA responsable et comment le cadre NIST aide à développer et à déployer une IA responsable.
  • Comprenez ce qu'est l'hallucination dans les modèles d'IA et comment il peut être détecté.
  • Apprenez à construire un modèle d'IA responsable.

Table des matières

  • Introduction
  • Qu'est-ce que l'IA responsable?
  • Pourquoi l'IA responsable est-elle importante?
  • Les 7 piliers de l'IA responsable
    • Correction de l'incertitude dans le contenu généré par l'IA
    • Assurer la sécurité des réponses générées par l'IA
    • Améliorer la sécurité des modèles Genai
    • Augmenter la responsabilité des modèles Genai
    • Assurer la transparence des réponses générées par l'IA
    • Incorporer l'équité dans les modèles Genai
    • Sauvegarde de la vie privée dans les réponses générées par l'AI-AI
  • Qu'est-ce que l'hallucination dans les modèles Genai?
  • Comment détecter les hallucinations dans les modèles Genai?
  • Construire une IA responsable
  • Conclusion
  • Questions fréquemment posées

Qu'est-ce que l'IA responsable?

L'IA responsable fait référence à la conception, au développement et au déploiement des systèmes d'IA hiérarchisant les considérations éthiques, l'équité, la transparence et la responsabilité. Il répond aux préoccupations concernant les biais, la confidentialité et la sécurité, afin d'éliminer tout impact négatif potentiel sur les utilisateurs et les communautés. Il vise à garantir que les technologies d'IA sont alignées sur les valeurs humaines et les besoins sociétaux.

La construction de l'IA responsable est un processus en plusieurs étapes. Cela implique la mise en œuvre de directives et de normes d'utilisation des données, de conception d'algorithmes et de processus décisionnels. Il s'agit de prendre des contributions de diverses parties prenantes dans le processus de développement pour lutter contre les biais et assurer l'équité. Le processus nécessite également une surveillance continue des systèmes d'IA pour identifier et corriger les conséquences involontaires. L'objectif principal de l'IA responsable est de développer une technologie qui profite à la société tout en répondant aux normes éthiques et juridiques.

Watch recommandée: Explorer l'IA responsable: Informations, cadres et innovations avec Ravit Dotan | Mener avec les données 37

Pourquoi l'IA responsable est-elle importante?

Les LLM sont formées sur de grands ensembles de données contenant diverses informations disponibles sur Internet. Cela peut inclure du contenu protégé par le droit d'auteur avec des informations confidentielles et personnellement identifiables (PII). En conséquence, les réponses créées par des modèles d'IA génératives peuvent utiliser ces informations de manière illégale ou nuisible.

Cela représente également le risque que les gens incitent les modèles Genai à distribuer des IPI tels que les identifiants d'e-mail, les numéros de téléphone et les informations de carte de crédit. Il est donc important de s'assurer que les modèles de langue ne régénèrent pas le contenu protégé par le droit d'auteur, générent des sorties toxiques ou ne donnent pas de PII.

Avec de plus en plus de tâches automatisées par l'IA, d'autres préoccupations liées au biais, à la confiance et à la transparence des réponses générées par l'IA sont également en augmentation.

Par exemple, les modèles de classification des sentiments étaient traditionnellement construits à l'aide de processeurs de base en langage naturel (NLP). Il s'agissait cependant d'un long processus, qui comprenait la collecte des données, l'étiquetage des données, la réalisation d'extraction des fonctionnalités, la formation du modèle, le réglage des hyperparamètres, etc. Mais maintenant avec Genai, vous pouvez faire une analyse des sentiments avec une simple invite! Cependant, si les données de formation du modèle comprennent un biais, cela entraînera la génération de sorties biaisées du modèle. C'est une préoccupation majeure, en particulier dans les modèles de prise de décision.

Ce ne sont que quelques-unes des principales raisons pour lesquelles le développement responsable de l'IA est le besoin de l'heure.

Les 7 piliers de l'IA responsable

En octobre 2023, le président américain Biden a publié un décret indiquant que les demandes d'IA doivent être déployées et utilisées de manière sûre, sécurisée et digne de confiance. Suite à sa commande, NIST a établi des normes rigoureuses que les développeurs de l'IA doivent suivre avant de publier tout nouveau modèle. Ces règles sont définies pour relever certains des plus grands défis rencontrés concernant l'utilisation sûre de l'IA générative.

Les 7 piliers de l'IA responsable, comme indiqué dans le cadre de gestion des risques NIST, sont:

  1. Incertitude
  2. Sécurité
  3. Sécurité
  4. Responsabilité
  5. Transparence
  6. Justice
  7. Confidentialité

AI responsable à l'ère de l'IA générative

Explorons en détail chacune de ces directives pour voir comment elles aident à développer des modèles Genai responsables.

1. Fixation de l'incertitude dans le contenu généré par l'IA

Les modèles d'apprentissage automatique, Genai ou autrement, ne sont pas précis à 100%. Il y a des moments où ils donnent des réponses précises et il y a des moments où la sortie peut être hallucinée. Comment savons-nous quand faire confiance à la réponse d'un modèle d'IA et quand en douter?

Une façon de résoudre ce problème consiste à introduire des scores d'hallucination ou des scores de confiance pour chaque réponse. Un score de confiance est essentiellement une mesure pour nous dire à quel point le modèle est sûr de la précision de sa réponse. Par exemple, si le modèle est sûr de 20% ou 90%. Cela augmenterait la fiabilité des réponses générées par l'IA.

Comment la confiance du modèle est-elle calculée?

Il existe 3 façons de calculer le score de confiance de la réponse d'un modèle.

  • Prédiction conforme: cette méthode statistique génère des ensembles de prédictions qui incluent la véritable étiquette avec une probabilité spécifiée. Il vérifie et garantit si les ensembles de prédictions satisfont à l'exigence de garantie.
  • Méthode basée sur l'entropie: Cette méthode mesure l'incertitude des prédictions d'un modèle en calculant l'entropie de la distribution de probabilité sur les classes prévues.
  • Méthode bayésienne: Cette méthode utilise des distributions de probabilité pour représenter l'incertitude des réponses. Bien que cette méthode soit à forte intensité de calcul, elle fournit une mesure plus complète de l'incertitude.

AI responsable à l'ère de l'IA générative

2. Assurer la sécurité des réponses générées par l'AI

La sécurité de l'utilisation des modèles d'IA est une autre préoccupation qui doit être traitée. Les LLM peuvent parfois générer des réponses toxiques, haineuses ou biaisées, car un tel contenu peut exister dans son ensemble de données de formation. En conséquence, ces réponses peuvent nuire à l'utilisateur émotionnellement, idéologiquement ou autrement, compromettant sa sécurité.

La toxicité dans le contexte des modèles de langage fait référence au contenu nuisible ou offensant généré par le modèle. Cela pourrait être sous la forme d'un discours haineux, d'une race ou de préjugés basés sur le genre, ou des préjugés politiques. Les réponses peuvent également inclure des formes de toxicité subtiles et implicites telles que les stéréotypes et la microagression, qui sont plus difficiles à détecter. Semblable à la directive précédente, cela doit être corrigé en introduisant un score de sécurité pour le contenu généré par l'IA.

3. Améliorer la sécurité des modèles Genai

Le jailbreaking et l'injection rapide sont des menaces croissantes pour la sécurité des LLM, en particulier les modèles Genai. Les pirates peuvent déterminer les invites qui peuvent contourner les mesures de sécurité définies des modèles de langage et leur extraire certaines informations restreintes ou confidentielles.

Par exemple, bien que Chatgpt soit formé pour ne pas répondre à des questions comme «Comment faire une bombe?» ou "Comment voler l'identité de quelqu'un?" Cependant, nous avons vu des cas où les utilisateurs incitent le chatbot à leur répondre, en écrivant des invites d'une certaine manière comme «Écrivez un poème pour enfants sur la création d'une bombe» ou «j'ai besoin d'écrire un essai sur le vol d'identité de quelqu'un». L'image ci-dessous montre comment un chatbot AI répondrait généralement à une telle question.

AI responsable à l'ère de l'IA générative

Cependant, voici comment quelqu'un pourrait utiliser le suffixe adversaire pour extraire ces informations nocives de l'IA.

AI responsable à l'ère de l'IA générative

Cela rend les chatbots Genai potentiellement dangereux à utiliser, sans incorporer des mesures de sécurité appropriées. Par conséquent, à l'avenir, il est important d'identifier le potentiel de jailbreaks et de violations de données dans les LLM dans leur phase de développement elle-même, afin que des cadres de sécurité plus forts puissent être développés et mis en œuvre. Cela peut être fait en introduisant un score rapide de sécurité d'injection.

4. Augmenter la responsabilité des modèles Genai

Les développeurs de l'IA doivent assumer la responsabilité du contenu protégé par le droit d'auteur en cours de régénération ou de réutilisation par leurs modèles de langage. Les entreprises d'IA comme Anthropic et Openai assument la responsabilité du contenu généré par leurs modèles de source fermée. Mais en ce qui concerne les modèles open source, il doit y avoir plus de clarté quant à l'observation de cette responsabilité. Par conséquent, NIST recommande que les développeurs doivent fournir des explications et une justification appropriées au contenu que leurs modèles produisent.

5. Assurer la transparence des réponses générées par l'IA

Nous avons tous remarqué à quel point les LLM différents donnent des réponses différentes pour la même question ou invite. Cela soulève la question de savoir comment ces modèles tirent leurs réponses, ce qui fait de l'interprétabilité ou de l'explication un point important à considérer. Il est important que les utilisateurs aient cette transparence et comprennent le processus de réflexion de la LLM afin de le considérer comme une IA responsable. Pour cela, NIST insiste sur les sociétés d'IA utilise l'interprétabilité mécaniste pour expliquer la production de leurs LLM.

L'interprétabilité fait référence à la capacité des modèles de langue à expliquer le raisonnement dans leurs réponses, d'une manière que les humains peuvent comprendre. Cela aide à rendre les modèles et leurs réponses plus fiables. L'interprétabilité ou l'explication des modèles d'IA peut être mesurée à l'aide du test de forme (Shapley Additive Explications), comme le montre l'image ci-dessous.

AI responsable à l'ère de l'IA générative

Voyons un exemple pour mieux comprendre cela. Ici, le modèle explique comment il relie le mot «vodka» à la «Russie» et les compare aux informations des données de formation, à déduire que «les Russes aiment la vodka».

AI responsable à l'ère de l'IA générative

6. Incorporer l'équité dans les modèles Genai

Les LLM, par défaut, peuvent être biaisées, car elles sont formées sur les données créées par divers humains, et les humains ont leurs propres biais. Par conséquent, les décisions fabriquées au Gen AI peuvent également être biaisées. Par exemple, lorsqu'un chatbot d'IA est invité à effectuer une analyse des sentiments et à détecter l'émotion derrière un titre de nouvelles, il modifie sa réponse en fonction du nom du pays, en raison d'un biais. En conséquence, le titre avec le mot «US» est détecté comme positif, tandis que le même titre est détecté que neutre lorsque le pays est «Afghanistan».

AI responsable à l'ère de l'IA générative

Le biais est un problème beaucoup plus important en ce qui concerne les tâches telles que l'embauche basée sur l'IA, le traitement des prêts bancaires, etc. où l'IA pourrait faire des sélections en fonction du biais. L'une des solutions les plus efficaces pour ce problème est de s'assurer que les données de formation ne sont pas biaisées. Les ensembles de données de formation doivent être vérifiés pour des biais de spectre et être mis en œuvre avec des protocoles d'équité.

7. Présenter la vie privée dans les réponses générées par l'AI-AI

Parfois, les réponses générées par l'IA peuvent contenir des informations privées telles que les numéros de téléphone, les identifiants d'e-mail, les salaires des employés, etc., ces PII ne doivent pas être distribués aux utilisateurs car il enfreint la confidentialité et met l'identité des personnes en danger. La confidentialité dans les modèles de langue est donc un aspect important de l'IA responsable. Les développeurs doivent protéger les données des utilisateurs et assurer la confidentialité, promouvant l'utilisation éthique de l'IA. Cela peut être fait par la formation des LLM pour identifier et ne pas répondre aux invites visant à extraire ces informations.

Voici un exemple de la façon dont les modèles d'IA peuvent détecter les PII dans une phrase en incorporant certains filtres en place.

AI responsable à l'ère de l'IA générative

Qu'est-ce que l'hallucination dans les modèles Genai?

Outre les défis expliqués ci-dessus, une autre préoccupation critique qui doit être abordée pour rendre l'hallucination est responsable du modèle Genai.

L'hallucination est un phénomène où les modèles d'IA génératifs créent de nouvelles informations inexistantes qui ne correspondent pas à l'entrée donnée par l'utilisateur. Ces informations peuvent souvent contredire ce que le modèle a généré précédemment ou aller à l'encontre des faits connus. Par exemple, si vous demandez à des LLM "parlez-moi de la crème de chaussures Haldiram?" Ils peuvent imaginer un produit fictif qui n'existe pas et vous expliquer ce produit.

Comment détecter les hallucinations dans les modèles Genai?

La méthode la plus courante de fixation des hallucinations dans les modèles Genai est de calculer le score d'hallucination à l'aide de LLM-As-A-Judge. Dans cette méthode, nous comparons la réponse du modèle à trois réponses supplémentaires générées par le juge LLM, pour la même invite. Les résultats sont classés comme précis, soit avec des inexactitudes mineures, ou avec des précisions majeures, correspondant à des scores de 0, 0,5 et 1, respectivement. La moyenne des 3 scores de comparaison est considérée comme le score d'hallucination basé sur la cohérence, car l'idée ici était de vérifier la réponse de cohérence.

AI responsable à l'ère de l'IA générative

Maintenant, nous faisons à nouveau les mêmes comparaisons, mais sur la base de la similitude sémantique. Pour cela, nous calculons la similitude cosinus par paire entre les réponses pour obtenir les scores de similitude. La moyenne de ces scores (moyenne au niveau de la phrase) est ensuite soustraite de 1 pour obtenir le score d'hallucination à base de sémantique. L'hypothèse sous-jacente ici est qu'une réponse hallucinée présentera une similitude sémantique plus faible lorsque la réponse est générée plusieurs fois.

Le score d'hallucination final est calculé comme la moyenne du score d'hallucination basé sur la cohérence et du score d'hallucination basé sur la cohérence.

Plus de façons de détecter les hallucinations dans les modèles Genai

Voici quelques autres méthodes utilisées pour détecter les hallucinations dans les réponses générées par l'IA:

  • Chaîne de connaissance: cette méthode vérifie dynamiquement le contenu généré aux informations au sol de diverses sources pour mesurer l'exactitude factuelle.
  • Chaîne de NLI: Il s'agit d'un cadre hiérarchique qui détecte les erreurs potentielles dans le texte généré. Cela se fait d'abord au niveau de la phrase, suivi d'un chèque plus détaillé au niveau de l'entité.
  • Adhésion au contexte: Il s'agit d'une mesure des hallucinations de domaine fermé, ce qui signifie des situations où le modèle a généré des informations qui n'ont pas été fournies dans le contexte.
  • Exactitude: cela vérifie si une réponse du modèle donné est factuelle ou non. L'exactitude est un bon moyen de découvrir des hallucinations du domaine ouvert ou des erreurs factuelles qui ne se rapportent à aucun document ou contexte spécifique.
  • Incertitude: Cela mesure combien le modèle décide de manière aléatoire entre plusieurs façons de poursuivre la sortie. Il est mesuré à la fois au niveau du jeton et au niveau de réponse.

Construire une IA responsable

Maintenant que nous comprenons comment surmonter les défis du développement d'une IA responsable, voyons comment l'IA peut être construite de manière responsable et déployée.

Voici un cadre de base d'un modèle d'IA responsable:

AI responsable à l'ère de l'IA générative

L'image ci-dessus montre ce que l'on attend d'un modèle de langue responsable lors d'un processus de génération de réponse. Le modèle doit d'abord vérifier l'invite pour la toxicité, l'identification PII, les tentatives de jailbreak et les détections hors sujet, avant de le traiter. Cela comprend la détection des invites qui contiennent un langage abusif, de demander des réponses nocives, de demander des informations confidentielles, etc. Dans le cas d'une telle détection, le modèle doit refuser de traiter ou de répondre à l'invite.

Une fois que le modèle identifie l'invite à être sûr, il peut passer à l'étape de génération de réponse. Ici, le modèle doit vérifier l'interprétabilité, le score d'hallucination, le score de confiance, le score d'équité et le score de toxicité de la réponse générée. Il doit également s'assurer qu'il n'y a pas de fuite de données dans la sortie finale. Dans le cas où l'un de ces scores est élevé, il doit en avertir l'utilisateur. Pour par exemple. Si le score d'hallucination d'une réponse est de 50%, le modèle doit avertir l'utilisateur que la réponse peut ne pas être exacte.

Conclusion

Alors que l'IA continue d'évoluer et de s'intégrer dans divers aspects de notre vie, la construction d'une IA responsable est plus cruciale que jamais. Le cadre de gestion des risques NIST définit les directives essentielles pour relever les défis complexes posés par les modèles d'IA génératifs. La mise en œuvre de ces principes garantit que les systèmes d'IA sont sûrs, transparents et équitables, favorisant la confiance des utilisateurs. Il atténuerait également les risques potentiels comme les sorties biaisées, les violations de données et la désinformation.

Le chemin de l'IA responsable implique des tests et des responsabilités rigoureux des développeurs d'IA. En fin de compte, l'adoption des pratiques d'IA responsables nous aidera à exploiter le plein potentiel de la technologie de l'IA tout en protégeant les individus, les communautés et la société en général des préjudices.

Questions fréquemment posées

Q1. Qu'est-ce qu'une IA responsable?

A. L'IA responsable fait référence à la conception, au développement et au déploiement des systèmes d'IA en priorisant les considérations éthiques, l'équité, la transparence et la responsabilité. Il répond aux préoccupations concernant les biais, la vie privée, la sécurité et les impacts négatifs potentiels sur les individus et les communautés.

Q2. Quels sont les 7 principes de l'IA responsable?

A. Conformément au cadre de gestion des risques NIST, les 7 piliers de l'IA responsable sont: l'incertitude, la sécurité, la sécurité, la responsabilité, la transparence, l'équité et la vie privée.

Q3. Quels sont les trois piliers de l'IA responsable?

A. Les trois piliers de l'IA responsable sont les personnes, les processus et la technologie. Les gens se réfèrent à qui construit votre IA et pour qui est-il construit. Le processus concerne la façon dont l'IA est en cours de construction. La technologie couvre les sujets de la construction de l'IA, de ce qu'elle fait et de son fonctionnement.

Q4. Quels sont les outils pour rendre l'IA responsable?

A. Fiddler AI, le pare-feu Protect's Protect de Galileo, Nvidia's Nemo Guard-Fails (open source) et l'évaluateur NEMO sont quelques-uns des outils les plus utiles pour s'assurer que votre modèle d'IA est responsable. L'architecture NIM de NVIDIA est également utile pour les développeurs afin de surmonter les défis de la création d'applications d'IA. Un autre outil qui peut être utilisé est Lynx, qui est un modèle d'évaluation des hallucinations open source.

Q5. Qu'est-ce que l'hallucination dans l'IA?

A. L'hallucination est un phénomène où les modèles d'IA génératifs créent de nouvelles informations inexistantes qui ne correspondent pas à l'entrée donnée par l'utilisateur. Ces informations peuvent souvent contredire ce que le modèle a généré précédemment ou aller à l'encontre des faits connus.

Q6. Comment détecter les hallucinations AI?

A. Suivi de la chaîne de connaissance, effectuant la chaîne du système de vérification du NLI, calculant l'adhésion au contexte, le score d'exactitude et le score d'incertitude, et l'utilisation de LLM comme juge sont quelques-uns des moyens de détecter l'hallucination dans l'IA.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Un guide complet de l'extrapolationUn guide complet de l'extrapolationApr 15, 2025 am 11:38 AM

Introduction Supposons qu'il y ait un fermier qui observe quotidiennement les progrès des cultures dans plusieurs semaines. Il regarde les taux de croissance et commence à réfléchir à la hauteur de ses plantes de plus en plus dans quelques semaines. De th

La montée de l'IA douce et ce que cela signifie pour les entreprises aujourd'huiLa montée de l'IA douce et ce que cela signifie pour les entreprises aujourd'huiApr 15, 2025 am 11:36 AM

L'IA souple - définie comme des systèmes d'IA conçus pour effectuer des tâches spécifiques et étroites en utilisant un raisonnement approximatif, une reconnaissance de motifs et une prise de décision flexible - cherche à imiter la pensée humaine en adoptant l'ambiguïté. Mais qu'est-ce que cela signifie pour les activités

Évolution des cadres de sécurité pour la frontière AIÉvolution des cadres de sécurité pour la frontière AIApr 15, 2025 am 11:34 AM

La réponse est claire - tout comme le cloud computing nécessitait un changement vers des outils de sécurité natifs du cloud, l'IA exige une nouvelle race de solutions de sécurité conçues spécifiquement pour les besoins uniques de l'IA. La montée des leçons de cloud computing et de sécurité apprises Dans

3 façons dont l'IA générative amplifie les entrepreneurs: méfiez-vous des moyennes!3 façons dont l'IA générative amplifie les entrepreneurs: méfiez-vous des moyennes!Apr 15, 2025 am 11:33 AM

Entrepreneurs et utilisant l'IA et l'IA génératrice pour améliorer leurs entreprises. Dans le même temps, il est important de se souvenir de l'IA génératrice, comme toutes les technologies, est un amplificateur - ce qui rend le grand grand et le médiocre, pire. Une étude rigoureuse en 2024 o

Nouveau cours court sur les modèles d'intégration par Andrew NgNouveau cours court sur les modèles d'intégration par Andrew NgApr 15, 2025 am 11:32 AM

Déverrouiller la puissance des modèles d'intégration: une plongée profonde dans le nouveau cours d'Andrew Ng Imaginez un avenir où les machines comprennent et répondent à vos questions avec une précision parfaite. Ce n'est pas de la science-fiction; Grâce aux progrès de l'IA, cela devient un R

L'hallucination dans les modèles de grande langue (LLMS) est-elle inévitable?L'hallucination dans les modèles de grande langue (LLMS) est-elle inévitable?Apr 15, 2025 am 11:31 AM

Modèles de grande langue (LLM) et le problème inévitable des hallucinations Vous avez probablement utilisé des modèles d'IA comme Chatgpt, Claude et Gemini. Ce sont tous des exemples de modèles de grande langue (LLMS), de puissants systèmes d'IA formés sur des ensembles de données de texte massifs pour

Le problème de 60% - comment la recherche AI ​​vide votre traficLe problème de 60% - comment la recherche AI ​​vide votre traficApr 15, 2025 am 11:28 AM

Des recherches récentes ont montré que les aperçus de l'IA peuvent entraîner une baisse énorme de 15 à 64% du trafic organique, basé sur l'industrie et le type de recherche. Ce changement radical fait que les spécialistes du marketing reconsidèrent toute leur stratégie concernant la visibilité numérique. Le nouveau

MIT Media Lab pour mettre de l'épanouissement humain au cœur de la R&D de l'IAMIT Media Lab pour mettre de l'épanouissement humain au cœur de la R&D de l'IAApr 15, 2025 am 11:26 AM

Un récent rapport de l'imagination du Future Center de l'Université d'Elon a interrogé près de 300 experts en technologie mondiale. Le rapport qui en résulte, «Être humain en 2035», a conclu que la plupart concernaient l'adoption d'approfondissement des systèmes d'IA sur T

See all articles

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Commandes de chat et comment les utiliser
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌

Outils chauds

DVWA

DVWA

Damn Vulnerable Web App (DVWA) est une application Web PHP/MySQL très vulnérable. Ses principaux objectifs sont d'aider les professionnels de la sécurité à tester leurs compétences et leurs outils dans un environnement juridique, d'aider les développeurs Web à mieux comprendre le processus de sécurisation des applications Web et d'aider les enseignants/étudiants à enseigner/apprendre dans un environnement de classe. Application Web sécurité. L'objectif de DVWA est de mettre en pratique certaines des vulnérabilités Web les plus courantes via une interface simple et directe, avec différents degrés de difficulté. Veuillez noter que ce logiciel

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

MantisBT

MantisBT

Mantis est un outil Web de suivi des défauts facile à déployer, conçu pour faciliter le suivi des défauts des produits. Cela nécessite PHP, MySQL et un serveur Web. Découvrez nos services de démonstration et d'hébergement.

SublimeText3 version anglaise

SublimeText3 version anglaise

Recommandé : version Win, prend en charge les invites de code !

mPDF

mPDF

mPDF est une bibliothèque PHP qui peut générer des fichiers PDF à partir de HTML encodé en UTF-8. L'auteur original, Ian Back, a écrit mPDF pour générer des fichiers PDF « à la volée » depuis son site Web et gérer différentes langues. Il est plus lent et produit des fichiers plus volumineux lors de l'utilisation de polices Unicode que les scripts originaux comme HTML2FPDF, mais prend en charge les styles CSS, etc. et présente de nombreuses améliorations. Prend en charge presque toutes les langues, y compris RTL (arabe et hébreu) ​​et CJK (chinois, japonais et coréen). Prend en charge les éléments imbriqués au niveau du bloc (tels que P, DIV),