Maison > Article > Périphériques technologiques > L'Université Tsinghua et d'autres universités lancent la première boîte à outils de filigrane open source pour grands modèles, MarkLLM, qui prend en charge près des 10 derniers algorithmes de filigrane.
La rubrique AIxiv est une rubrique où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com
Cet article a été rédigé conjointement par l'Université Tsinghua, l'Université Jiao Tong de Shanghai, l'Université de Sydney, l'UCSB, l'Université chinoise de Hong Kong et l'Université des sciences de Hong Kong. et technologie, et l'Université des sciences et technologies de Hong Kong (Guangzhou). Les principaux auteurs sont : Pan Leyi (premier auteur), un étudiant de premier cycle à l'Université Tsinghua, dont la direction de recherche est le filigrane de modèles à grande échelle ; Liu Aiwei, un étudiant au doctorat à l'Université Tsinghua, dont la direction de recherche est les modèles à grande échelle sûrs et fiables ; ; He Zhiwei, doctorant à l'Université Jiao Tong de Shanghai, recherche Son axe de recherche est le filigrane sur grand modèle, l'intelligence sur grand modèle, etc. ; Gao Zitian, étudiant de premier cycle à l'Université de Sydney, l'orientation de sa recherche est le filigrane sur grand modèle ; , doctorant à l'UCSB, la direction de la recherche est une IA générative digne de confiance, etc. ; Hu Xuming, Université des sciences et technologies de Hong Kong/Sciences et technologies de Hong Kong Il est professeur adjoint à l'Université de Guangzhou (Guangzhou) et ses intérêts de recherche incluent grands modèles sécurisés et fiables, extraction d'informations, etc. Wen Lijie est professeur associé permanent à l'Université Tsinghua et ses intérêts de recherche incluent l'exploration de processus et le traitement du langage naturel.
Cet article présente un algorithme d'impression de modèles open source lancé conjointement par l'Université Tsinghua et d'autres universités. MarkLLM fournit un cadre unifié de mise en œuvre d'algorithmes d'impression de modèles, une visualisation intuitive du mécanisme d'algorithme d'impression, des exemples et des modules d'évaluation systématique, visant à permettre aux chercheurs d'expérimenter, de comprendre et d'évaluer facilement les derniers développements technologiques d'impression. Grâce à MarkLLM, l'auteur espère approfondir la compréhension du public sur la technologie d'impression de modèles tout en offrant une commodité aux chercheurs, et promouvoir le développement et la promotion de la recherche connexe.
Theory⽂Nom : MarkLLM : Une boîte à outils open source pour le filigrane LLM
Theory⽂Lien : https://arxiv.org/abs/2405.10051
Référentiel de code : https:// /github.com/THU- BPM/MarkLLM
⼯État de développement de la technologie d'impression sur grand modèle et problèmes encore rencontrés
⼤L'impression sur grand modèle est une technologie émergente récemment, qui peut être utilisée pour créer des modèles dans le modèle Des fonctionnalités spécifiques sont implantées dans ce processus pour réaliser l'identification et le traçage des sources des textes organiques. Il peut être utilisé dans des scénarios tels que la détection de fausses nouvelles, le maintien de l’intégrité académique et la protection des droits d’auteur des données et des modèles.
⽬L'algorithme d'empreinte de grand modèle actuel consiste à implanter des empreintes dans l'étape d'inférence de grand modèle. Ce type de méthode est principalement divisé en deux grandes familles d'algorithmes :
Famille KGW : ajoutée par vecteur de pré-score. Imprimez, divisez la liste de mots en listes rouges et vertes, ajoutez un biais aux mots verts, afin que la sortie préfère les mots verts
Famille Christ : une fois le vecteur de notation généré, utilisez des nombres pseudo-aléatoires pour pré-échantillonner le processus, intégrez le filigrane en rendant le texte du filigrane plus pertinent par rapport au nombre aléatoire.
Cependant, comme toutes les technologies émergentes, la technologie chinoise de tatouage de modèles est également confrontée à certains défis d'utilisation et de compréhension.
1. Comment utiliser facilement divers algorithmes de filigrane de grands modèles pour ajouter et détecter des filigranes ?
Divers algorithmes de filigrane de grands modèles émergent constamment. Cependant, leur implémentation est principalement basée sur les propres besoins de l'auteur et manque de conception unifiée de classes et d'interfaces d'appel, ce qui oblige les chercheurs et le public à investir beaucoup d'efforts dans l'utilisation et la reproduction de ces algorithmes.
2. Comment comprendre intuitivement le mécanisme interne de chaque algorithme de filigrane grand modèle ?
⼼Le mécanisme sous-jacent de l'algorithme de filigrane de grand modèle est relativement complexe, impliquant l'intervention du processus de génération de vecteurs de notation et d'échantillonnage dans le processus de génération de texte du grand modèle, ce qui n'est pas facile à comprendre pour les chercheurs et le public.
3. Comment évaluer de manière pratique et complète divers algorithmes de filigrane de grands modèles ?
Les perspectives et les indicateurs d'évaluation sont divers (y compris la détectabilité, la robustesse, l'impact sur la qualité du texte, etc.), et une évaluation implique plusieurs étapes, ce qui rend extrêmement difficile l'évaluation complète et rapide des performances de l'algorithme.
MarkLLM : Le premier package d'outils multifonctionnels open source pour l'impression à l'eau sur grands modèles
En réponse aux trois problèmes que nous venons de mentionner, l'auteur a conçu et implémenté un package d'outils MarkLLM pour la technologie d'impression à l'eau sur grands modèles de langage.
Les principales contributions de MarkLLM peuvent être résumées comme suit :
1. Cadre d'implémentation d'algorithmes d'impression de grands modèles fonctionnellement unifié : prend en charge deux familles d'algorithmes d'impression clés (famille KGW et famille Christ) 9 algorithmes spécifiques.
Solution personnalisée de visualisation des mécanismes d'algorithme d'empreinte d'eau sur grand modèle : permet aux utilisateurs de visualiser les mécanismes internes de différents algorithmes d'empreinte d'eau sur grand modèle sous diverses configurations.
Module d'évaluation complet et systématique des algorithmes d'impression de grands modèles : comprenant un total de 12 outils d'évaluation couvrant 3 angles d'évaluation et deux types de pipelines d'évaluation automatisés.
2. Diplôme de conception : Conception d'architecture modulaire et faiblement couplée, avec une évolutivité et une flexibilité extrêmes.
3. Aspect expérimental : L'auteur a utilisé MarkLLM comme outil de recherche et a mené 3 expériences complètes sous des angles d'évaluation sur les 9 algorithmes pris en charge, tout en prouvant le caractère pratique de MarkLLM, cela a également fourni une base pour des recherches ultérieures. référence.
4. Impact sur la communauté open source⼒ : MarkLLM a reçu beaucoup d'attention depuis son lancement sur GitHub. Il compte plus de 140 étoiles et a attiré des collègues pour contribuer au code via Pull Request. et communiquer et discuter dans la colonne des problèmes.
L'auteur espère sincèrement que la boîte à outils MarkLLM offrira non seulement une commodité aux chercheurs, mais améliorera également la compréhension et la participation du public à la technologie de filigrane de grands modèles de langage et favorisera la communication entre la communauté universitaire et le public. sur la technologie, promouvoir le développement ultérieur de la recherche et de l'application des filigranes de grands modèles de langage et contribuer à l'utilisation sûre des grands modèles de langage.
L'auteur invite sincèrement tout le monde à fournir des opinions précieuses, à échanger et à apprendre les uns des autres, et accueille également les contributions de code via des demandes d'extraction, afin de maintenir un meilleur écosystème technologique de filigrane de grands modèles grâce aux efforts conjoints de chacun !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!