
Die AIxiv-Kolumne ist eine Kolumne zur Veröffentlichung akademischer und technischer Inhalte auf dieser Website. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com
Papiertitel: Towards Lifelong Learning of Large Language Models: A Survey Institution: Südchina University of Technology University Papieradresse: https://arxiv.org/abs/2406.06391 Projektadresse: https://github .com/ qianlima-lab/awesome-lifelong-learning-methods-for-llm
新颖分类:引入了一个详细的结构化框架,将有关终生学习的大量文献分为 12 个场景; 通用技术:确定了所有终生学习情况下的通用技术,并将现有文献分为每个场景中不同的技术组; 未来方向:强调了一些新兴技术,如模型扩展和数据选择,这些技术在前 LLM 时代探索较少。
内部知识是指通过完全或部分训练将新知识吸收到模型参数中,包括连续预训练和连续微调。 -
外部知识是指在不更新模型参数的情况下,将维基百科或应用程序接口等外部资源中的新知识纳入模型,包括基于检索的终生学习和基于工具的终生学习。
连续垂直领域预训练(Continual Vertical Domain Pretraining):针对特定垂直领域(如金融、医疗等)进行的连续预训练。 连续语言领域预训练(Continual Language Domain Pretraining):针对自然语言和代码语言进行的连续预训练。 连续时间领域预训练(Continual Temporal Domain Pretraining):针对时间相关数据(如时间序列数据)的连续预训练。
特定任务(Task Specific):
连续文本分类(Continual Text Classification):针对文本分类任务进行的连续微调。 连续命名实体识别(Continual Named Entity Recognition):针对命名实体识别任务进行的连续微调。 连续关系抽取(Continual Relation Extraction):针对关系抽取任务进行的连续微调。 连续机器翻译(Continual Machine Translation):针对机器翻译任务进行的连续微调。
任务无关(Task Agnostic):
连续指令微调(Continual Instruction-Tuning):通过指令微调实现模型的连续学习。 连续知识编辑(Continual Knowledge Editing):针对知识更新进行的连续学习。 连续对齐(Continual Alignment):针对模型与新任务对齐进行的连续学习。
整体性能(Overall Measurement):包括平均准确率(AA)和平均增量准确率(AIA)。AA 是指模型在学习所有任务后的平均表现,而 AIA 则考虑了每个任务学习后的历史变化。 稳定性测量(Stability Measurement):包括遗忘测量(FGT)和向后转移(BWT)。FGT 评估旧任务的平均性能下降,而 BWT 评估旧任务的平均性能变化。 适应性测量(Plasticity Measurement):包括向前转移(FWD),即模型在新任务上性能的平均提升。
Signification : Cette méthode est utilisée lors de l'entraînement de nouvelles tâches. Rejouez les données des tâches précédentes pour consolider le mémoire du modèle des anciennes tâches. Habituellement, les données rejouées sont stockées dans un tampon et utilisées pour l'entraînement avec les données de la tâche en cours. Incluent principalement :
– Replay d'expérience : réduisez les oublis en enregistrant une partie des échantillons de données d'anciennes tâches et en réutilisant ces données pour l'entraînement lors de l'entraînement de nouvelles tâches.
–Replay génératif : contrairement à la sauvegarde d'anciennes données, cette méthode utilise un modèle génératif pour créer des pseudo-échantillons, introduisant ainsi la connaissance des anciennes tâches dans l'entraînement de nouvelles tâches.
Illustration : La figure 3 montre le processus de la tâche t-1 à la tâche t Le modèle entraîne la tâche lorsque t. , les anciennes données du tampon (Input t-1 ) sont utilisées.
Signification : Cette méthode empêche le modèle de surajuster les anciens paramètres de tâche lors de l'apprentissage d'une nouvelle tâche en imposant des contraintes de régularisation sur les paramètres du modèle. Les contraintes de régularisation peuvent aider le modèle à conserver la mémoire des anciennes tâches. Incluent principalement :
– Régularisation des poids : en imposant des contraintes supplémentaires sur les paramètres du modèle, elle limite la modification des poids importants lors de l'entraînement de nouvelles tâches, protégeant ainsi l'intégrité des anciennes tâches. Par exemple, la régularisation L2 et la consolidation élastique du poids (EWC) sont des techniques courantes.
–Régularisation des fonctionnalités : la régularisation peut non seulement agir sur les poids, mais également garantir que la répartition des fonctionnalités entre les nouvelles et les anciennes tâches reste stable en limitant les performances du modèle dans l'espace des fonctionnalités.
Illustration : La figure 3 montre le processus de la tâche t-1 à la tâche t Le modèle entraîne la tâche lorsque t. , la régularisation des paramètres est utilisée pour maintenir les performances sur la tâche t-1.
Signification : Cette approche se concentre sur l'adaptation de la structure du modèle pour intégrer de manière transparente de nouvelles tâches tout en minimisant les interférences avec les connaissances précédemment acquises. Il comprend principalement les six méthodes de la figure 4 :
–(a) Réglage des invites : en ajoutant des « invites logicielles » avant la saisie du modèle, pour guider les tâches de génération ou de classification du modèle. Cette méthode nécessite uniquement d'ajuster un petit nombre de paramètres (c'est-à-dire des mots d'invite) sans modifier la structure principale du modèle.
–(b) Réglage du préfixe : ajoutez des paramètres réglables entraînés à la partie préfixe de la séquence d'entrée. Ces paramètres sont insérés dans le mécanisme d'auto-attention de la couche Transformer pour aider le modèle à mieux capturer les informations contextuelles.
–(c) Adaptation de bas rang (LoRA, Low-Rank Adaptation) : LoRA s'adapte aux nouvelles tâches en ajoutant des matrices de bas rang à des niveaux spécifiques sans modifier les poids principaux du grand modèle. Cette approche réduit considérablement le nombre d'ajustements de paramètres tout en maintenant les performances du modèle.
–(d) Adaptateurs : les adaptateurs sont des modules pouvant être entraînés insérés entre différentes couches du modèle. Ces modules peuvent s'adapter avec un petit nombre de paramètres supplémentaires sans modifier les poids du modèle d'origine. Généralement appliqué dans les parties FFN (Feed Forward Network) et MHA (Multi-Head Attention).
–(e) Mélange d'experts : Traitez différentes entrées en activant sélectivement certains modules « experts », qui peuvent être des couches ou des sous-réseaux spécifiques dans le modèle. Le module Routeur est chargé de décider quel module expert doit être activé.
–(f) Extension du modèle : augmentez la capacité du modèle en ajoutant un nouveau calque (Nouveau calque) tout en conservant le calque d'origine (Ancien calque). Cette approche permet au modèle d'augmenter progressivement sa capacité à répondre à des exigences de tâches plus complexes.
Illustration : La figure 3 montre le processus de la tâche t-1 à la tâche t Lorsque le modèle apprend une nouvelle tâche, certains paramètres sont gelés, tandis que le module nouvellement ajouté est utilisé pour former de nouvelles tâches (Trainable).
Signification : Cette méthode transfère les connaissances de l’ancien modèle vers le nouveau modèle par distillation des connaissances. Lors de la formation d'une nouvelle tâche, le nouveau modèle apprend non seulement les données de la tâche en cours, mais imite également la sortie de l'ancien modèle pour l'ancienne tâche, conservant ainsi la connaissance de l'ancienne tâche. Comprend principalement :
Illustration : La figure 3 montre la transition de la tâche t-1 à la tâche t Dans le Dans ce processus, lorsque le modèle entraîne une nouvelle tâche, il maintient la connaissance de l'ancienne tâche en imitant les résultats de prédiction de l'ancien modèle.
Exemple : CorpusBrain++ utilise une architecture d'adaptateur de base et une stratégie de relecture d'expérience pour aborder des tâches linguistiques à forte intensité de connaissances du monde réel. Exemple : Med-PaLM introduit le réglage des invites d'instructions dans le domaine médical en utilisant un petit nombre d'exemples.
Exemple : ELLE adopte une stratégie d'expansion de modèle préservant les fonctionnalités pour améliorer l'efficacité de l'acquisition et de l'intégration des connaissances en élargissant de manière flexible la largeur et la profondeur des modèles linguistiques pré-entraînés existants. Exemple : LLaMA Pro excelle dans les tâches d'utilisation générale, de programmation et de mathématiques en étendant le bloc Transformer et en l'affinant avec un nouveau corpus.
-
Exemple : La stratégie proposée par Gupta et al. ajuste le taux d'apprentissage lors de l'introduction de nouveaux ensembles de données pour éviter que le taux d'apprentissage ne soit trop faible lors d'une formation à long terme, améliorant ainsi l'effet d'adaptation aux nouveaux ensembles de données.
Exemple : RHO -1 est formé avec un modèle de langage sélectif (SLM), qui donne la priorité aux jetons qui ont un plus grand impact sur le processus de formation. Exemple : EcomGPT-CT améliore les performances du modèle sur des tâches spécifiques à un domaine avec des données de commerce électronique semi-structurées.
Exemple : Yadav et al. améliorent le réglage des invites en introduisant un mécanisme de forçage des enseignants, créant un ensemble d'invites pour guider le réglage fin du modèle sur de nouvelles tâches. Exemple : ModuleFormer et Lifelong-MoE utilisent une approche mixte d'experts (MoE) pour améliorer l'efficacité et l'adaptabilité du LLM grâce à la modularité et à l'augmentation dynamique de la capacité du modèle.
-
Exemple : La méthode de réchauffement proposée par Ibrahim et al. aide le modèle à s'adapter plus rapidement aux nouvelles langues en augmentant temporairement le taux d'apprentissage lors de la formation de nouvelles données.
Exemple : une tâche de classification de texte continue entraîne le modèle en introduisant progressivement de nouvelles catégories de classification (telles que Intention : Transfert -> Intention : Pointage de crédit -> Intention : Fait amusant) afin qu'il puisse s'adapter aux besoins changeants de classification.
Exemple : La tâche continue de reconnaissance d'entités nommées montre comment introduire progressivement de nouveaux types d'entités (tels que Athlète -> Équipe sportive -> Politicien) tout en reconnaissant des entités spécifiques, de sorte que le modèle puisse toujours maintenir la reconnaissance des anciennes entités tout en reconnaissant la capacité des nouvelles entités. .
Exemple : La tâche d'extraction continue de relations montre comment le modèle étend progressivement ses capacités d'extraction de relations en introduisant continuellement de nouveaux types de relations (tels que Relation : Fondé par -> Relation : État ou province de naissance -> Relation : Pays du siège social).
Exemple : La tâche d'édition continue des connaissances garantit qu'elle peut répondre avec précision aux faits les plus récents en mettant continuellement à jour la base de connaissances du modèle (telle que Qui est le président des États-Unis ? -> Pour quel club Cristiano Ronaldo joue-t-il actuellement ? -> Où s'est passé le dernier hiver Jeux olympiques organisés ?).
Exemple : La tâche de traduction automatique continue démontre l'adaptabilité du modèle dans un environnement multilingue en étendant progressivement les capacités de traduction du modèle dans différentes langues (telles que anglais -> chinois, anglais -> espagnol, anglais -> français).
Exemple : La tâche de réglage fin de l'instruction continue entraîne les capacités de performance du modèle dans plusieurs types de tâches en introduisant progressivement de nouveaux types d'instructions (tels que Résumation -> Transfert de style -> Mathématiques).
Exemple : Continu La tâche d'alignement démontre les capacités d'apprentissage continu du modèle selon différentes normes morales et comportementales en introduisant de nouveaux objectifs d'alignement (tels que Utile et inoffensif -> Concis et organisé -> Sentiment positif).
Introduction : Avec l'augmentation continue de l'information dans le monde Mise à l'échelle et évolution rapidement, les modèles statiques formés sur des données historiques deviennent rapidement obsolètes et incapables de comprendre ou de générer du contenu sur les nouveaux développements. L'apprentissage tout au long de la vie basé sur la récupération répond au besoin critique de grands modèles de langage pour acquérir et assimiler les dernières connaissances provenant de sources externes, et le modèle complète ou met à jour sa base de connaissances en récupérant ces ressources externes en cas de besoin. Ces ressources externes fournissent une vaste base de connaissances actuelles, fournissant un atout complémentaire important pour améliorer les propriétés statiques des LLM pré-entraînés. Exemple : Ces ressources externes dans le diagramme sont accessibles et récupérables par le modèle. En accédant à des sources d'informations externes telles que Wikipédia, des livres, des bases de données, etc., le modèle est capable de mettre à jour ses connaissances et de s'adapter lorsqu'il rencontre de nouvelles informations.
Introduction : L'apprentissage tout au long de la vie basé sur les outils naît de la nécessité d'étendre ses fonctionnalités au-delà des connaissances statiques et de lui permettre d'interagir de manière dynamique avec l'environnement. Dans les applications du monde réel, les modèles sont souvent requis pour effectuer des tâches qui impliquent des opérations allant au-delà de la génération ou de l'interprétation directe de texte. Exemple : Le modèle illustré dans la figure utilise ces outils pour étendre et mettre à jour ses propres capacités, permettant ainsi un apprentissage tout au long de la vie grâce à l'interaction avec des outils externes. Par exemple, les modèles peuvent obtenir des données en temps réel via des interfaces de programmation d'applications, ou interagir avec l'environnement externe via des outils physiques pour effectuer des tâches spécifiques ou acquérir de nouvelles connaissances.
Oubli catastrophique : il s'agit de l'un des principaux défis de l'apprentissage tout au long de la vie, et l'introduction de nouvelles informations peut écraser ce que le modèle a appris précédemment. Dilemme Plasticité-Stabilité : Il est très critique de trouver un équilibre entre le maintien de la capacité d'apprentissage et la stabilité du modèle, ce qui affecte directement la capacité du modèle à acquérir de nouvelles connaissances tout en conservant ses. de larges capacités générales. Coût de calcul élevé : les exigences de calcul pour affiner complètement un grand modèle de langage peuvent être très élevées. Indisponibilité des poids de modèle ou des données pré-entraînées : en raison de la confidentialité, de restrictions exclusives ou de licences commerciales, les données d'entraînement brutes ou les poids de modèle sont souvent indisponibles pour des améliorations ultérieures.
Des tâches spécifiques à des tâches générales : la recherche passe progressivement d'une concentration sur des tâches spécifiques (telles que la classification de textes, la reconnaissance d'entités nommées) à un éventail plus large de tâches générales, telles que le réglage des instructions, l'édition des connaissances, etc. Du réglage fin complet au réglage fin partiel : compte tenu de la consommation élevée de ressources des stratégies de réglage fin complet et partiel (telles que la couche d'adaptation, le réglage rapide, LoRA) sont de plus en plus populaires. Des connaissances internes aux connaissances externes : afin de surmonter les limites des mises à jour internes fréquentes, de plus en plus de stratégies utilisent des sources de connaissances externes, telles que la génération augmentée par récupération et les outils L'apprentissage permet des modèles pour accéder et exploiter dynamiquement les données externes actuelles.
Apprentissage multimodal tout au long de la vie : intégrez plusieurs modalités au-delà du texte (telles que des images, des vidéos, des audios, des données de séries chronologiques, des graphiques de connaissances) dans l'apprentissage tout au long de la vie pour développer un modèle sexuel plus complet et adaptatif. Apprentissage efficace tout au long de la vie : les chercheurs travaillent au développement de stratégies plus efficaces pour gérer les exigences informatiques de la formation et des mises à jour des modèles, telles que l'élagage du modèle, la fusion de modèles, l'expansion du modèle et d'autres méthodes. Apprentissage universel tout au long de la vie : l'objectif ultime est de permettre aux grands modèles linguistiques d'acquérir activement de nouvelles connaissances et d'apprendre grâce à une interaction dynamique avec l'environnement, sans plus s'appuyer uniquement sur des ensembles de données statiques.
以上是整合 200 多项相关研究,大模型「终生学习」最新综述来了的详细内容。更多信息请关注PHP中文网其他相关文章!
![[带AI的吉卜力风格图像]介绍如何使用Chatgpt和版权创建免费图像](https://img.php.cn/upload/article/001/242/473/174707263295098.jpg?x-oss-process=image/resize,p_40)
OpenAI发布的最新模型GPT-4o,不仅能生成文本,还具备图像生成功能,引发广泛关注。其中最受瞩目的功能便是“吉卜力风格插画”的生成。只需将照片上传至ChatGPT,并给出简单的指令,即可生成宛如吉卜力工作室作品般梦幻的图像。本文将详细解读实际操作流程、效果感受,以及需要注意的错误和版权问题。 OpenAI发布的最新模型“o3”详情请点击此处⬇️ OpenAI o3(ChatGPT o3)详解:特性、定价体系及o4-mini介绍 吉卜力风格文章的英文版请点击此处⬇️ 利用ChatGPT创作吉

作为一种新的交流方法,在地方政府中使用和引入Chatgpt引起了人们的关注。尽管这种趋势在广泛的领域正在发展,但一些地方政府拒绝使用Chatgpt。 在本文中,我们将介绍地方政府中ChatGPT实施的示例。我们将通过各种改革实例,包括支持文件创建和与公民对话,从而探索如何通过各种改革实例来实现地方政府服务的质量和效率提高。 不仅旨在减少员工工作量并改善公民的便利性的地方政府官员,而且都对高级用例感兴趣。

您是否听说过一个名为“福卡斯提示系统”的框架?诸如ChatGpt之类的语言模型非常出色,但是适当的提示对于发挥其潜力至关重要。福卡(Fukatsu)提示是旨在提高输出准确性的最受欢迎的提示技术之一。 本文解释了福卡式风格提示的原理和特征,包括特定的用法方法和示例。此外,我们还引入了其他众所周知的及时模板和有用的技术来及时设计,因此,根据这些设计,我们将介绍C。

CHATGPT搜索:使用创新的AI搜索引擎有效获取最新信息! 在本文中,我们将彻底解释OpenAI提供的新的ChatGpt功能“ ChatGpt搜索”。让我们仔细研究一下功能,用法以及该工具如何根据实时网络信息和直观的易用性来帮助您提高信息收集效率。 chatgpt搜索提供了一种对话互动搜索体验,该体验在舒适,隐藏的环境中回答用户问题,以隐藏广告

信息爆炸的现代社会,创作出令人信服的文章并非易事。如何在有限的时间和精力内,发挥创造力,撰写出吸引读者的文章,需要高超的技巧和丰富的经验。 这时,作为革命性的写作辅助工具,ChatGPT 备受瞩目。ChatGPT 利用庞大的数据训练出的语言生成模型,能够生成自然流畅、精炼的文章。 本文将介绍如何有效利用 ChatGPT,高效创作高质量文章的技巧。我们将逐步讲解使用 ChatGPT 的写作流程,并结合具体案例,详细阐述其优缺点、适用场景以及安全使用注意事项。ChatGPT 将成为作家克服各种障碍,

使用AI创建图表的有效指南 视觉材料对于有效传达信息至关重要,但是创建它需要大量时间和精力。但是,由于AI技术(例如Chatgpt和dall-e 3)的兴起,图表创建过程正在发生巨大变化。本文使用这些尖端工具提供了有关有效而有吸引力的图创建方法的详细说明。它涵盖了从想法到完成的所有内容,并包含大量信息,可用于创建图表,从可以使用的特定步骤,提示,插件和API以及如何使用图像一代AI“ dall-e 3.”)

解锁ChatGPT Plus:费用、支付方式及升级指南 全球瞩目的顶尖生成式AI,ChatGPT已广泛应用于日常生活和商业领域。虽然ChatGPT基本免费,但付费版ChatGPT Plus提供多种增值服务,例如插件、图像识别等,显着提升工作效率。本文将详细解读ChatGPT Plus的收费标准、支付方式及升级流程。 OpenAI最新图像生成技术“GPT-4o图像生成”详情请点击: GPT-4o图像生成详解:使用方法、提示词示例、商业应用及与其他AI的差异 目录 ChatGPT Plus费用 Ch

如何使用Chatgpt简化您的设计工作并提高创造力 本文将详细说明如何使用ChatGpt创建设计。我们将介绍在各个设计领域中使用Chatgpt的示例,例如思想,文本生成和网页设计。我们还将介绍点,以帮助您提高各种创意作品的效率和质量,例如图形设计,插图和徽标设计。请看一下AI如何大大扩展您的设计可能性。 目录 chatgpt:设计创建的强大工具


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

VSCode Windows 64位 下载
微软推出的免费、功能强大的一款IDE编辑器

WebStorm Mac版
好用的JavaScript开发工具

mPDF
mPDF是一个PHP库,可以从UTF-8编码的HTML生成PDF文件。原作者Ian Back编写mPDF以从他的网站上“即时”输出PDF文件,并处理不同的语言。与原始脚本如HTML2FPDF相比,它的速度较慢,并且在使用Unicode字体时生成的文件较大,但支持CSS样式等,并进行了大量增强。支持几乎所有语言,包括RTL(阿拉伯语和希伯来语)和CJK(中日韩)。支持嵌套的块级元素(如P、DIV),

适用于 Eclipse 的 SAP NetWeaver 服务器适配器
将Eclipse与SAP NetWeaver应用服务器集成。

记事本++7.3.1
好用且免费的代码编辑器