텍스트 생성 작업은 일반적으로 교사 강제를 사용하여 훈련됩니다. 이 훈련 방법을 사용하면 모델은 훈련 과정에서 긍정적인 샘플만 볼 수 있습니다. 그러나 일반적으로 생성 대상과 입력 사이에는 특정 제약 조건이 문장의 핵심 요소에 반영됩니다. 예를 들어 쿼리 재작성 작업에서는 "order McDonald's"를 "order KFC"로 변경할 수 없습니다. 자제력의 핵심 요소는 브랜드 키워드입니다. 대조 학습을 도입하고 생성 프로세스에 부정적인 샘플 패턴을 추가함으로써 모델은 이러한 제약 조건을 효과적으로 학습할 수 있습니다.
기존 대조 학습 방법은 주로 전체 문장 수준에 초점을 맞추고[1][2], 문장 내 단어 단위의 정보를 무시합니다. 아래 그림의 예는 문장의 핵심 단어를 보여줍니다. 단어의 중요한 의미. 입력 문장의 경우 키워드가 바뀌면(예: 우주론->천체물리학) 문장의 의미가 바뀌므로 의미 공간에서의 위치(분포로 표시)도 변경됩니다. . 키워드는 문장에서 가장 중요한 정보로서 의미 분포의 한 지점에 해당하며, 이는 문장 분포의 위치를 크게 결정합니다. 동시에, 어떤 경우에는 기존 대조 학습 목표가 모델에 비해 너무 쉽기 때문에 모델이 긍정적인 사례와 부정적인 사례 사이의 핵심 정보를 실제로 학습할 수 없게 됩니다.
이를 바탕으로 Ant Group, Peking University 및 기타 기관의 연구자들은 다중 입도 대비 생성 방법을 제안하고 계층적 대비 구조를 설계하고 다양한 수준에서 정보를 강화하며 문장 입도에서 학습을 강화했습니다. 전반적인 의미론은 단어 세분성에서 지역의 중요한 정보를 향상시킵니다. ACL 2022에 대한 연구 논문이 승인되었습니다.
논문 주소: https://aclanthology.org/2022.acl-long.304.pdf
Method
우리의 접근 방식은 다음을 기반으로 합니다. classic CVAE 텍스트 생성 프레임워크[3][4]에서 각 문장은 벡터 공간의 분포에 매핑될 수 있으며 문장의 키워드는 이 분포에서 샘플링된 포인트로 간주될 수 있습니다. 한편으로는 문장 입도 비교를 통해 잠재 공간 벡터 분포의 표현을 향상시키고, 다른 한편으로는 구축된 전역 키워드 그래프를 통해 키워드 포인트 입도의 표현을 향상시킵니다. 키워드 포인트와 문장의 분포. 구성 수준 간의 대조를 통해 두 세분성에서 정보 표현을 향상시킵니다. 최종 손실 함수는 세 가지 서로 다른 대조 학습 손실을 추가하여 얻습니다.
문장 세분화 비교 학습
인스턴스 수준에서는 원래 입력 x, 목표 출력
을 사용합니다. 해당 출력 네거티브 샘플 문장을 만들어 보세요. 쌍 크기 비교
. 우리는 사전 네트워크를 사용하여
으로 기록된 사전 분포
을 학습하고 사후 네트워크를 통해 근사 사후 분포
를 학습합니다.
및
은 각각
및
으로 표시됩니다. .. 문장 세분화 비교 학습의 목표는 사전 분포와 양의 사후 분포 사이의 거리를 최대한 줄이는 동시에 사전 분포와 음의 사후 분포 사이의 거리를 최대화하는 것입니다.
여기서 는 양성 샘플 또는 음성 샘플이고, 는 거리 측정을 나타내는 데 사용되는 온도 계수입니다. 여기서는 KL 발산(Kullback-Leibler 발산)을 사용합니다. ] 두 분포 사이의 직접적인 거리를 측정합니다.
키워드 세분화 비교 학습
- 키워드 네트워크
키워드 세분화 비교 학습은 모델이 문장정보 , 우리는 입력 및 출력 텍스트에 해당하는 긍정적인 관계와 부정적인 관계를 사용하여 키워드 그래프를 구성함으로써 이 목표를 달성합니다. 구체적으로, 주어진 문장 쌍
에 따라 키워드
과
을 각각 결정할 수 있습니다. ( 키워드 추출 방법은, 나는 고전적인 TextRank 알고리즘 [6]을 사용합니다. 문장
에는 동일한 키워드
을 사용하는 다른 문장이 있을 수 있습니다.
, 모든 문장
에는 한 쌍의 긍정 및 부정 예문 출력 문장
이 있습니다. 키워드
및 제외 예시 키워드
. 이런 식으로 전체 컬렉션에서 모든 출력 문장
에 대해 해당 키워드
및 주변의 각
으로 간주할 수 있습니다.
(문장 간의 긍정적 및 부정적 관계를 통해 연결됨)
사이에는 긍정적인 가장자리가 있으며, 각 주변
부정적인 측면
. 이러한 키워드 노드와 해당 직접 가장자리를 기반으로 키워드 그래프를 구축할 수 있습니다
각 노드에 BERT 임베딩[7]을 사용합니다
초기화하고 사용합니다. 각 모서리의 표현을 학습하는 MLP 레이어
. GAT(Graph Attention) 레이어와 MLP 레이어를 통해 키워드 네트워크의 노드와 엣지를 반복적으로 업데이트합니다. 각 반복에서 먼저 다음과 같은 방식으로 엣지 표현을 업데이트합니다.
여기
은
또는
일 수 있습니다.
그런 다음 업데이트된 가장자리를 기반으로 , 그래프 어텐션 레이어를 통해 각 노드의 표현을 업데이트합니다. Here 은 모두 학습 가능한 매개변수입니다. 주목 가중치입니다. Vanishing Gradient 문제를 방지하기 위해 에 잔여 연결을 추가하여 이 반복 에서 노드 표현을 얻습니다. 마지막 반복의 노드 표현을 u로 표시된 키워드 표현으로 사용합니다. 키워드 세분성 비교는 입력 문장의 키워드 에서 비롯됩니다. 사기꾼 노드 . 입력 문장의 출력 긍정 샘플에서 추출된 키워드를 로 기록하고, 위 키워드 네트워크의 부정 이웃 노드는 , 으로 기록합니다. , 키워드 세분성의 비교 학습 손실은 다음과 같이 계산됩니다. 을 가리키는 데 사용됩니다. 또는 , h(·)는 거리 측정을 나타내는 데 사용됩니다. 키워드 세분성 비교 학습에서는 두 지점 사이의 거리를 계산하기 위해 코사인 유사성을 선택합니다. 위의 문장 세분성 및 키워드 세분성 대조 학습은 분포와 지점에서 각각 구현되어 있음을 알 수 있습니다. 두 개의 세분성이 가능합니다. 차이가 작아지면 강화 효과가 약해집니다. 이에 대해 우리는 점과 분포 사이의 Mahalanobis 거리[8]를 기반으로 서로 다른 세분성 간의 비교 연관성을 구성하여 대상 출력 키워드와 문장 분포 사이의 거리가 최대한 작아지도록 하고 사기꾼 사이의 거리가 각 입자 크기를 독립적으로 비교하면 대비가 사라질 수 있다는 단점을 보완합니다. 구체적으로, 교차 입도 마할라노비스 거리 대조 학습은 문장의 사후 의미 분포 과 사이의 거리를 최대한 줄이고, 사이의 거리를 늘리는 것을 목표로 합니다. 그것과 사이의 거리는 다음과 같습니다. 도 사용됩니다. 또는 이고 h(·)는 Mahalanobis 거리입니다. 실험 및 분석 실험 결과 우리는 Douban(Dialogue) [9], QQP(Paraphrasing) [10][11] 및 Roc의 세 가지 공개 데이터 세트에서 수행했습니다. 스토리 실험 (Storytelling)[12]을 진행하여 SOTA 결과를 얻었습니다. 우리가 비교하는 기준선에는 기존 생성 모델(예: CVAE[13], Seq2Seq[14], Transformer[15]), 사전 훈련된 모델 기반 방법(예: Seq2Seq-DU[16], DialoGPT[17], BERT-GEN)이 포함됩니다. [7], T5[18]) 및 대조 학습 기반 방법(예: 그룹별[9], T5-CLAPS[19]). 자동 평가 지표로 문장 쌍 사이의 BLEU 점수[20]와 BOW 임베딩 거리(극단/평균/탐욕)[21]를 계산합니다. 결과는 아래 그림과 같습니다. 수동 평가는 각각 T5-CLAPS, DialoGPT, Seq2Seq-DU에 주석이 달린 3개의 주석과 우리 모델에 의해 생성된 결과에도 사용됩니다. 키워드 사용 여부, 키워드 네트워크 사용 여부, 마할라노비스 거리 비교 분포 사용 여부에 대해 절제 분석 실험을 수행한 결과 이 세 가지 디자인이 실제로 비즈니스에 중요한 역할을 한다는 것을 알 수 있습니다. 최종 결과가 중요한 역할을 하기 때문에 실험 결과는 아래 그림에 나와 있습니다. 우리는 무작위로 샘플링된 사례를 시각화하고 t-sne[22]을 통해 차원 축소를 수행하여 다음을 얻었습니다. 다음 그림. 그림을 보면 입력 문장의 표현이 추출된 키워드 표현에 가깝다는 것을 알 수 있는데, 이는 문장에서 가장 중요한 정보인 키워드가 대개 의미분포의 위치를 결정한다는 것을 보여준다. 또한, 대조 학습에서는 훈련 후 입력 문장의 분포가 긍정적 샘플에 더 가깝고 부정적인 샘플에서 멀어지는 것을 볼 수 있으며, 이는 대조 학습이 의미 분포를 수정하는 데 도움이 될 수 있음을 보여줍니다. 마지막으로 다양한 키워드 샘플링의 영향을 살펴봅니다. 아래 표와 같이 입력 질문에 대해 각각 TextRank 추출과 무작위 선택 방법을 통해 의미 분포를 제어하기 위한 조건으로 키워드를 제공하고 생성된 텍스트의 품질을 확인합니다. 키워드는 문장에서 가장 중요한 정보 단위입니다. 키워드에 따라 의미 분포가 달라지며 더 많은 키워드를 선택할수록 문장이 더 정확해집니다. 한편, 다른 모델에서 생성된 결과도 아래 표에 나와 있습니다. 이 기사에서는 여러 텍스트 생성 데이터 세트 기본 작업에서 경쟁력을 갖춘 교차 세분성 계층적 대조 학습 메커니즘을 제안합니다. 본 작업을 기반으로 한 쿼리 재작성 모델은 Alipay 검색의 실제 비즈니스 시나리오에서 성공적으로 구현되어 놀라운 결과를 얻었습니다. Alipay의 검색에 포함된 서비스는 광범위한 영역을 포괄하며 상당한 도메인 특성을 가지고 있습니다. 사용자의 검색어 표현과 서비스의 표현은 문자 그대로 큰 차이가 있어 키워드를 기반으로 직접 매칭하여 이상적인 결과를 얻기가 어렵습니다. 예를 들어, 사용자가 "신차 출시 쿼리"라는 쿼리를 입력하면 "신차 출시 쿼리" 서비스를 불러올 수 없습니다.) 쿼리 재작성의 목적은 사용자가 입력한 쿼리를 다음과 더 가까운 방식으로 다시 작성하는 것입니다. 쿼리 의도를 변경하지 않고 서비스 표현을 변경하여 대상 서비스와 더 잘 일치시킵니다. 다음은 몇 가지 단어 변경 예입니다. 절제 분석
시각적 분석
키워드 중요도 분석
비즈니스 애플리케이션
위 내용은 Alipay 검색 경험을 개선하기 위해 Ant와 Peking University는 계층적 비교 학습 텍스트 생성 프레임워크를 사용합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

近年来,多模态学习受到重视,特别是文本 - 图像合成和图像 - 文本对比学习两个方向。一些 AI 模型因在创意图像生成、编辑方面的应用引起了公众的广泛关注,例如 OpenAI 先后推出的文本图像模型 DALL・E 和 DALL-E 2,以及英伟达的 GauGAN 和 GauGAN2。谷歌也不甘落后,在 5 月底发布了自己的文本到图像模型 Imagen,看起来进一步拓展了字幕条件(caption-conditional)图像生成的边界。仅仅给出一个场景的描述,Imagen 就能生成高质量、高分辨率

今天的主角,是一对AI界相爱相杀的老冤家:Yann LeCun和Gary Marcus在正式讲述这一次的「新仇」之前,我们先来回顾一下,两位大神的「旧恨」。LeCun与Marcus之争Facebook首席人工智能科学家和纽约大学教授,2018年图灵奖(Turing Award)得主杨立昆(Yann LeCun)在NOEMA杂志发表文章,回应此前Gary Marcus对AI与深度学习的评论。此前,Marcus在杂志Nautilus中发文,称深度学习已经「无法前进」Marcus此人,属于是看热闹的不

Yann LeCun 这个观点的确有些大胆。 「从现在起 5 年内,没有哪个头脑正常的人会使用自回归模型。」最近,图灵奖得主 Yann LeCun 给一场辩论做了个特别的开场。而他口中的自回归,正是当前爆红的 GPT 家族模型所依赖的学习范式。当然,被 Yann LeCun 指出问题的不只是自回归模型。在他看来,当前整个的机器学习领域都面临巨大挑战。这场辩论的主题为「Do large language models need sensory grounding for meaning and u

日前,美国西北大学工程师开发出有史以来最小的遥控步行机器人,它以一种小巧可爱的螃蟹形式出现。这种微小的“螃蟹”机器人宽度只有半毫米,可以弯曲、扭曲、爬行、行走、转弯甚至跳跃,无需液压或电力。IT之家了解到,相关研究成果发表在《科学・机器人》上。据介绍,这种机器人是用形状记忆合金材料所制造的,然后可以变成所需的形状,当你加热后又会变回原来的形状,而热量消失时可以再次弹回变形时的样子。据介绍,其热量是由激光所带来的。激光通过“螃蟹”加热合金,但因为它们非常小,所以热量传播非常快,这使得它们的响应速度

近几年,自我博弈中的强化学习已经在围棋、国际象棋等一系列游戏中取得了超人的表现。此外,自我博弈的理想化版本还收敛于纳什均衡。纳什均衡在博弈论中非常著名,该理论是由博弈论创始人,诺贝尔奖获得者约翰 · 纳什提出,即在一个博弈过程中,无论对方的策略选择如何,当事人一方都会选择某个确定的策略,则该策略被称作支配性策略。如果任意一位参与者在其他所有参与者的策略确定的情况下,其选择的策略是最优的,那么这个组合就被定义为纳什均衡。之前就有研究表明,自我博弈中看似有效的连续控制策略也可以被对抗策略利用,这表明

由于可以做一些没训练过的事情,大型语言模型似乎具有某种魔力,也因此成为了媒体和研究员炒作和关注的焦点。当扩展大型语言模型时,偶尔会出现一些较小模型没有的新能力,这种类似于「创造力」的属性被称作「突现」能力,代表我们向通用人工智能迈进了一大步。如今,来自谷歌、斯坦福、Deepmind和北卡罗来纳大学的研究人员,正在探索大型语言模型中的「突现」能力。解码器提示的 DALL-E神奇的「突现」能力自然语言处理(NLP)已经被基于大量文本数据训练的语言模型彻底改变。扩大语言模型的规模通常会提高一系列下游N

分子是维持物质化学稳定性的最小单位。对分子的研究,是药学、材料学、生物学、化学等众多科学领域的基础性问题。分子的表征学习(MolecularRepresentationLearning)是近年来非常热门的方向,目前可分为诸多门派:计算药学家说:分子可以表示为一串指纹,或者描述符,如上海药物所提出的AttentiveFP,是这方面的杰出代表。NLPer说:分子可以表示为SMILES(序列),然后当作自然语言处理,如百度的X-Mol,是这方面的杰出代表。图神经网络研究者说:分子可以表示为一个图(G

ChatGPT发布后,「用语言模型辅助论文写作」到底算作弊剽窃,还是合理使用写作工具,目前各高校、论文会议中仍然没有统一标准,甚至不同的科研人员对ChatGPT都持有不同的态度。有人认为ChatGPT可以提高写作质量,让非英语母语者减少语法错误等;但也有人认为生成的文字并不属于作者,违反学术道德。最近,康奈尔大学的副教授AlexanderRush在参加ICLR2023期间,在会议交流时采访了多位参会人员对「用LLM写论文」的态度。从结果来看,支持与反对占比基本五五开,并且支持和反对的程度相差无几


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

ZendStudio 13.5.1 맥
강력한 PHP 통합 개발 환경

안전한 시험 브라우저
안전한 시험 브라우저는 온라인 시험을 안전하게 치르기 위한 보안 브라우저 환경입니다. 이 소프트웨어는 모든 컴퓨터를 안전한 워크스테이션으로 바꿔줍니다. 이는 모든 유틸리티에 대한 액세스를 제어하고 학생들이 승인되지 않은 리소스를 사용하는 것을 방지합니다.

Eclipse용 SAP NetWeaver 서버 어댑터
Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

WebStorm Mac 버전
유용한 JavaScript 개발 도구

Atom Editor Mac 버전 다운로드
가장 인기 있는 오픈 소스 편집기

뜨거운 주제



