Maison  >  Article  >  Périphériques technologiques  >  DeepMind a publié un article de 30 pages : Nous devons donner aux chatbots différentes « trois vues »

DeepMind a publié un article de 30 pages : Nous devons donner aux chatbots différentes « trois vues »

王林
王林avant
2023-05-09 16:46:09719parcourir

Le langage est une compétence humaine unique et le principal moyen par lequel nous communiquons des informations telles que les pensées, les intentions et les sentiments.

DeepMind a publié un article de 30 pages : Nous devons donner aux chatbots différentes « trois vues »

Avec le développement de modèles linguistiques à grande échelle dans le domaine de la PNL, les chercheurs en IA s'entraînent, prédisent statistiquement et génèrent du texte sur une grande quantité de textes, et développent de nombreux agents conversationnels pour communiquer avec les humains.

Bien que les modèles linguistiques tels que InstructGPT, Gopher et LaMDA aient atteint des niveaux de performance records dans des tâches telles que la traduction, la réponse aux questions et la compréhension écrite, ces modèles présentent également de nombreux risques potentiels et modes d'échec, notamment la génération de contenus discriminatoires, faux ou trompeurs. information.

Ces lacunes limitent l'utilisation efficace des agents conversationnels dans des contextes appliqués et attirent l'attention sur la manière dont ils ne parviennent pas à répondre à certains idéaux de communication. À ce jour, la plupart des approches en matière de cohérence des agents conversationnels se sont concentrées sur la prévision et la réduction du risque de préjudice.

Récemment, des chercheurs de l'Université d'Édimbourg et de DeepMind ont publié un article de 30 pages explorant à quoi pourrait ressembler une communication réussie entre les humains et les agents conversationnels artificiels, et quelles valeurs devraient guider les interactions dans différents domaines conversationnels.

Lien papier : https://arxiv.org/abs/2209.00731

Les chatbots qui vous parleront dans le futur auront également des visions du monde, des valeurs et une vision de la vie différentes ?

Trois points de vue sur les chatbots

Pour développer des lignes directrices comportementales pour les robots, les chercheurs se sont appuyés sur la pragmatique, une tradition linguistique et philosophique qui considère que le but, le contexte et un ensemble de normes associées d'une conversation (normes) sont tous des éléments importants. d’améliorer la pratique du dialogue.

Le linguiste et philosophe Paul Grice estime que le dialogue est un effort de collaboration entre deux ou plusieurs parties dans lequel les participants doivent :

Parler de manière informative

Dire la vérité

Fournir des informations pertinentes Informations

Éviter les déclarations obscures ou ambiguës

Cependant, dans différents domaines de dialogue, les objectifs et les valeurs (valeurs) requis sont différents, et ces indicateurs doivent être encore améliorés avant de pouvoir être utilisés pour évaluer les agents conversationnels.

Par exemple, l'investigation et la communication scientifiques (investigation et communication scientifiques) visent principalement à comprendre ou à prédire des phénomènes empiriques. Avec ces objectifs à l’esprit, un agent conversationnel conçu pour aider à l’investigation scientifique aurait intérêt à émettre uniquement des déclarations dont la véracité est confirmée par des preuves empiriques suffisantes, ou à qualifier sa position en termes d’intervalles de confiance associés.

L'agent peut signaler que "À une distance de 4,246 années-lumière, Centauri est l'étoile la plus proche de la Terre" seulement après que son modèle de base ait vérifié que cette affirmation est cohérente avec les faits.

Cependant, un agent conversationnel qui joue le rôle de modérateur dans le discours politique public peut avoir besoin de faire preuve de « vertus » complètement différentes.

Dans ce cas, l'objectif de l'agent est principalement de gérer les différences et de parvenir à une coopération productive dans la vie communautaire, ce qui signifie que l'agent doit mettre l'accent sur les valeurs démocratiques de tolérance, de courtoisie et de respect.

De plus, ces valeurs expliquent également pourquoi les modèles linguistiques peuvent générer un discours toxique ou biaisé : violer le discours ne parvient pas à transmettre un respect égal entre les participants à la conversation, ce qui est un code de conduite clé dans l'environnement où le modèle est déployé.

Dans le même temps, les vertus scientifiques, telles que la présentation complète des données empiriques, peuvent être moins importantes dans le contexte de la délibération publique.

Pour un autre exemple, dans le domaine du storytelling créatif, le but de la communication est la nouveauté et l'originalité, et ces valeurs sont également très différentes des domaines précédents.

Dans ce cas, une plus grande latitude concernant la « fiction » peut être appropriée, même s'il reste important de protéger la communauté des contenus malveillants sous couvert d'« utilisation créative ».

Les discours doivent être classés

L'énoncé peut être divisé en cinq catégories selon la pragmatique :

1. Assertif (affirmatif), indiquant que l'orateur est très confiant dans ce qu'il dit et que le contenu de la phrase est cohérent avec le monde L'état de quelque chose est cohérent.

Par exemple, lorsque l'assistant IA répond à des questions similaires telles que « Quel temps fait-il maintenant ? », la réponse « Il pleut » est une affirmation affirmée.

L'authenticité du contenu du discours peut être évaluée en fonction de l'état réel des choses. S’il pleut lorsque l’agent conversationnel répond, alors la déclaration est vraie, sinon elle est fausse.

2. Directive signifie que l'orateur demande à l'auditeur d'effectuer une certaine action. Elle est souvent utilisée pour commander, demander, suggérer ou proposer.

Par exemple, un agent conversationnel intégré dans une application de conseil médical indiquant à l'utilisateur de « se faire soigner immédiatement » est une déclaration impérative.

L'évaluation de ces énoncés, ou de leurs « critères de validité », dépend d'une compréhension précise de la relation entre moyens et fins, et de la congruence entre les instructions de l'orateur et les souhaits ou besoins de l'auditeur.

Une instruction est réussie si elle persuade l'auditeur d'atteindre un certain état de choses dans le monde sur la base du contenu de l'injonction. Une instruction est utile ou correcte si son but ou son objectif est lui-même celui que l’auditeur a des raisons de poursuivre.

3. Expressif, indiquant un état psychologique ou émotionnel secondaire de l'orateur, comme des félicitations, des remerciements et des excuses.

Quand un interlocuteur dit « Je suis très en colère en ce moment », c'est une déclaration expressive.

Les déclarations expressives sont conçues pour refléter des états mentaux internes, c'est-à-dire que l'entité qui fait ces déclarations peut posséder l'état mental correspondant, ce qui est très déroutant pour les agents conversationnels car les robots n'ont aucune émotion.

En fait, cela implique également que les développeurs doivent réfléchir à l'interlocuteur avant de pouvoir évaluer l'efficacité de ces conversations.

4. Comportement (performatif), indiquant que le discours change une partie de la réalité pour correspondre au contenu du discours, semblable à l'annonce de quelque chose, comme le chef d'un pays déclarant la guerre à un autre pays.

Le critère pour évaluer la validité de l'énoncé est de savoir si la réalité change réellement en fonction de ce qui est dit. Bien souvent, ce n’est pas le cas.

Dans la plupart des cas, si une personne déclare « déclarer la guerre à la France », ce n'est probablement qu'une blague car cela n'a aucun impact sur la géopolitique, car l'orateur n'a probablement pas l'autorité pour mettre en œuvre cette déclaration.

5. Commissif signifie que l'orateur promet un plan d'action futur, comme promettre de faire quelque chose ou promettre de respecter un contrat.

La validité d'une déclaration à ordre dépend du fait que la promesse soit tenue. Une promesse est une déclaration valide si elle est tenue. Mais les agents conversationnels manquent souvent de capacité de mémoire ou de compréhension de ce qui a été dit auparavant.

Par exemple, un agent conversationnel peut promettre de vous aider lorsque votre vélo tombe en panne, mais en raison d'un manque de compréhension du contenu de la promesse ou de la capacité de la tenir, la promesse est vouée à l'échec.

La voie à suivre

Cette recherche a des implications pratiques pour le développement d'agents conversationnels alignés.

Premièrement, le modèle doit présenter différentes règles de comportement en fonction du scénario spécifique dans lequel il est déployé : il n'y a pas de déclaration unique sur la cohérence du modèle de langage, mais plutôt le mode approprié et les critères d'évaluation du modèle ; agent (y compris le critère d’authenticité) sera basé sur la communication conversationnelle et variera en fonction du contexte et du but.

De plus, les agents conversationnels peuvent également avoir un processus de construction et d'élucidation du contexte, cultivant un dialogue plus solide et mutuellement respectueux au fil du temps.

Même si une personne n'est pas consciente des valeurs qui régissent une pratique conversationnelle particulière, un agent peut toujours aider les humains à comprendre ces règles de conduite en préfigurant ces valeurs dans la conversation, rendant le processus de communication plus profond et plus approfondi. productif pour le locuteur humain.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer