Maison >Périphériques technologiques >IA >Ce que ChatGPT et l'IA générative signifient dans la transformation numérique

Ce que ChatGPT et l'IA générative signifient dans la transformation numérique

PHPz
PHPzavant
2023-05-15 10:19:121204parcourir

Ce que ChatGPT et lIA générative signifient dans la transformation numérique

OpenAI, la société qui a développé ChatGPT, présente une étude de cas menée par Morgan Stanley sur son site Internet. Le sujet est « Morgan Stanley Wealth Management déploie GPT-4 pour organiser sa vaste base de connaissances ». L'étude de cas cite Jeff McMillan, responsable de l'analyse, des données et de l'innovation chez Morgan Stanley, déclarant : « Le modèle fournira un système interne alimenté par un chatbot qui effectuera une recherche complète de contenu sur la gestion de patrimoine et débloquera efficacement les connaissances accumulées par Morgan Stanley Wealth Management.

McMillan a en outre souligné : « Avec GPT-4, vous avez fondamentalement immédiatement les connaissances de la personne la plus compétente en gestion de patrimoine... Considérez-le comme notre stratège en chef des investissements, notre directeur des investissements, nos économistes mondiaux, Nous sommes convaincus qu'il s'agit là d'une capacité de transformation pour notre entreprise. » C'est le but ultime de la gestion des connaissances – la capacité d'incarner les connaissances et l'expertise d'une entreprise dans le domaine. systèmes, processus et outils qui interagissent avec les clients.

Alors, cet objectif a-t-il vraiment été atteint ? L'IA générative est-elle la réponse à l'accès, à la récupération et à l'application des connaissances ? Avant de déclarer la victoire sur le chaos de l'information, il est important de considérer certains éléments et considérations de base.

Premièrement, la perception selon laquelle l'IA générative peut surmonter les défis de la gestion des connaissances repose sur une hypothèse, à savoir que les connaissances existent sous une forme explicite et documentée. Cependant, dans la plupart des entreprises, les connaissances sont enfermées dans la tête des employés et, si elles sont stockées sous forme numérique, elles sont dispersées en silos au sein d’un écosystème de départements, de technologies et de référentiels. OpenAI souligne en outre sur son site Web que Morgan Stanley publie chaque année des milliers d'articles, couvrant les marchés des capitaux, les classes d'actifs, l'analyse industrielle et les régions économiques mondiales... Cette richesse de connaissances crée une expérience unique pour Morgan Stanley. peuvent être traités et analysés à l’aide de GPT-4, ainsi que contrôlés en interne. Morgan Stanley possède des connaissances qui pourraient servir de base à l’utilisation du modèle linguistique à grande échelle de ChatGPT. Si le contenu et les ressources de connaissances de l'entreprise sont inaccessibles, de mauvaise qualité ou incompatibles avec les besoins des clients et des employés, ChatGPT n'aura pas accès aux connaissances spécifiques qui répondent à ces besoins.

Deuxièmement, l'intelligence artificielle générative crée du contenu. Ce n'est pas un mécanisme de récupération. Alors, comment la base de connaissances originale est-elle utilisée ? C’est un domaine délicat. ChatGPT recherche des modèles dans les relations entre le contenu et les concepts afin de pouvoir prédire quel texte doit être affiché en fonction des invites. L'invite est un signal, tout comme le terme de recherche est un signal. Les moteurs de recherche prédisent quelles informations doivent être affichées en fonction non seulement des termes, mais également d'autres signaux pertinents pour le scénario de requête (par exemple, le secteur d'activité ou le rôle du chercheur). Les scénarios peuvent être fournis à ChatGPT sous la forme de faits ou de documents dans l'invite, ou par programme en pointant vers des informations spécifiques sur lesquelles baser la réponse.

Modèle de langage à grande échelle - thésaurus

Un modèle de langage à grande échelle est une représentation mathématique de termes, de concepts et de relations contenus dans un corps d'informations. La puissance des grands modèles linguistiques réside dans leur capacité à comprendre l'intention de l'utilisateur (ce que l'utilisateur recherche, quelle que soit la manière dont la demande est exprimée) et à prédire les modèles de mots les plus susceptibles de répondre à l'intention de l'utilisateur. Le modèle « comprend » la demande de l'utilisateur et fait des prédictions sur ce qui doit être renvoyé. Les moteurs de recherche effectuent également des prédictions basées sur les requêtes des utilisateurs, mais via des mécanismes différents. Les moteurs de recherche peuvent être utilisés pour générer des extractions dans des scénarios d’intelligence artificielle. Récupérez du contenu à l'aide de moteurs de recherche sémantique ou de moteurs de recherche neuronaux et utilisez de grands modèles de langage pour formater les réponses des utilisateurs.

Thesaurus mappe les termes non préférés aux termes préférés (par exemple, « EDT » et « Énoncé des travaux » correspondent à « Proposition », qui est le terme préféré du document balisé). Considérez l'un des aspects d'un grand modèle de langage comme un « thésaurus », pas seulement des mots, mais des expressions et des concepts. Les utilisateurs peuvent poser la même question de différentes manières. Cette classification des intentions n’est pas nouvelle et constitue la base des chatbots qui analysent les changements de phrases en actions spécifiques. Les modèles de langage constituent la base des capacités d’analyse d’intention et de classification.

Les grands modèles de langage comprennent également les modèles de mots qui suivent les invites. C'est ainsi que vous activez la fluidité de la session ChatGPT. La clé pour les rendre utiles à l'entreprise est d'adapter les modèles à un contenu ou à des ensembles de connaissances spécifiques (ce que Morgan Stanley a fait lors de la mise en œuvre de ChatGPT) et d'incorporer une terminologie propre à l'entreprise.

Il existe de nombreux tutoriels avec des exemples de code illustrant comment utiliser de grands modèles de langage avec un contenu spécifique. Par exemple, ses vidéos guident les développeurs tout au long du processus d'utilisation de modèles de langage tels que GPT-4 et d'orientation des chatbots vers des connaissances et des contenus spécifiques.

Bots spécifiques aux connaissances pour les entreprises

Après avoir examiné ces didacticiels, voici quelques observations :

Les chatbots personnalisés et spécifiques aux connaissances peuvent utiliser de grands modèles de langage pour comprendre les besoins des utilisateurs, puis revenir aux résultats des sources de connaissances spécifiées. Les développeurs notent que le contenu doit être « découpé » en parties « sémantiquement significatives ». Le contenu composé de composants conçu pour répondre à une question spécifique doit être complet et contextuel. Il est important de noter que la connaissance n’existe généralement pas dans cet état. Pour les décomposer, les documents volumineux et les corps de texte doivent être divisés en morceaux. Par exemple, un manuel d'utilisation peut être divisé en parties par chapitres, sections, paragraphes et phrases. Dans le monde de la documentation technique, cela est déjà fait : des normes telles que DITA (Darwin Information Classification Architecture) utilisent une approche thématique idéale pour répondre aux questions.

Les développeurs parlent de « sémantique » et de leur importance. Qu’est-ce que cela signifie ? La sémantique est une question de sens. Le contenu sémantiquement riche est étiqueté avec des métadonnées qui facilitent la récupération précise des informations requises et du contexte de l'information. Par exemple, si un utilisateur utilise un modèle spécifique de routeur et que ce routeur émet un code d'erreur, le contenu marqué avec ces identifiants peut être récupéré lors de la demande d'aide à un robot d'assistance. Ce processus est également connu sous le nom d’« interpolation » dans le monde des chatbots.

Le contenu personnalisé est ingéré dans ce que l'on appelle un « espace vectoriel », un autre modèle mathématique d'informations qui place les documents dans un espace multidimensionnel (une construction mathématique) qui permet de regrouper et de récupérer des documents similaires. C'est ce qu'on appelle « l'intégration ». Les intégrations peuvent contenir des métadonnées et des identifiants (tels que des sources de référence) qui aident à documenter les raisons pour lesquelles une réponse spécifique a été fournie à l'utilisateur. Ceci est important pour la responsabilité juridique et à des fins réglementaires, ainsi que pour l'assurance que des informations correctes et faisant autorité sont fournies aux utilisateurs.

La définition de la formation à l'intelligence artificielle

Il existe plusieurs visions de la « formation ». ChatGPT et les grands modèles de langage sont formés sur de grandes quantités de contenu, ce qui leur permet de comprendre les requêtes des utilisateurs et de répondre avec des réponses optimales, bien formées et conversationnelles. Une façon de former l'outil consiste à inclure dans l'invite quelque chose comme « Répondez à cette question en fonction des informations suivantes… »

Mais il y a deux problèmes ici :

Premièrement, ChatGPT ne peut gérer qu'un certain montant dans son contenu rapide, cette méthode de questionnement sera très limitée. Le contenu peut être intégré à l'outil, ce qui prendra en charge une formation supplémentaire. Cependant, l'ajout de contenu à ChatGPT fusionne également ce contenu dans le modèle public. En conséquence, les droits de propriété intellectuelle de l’entreprise seront compromis. Ce risque a conduit de nombreuses entreprises à interdire l'utilisation de ChatGPT et d'autres outils d'IA qui ont perdu leur propriété intellectuelle en raison du téléchargement par inadvertance de secrets d'entreprise.

Il existe également une autre façon de former du contenu. Les grands modèles de langage peuvent utiliser des connaissances spécifiques à l'entreprise dans le cadre du corpus de formation, mais cela nécessite de fournir une version derrière un pare-feu. Heureusement, les grands modèles de langage deviennent rapidement banalisés, et certains peuvent même être exécutés de manière native sur un ordinateur portable. Ce type de formation est également coûteux en termes de calcul. Un autre mécanisme consiste à utiliser de grands modèles de langage pour interpréter les objectifs de l'utilisateur (ses intentions), puis à utiliser des intégrations vectorielles pour fournir par programme des scénarios à partir de données ou de sources de contenu spécifiques.

Le modèle de langage traite et formate ensuite la réponse pour la rendre conversationnelle et complète. De cette manière, les connaissances sont séparées des grands modèles linguistiques afin que les secrets commerciaux et la propriété intellectuelle d’une entreprise ne soient pas compromis.

Tous ces facteurs soulignent la nécessité d'une gestion et d'une architecture des connaissances pour organiser les informations en composants afin que les utilisateurs puissent obtenir des réponses à des questions spécifiques. Le modèle linguistique étendu et la nature révolutionnaire de ChatGPT offrent la fluidité conversationnelle nécessaire pour soutenir une expérience client positive avec des niveaux d'interaction quasi-humains. Le facteur clé est l’accès à des connaissances bien structurées dans l’entreprise. ChatGPT a l'air incroyable, mais il est basé sur le traitement statistique des informations et la prédiction de modèles. L'information, si elle est organisée et intégrée correctement, peut constituer un élément important de la transformation numérique d'une entreprise.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer