


Les modèles de grands langues (LLM) ont souvent du mal à produire de manière fiable des sorties structurées comme JSON, même avec une invitation avancée. Bien que l'ingénierie rapide aide, ce n'est pas parfait, conduisant à des erreurs occasionnelles. Ce tutoriel montre comment l'appel de la fonction dans les LLMS assure des données structurées précises et cohérentes.
Fonction Calling permet aux LLMS générer des données structurées (généralement JSON) et interagir avec des systèmes externes, des API et des outils, permettant des tâches complexes et complexes tout en conservant la précision. Nous utiliserons GPT-4.5, connu pour sa précision, pour construire un script appelé à des fonctions. Tout d'abord, nous allons créer une fonction pour récupérer les cours des actions; Ensuite, nous en ajouterons une autre pour permettre au LLM de choisir entre plusieurs outils en fonction de l'invite. La demande finale fournira les cours des actions et les flux d'actualités.
Image de l'auteur
Fonction de GPT-4.5 Avantages d'appel:
GPT-4.5 améliore l'appel de la fonction, améliorant l'interaction avec les systèmes externes et la gestion des tâches complexes. Les caractéristiques clés comprennent:
- Intégration de l'API: fonctionne avec les compléments de chat, les assistants et les API par lots pour l'intégration d'application sans couture.
- Sorties structurées: renvoie des données structurées (JSON), idéales pour interagir avec les systèmes nécessitant des formats de données spécifiques.
- Capacités de vision: accepte les entrées d'image (mais pas les sorties multimodales comme la vidéo ou l'audio).
- Fonctions avancées: simplifie les workflows complexes en suggérant ou en invoquant des fonctions dans votre code, en automatisant les tâches et en intégrant la prise de décision d'IA.
(Voir le blog "GPT 4.5: fonctionnalités, accès, comparaison GPT-4O et plus" pour plus de détails sur le modèle OpenAI.)
Fonction unique appelant (cours de l'action):
Nous allons construire un système simple à l'aide de GPT-4.5 et de la bibliothèque yahooquery
(pour les données de financement Yahoo). Les utilisateurs posent des questions sur les cours des actions, déclenchant une fonction pour récupérer et répondre avec le prix.
-
Installez les bibliothèques:
! pip install openai yahooquery -q
-
Fonction du cours de l'action: Cette fonction Python prend un symbole de ticker (par exemple, AAPL) et renvoie son prix.
à partir d'Openai Import Openai Importer JSON de Yahooquery Import Ticker def get_stock_price (ticker): essayer: T = ticker (ticker) prix_data = t.price Si Ticker dans Price_data et Price_Data [Ticker] .get ("régulièrementmarketprice") n'est pas nul: Price = Price_data [Ticker] ["régulièrementmarketprice"] autre: RETOUR F "Les informations de prix pour {Ticker} ne sont pas disponibles." sauf exception comme e: return f "Impossible de récupérer les données pour {ticker}: {str (e)}" return f "{ticker} se négocie actuellement à $ {prix: .2f}"
-
Définissez l'outil: nous créons une définition d'outil (liste des dictionnaires) pour OpenAI, spécifiant le nom, la description et le type de sortie de la fonction.
outils = [{ "type": "fonction", "fonction": { "nom": "get_stock_price", "Description": "Obtenez le cours actuel de l'action de Yahoo Finance.", "Paramètres": { "type": "objet", "propriétés": { "Ticker": {"type": "String"} }, "requis": ["Ticker"], "supplémentaires": faux }, "Strict": vrai } }]
-
Invoquez la fonction: nous envoyons un message utilisateur à GPT-4.5, en spécifiant le modèle et les outils.
client = openai () Messages = [{"Rôle": "utilisateur", "Contenu": "Quel est le prix actuel de Meta Stock?"}] complétion = client.chat.completions.create (modèle = "gpt-4.5-preview", messages = messages, outils = outils) print (complétion.choices [0] .Message.tool_Calls) # montre une invocation de la fonction
Exécuter et retourner: nous extrassons le ticker, exécutons
get_stock_price
et imprimons le résultat. Ensuite, nous affinons la réponse en le renvoyant au modèle de formatage du langage naturel.
Fonction multiple appelle (cours des actions et actualités):
Nous ajoutons une fonction pour récupérer les actualités de stock à l'aide de la bibliothèque feedparser
.
-
Installer
feedparser
:! PIP Installer FeedParser -Q
-
Fonction d'actualités en stock: Cette fonction récupère les trois premières titres pour un ticker donné.
Importer FeedParser def get_stock_news (ticker): RSS_URL = F "https://feeds.finance.yahoo.com/rss/2.0/headline?s= {ticker »®ion=us&lang=en-us" essayer: Feed = FeedParser.Parse (RSS_URL) Si non Feed.Entries: Renvoie f "Aucune nouvelle trouvée pour {Ticker}." news_items = [f "{entry.title} ({entry.link})" pour l'entrée dans feed.entries [: 3]] return f "Dernières nouvelles pour {ticker}: \ n {chr (10) .join (news_items)}" sauf exception comme e: return f "n'a pas réussi à récupérer les nouvelles pour {ticker}: {str (e)}"
Définir plusieurs outils: nous mettons à jour la liste
tools
pour inclure les deux fonctions.Sélection du modèle: Nous posons à GPT-4.5 une question nécessitant les deux fonctions (par exemple, "prix de l'action et nouvelles de Google"). GPT-4.5 choisira automatiquement et invoquera les fonctions appropriées.
Manipulation des résultats: nous gérons les résultats des deux fonctions, potentiellement à l'aide de la logique conditionnelle en fonction des noms de fonction renvoyés par le LLM. Les résultats sont ensuite ramenés au LLM pour une réponse finale lisible par l'homme.
Conclusion:
Ce didacticiel montre comment la fonction d'appel des fonctions permet aux LLMS de générer des sorties structurées et d'interagir avec les ressources externes. Cette approche améliore la fiabilité et la précision des applications axées sur LLM, ouvrant la voie à des systèmes d'IA plus sophistiqués. Les progrès futurs, comme GPT-5, promettent des capacités encore plus importantes dans ce domaine. Les extraits de code fournis peuvent être combinés et élargis pour créer des applications plus complexes et puissantes.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

La révolution de la technologie juridique prend de l'ampleur, poussant les professionnels du droit à adopter activement des solutions d'IA. La résistance passive n'est plus une option viable pour ceux qui visent à rester compétitifs. Pourquoi l'adoption de la technologie est-elle cruciale? Professionnel du droit

Beaucoup supposent que les interactions avec l'IA sont anonymes, un contraste frappant avec la communication humaine. Cependant, l'IA profile activement les utilisateurs à chaque chat. Chaque invite, chaque mot, est analysée et catégorisée. Explorons cet aspect critique de l'IA Revo

Une stratégie d'intelligence artificielle réussie ne peut pas être séparée d'un fort soutien culturel d'entreprise. Comme l'a dit Peter Drucker, les opérations commerciales dépendent des gens, tout comme le succès de l'intelligence artificielle. Pour les organisations qui adoptent activement l'intelligence artificielle, la construction d'une culture d'entreprise qui s'adapte à l'IA est cruciale, et elle détermine même le succès ou l'échec des stratégies d'IA. West Monroe a récemment publié un guide pratique pour construire une culture d'entreprise florissante adaptée à l'IA, et voici quelques points clés: 1. Clarifier le modèle de réussite de l'IA: Tout d'abord, nous devons avoir une vision claire de la façon dont l'IA peut autonomiser les affaires. Une culture d'opération d'IA idéale peut réaliser une intégration naturelle des processus de travail entre les humains et les systèmes d'IA. L'IA est bonne dans certaines tâches, tandis que les humains sont bons en créativité et en jugement

Meta améliore la demande d'assistant AI, et l'ère de l'IA portable arrive! L'application, conçue pour rivaliser avec ChatGPT, propose des fonctionnalités d'IA standard telles que le texte, l'interaction vocale, la génération d'images et la recherche Web, mais a maintenant ajouté des capacités de géolocalisation pour la première fois. Cela signifie que Meta Ai sait où vous êtes et ce que vous consultez lorsque vous répondez à votre question. Il utilise vos intérêts, l'emplacement, le profil et les informations d'activité pour fournir les dernières informations situationnelles qui n'étaient pas possibles auparavant. L'application prend également en charge la traduction en temps réel, qui a complètement changé l'expérience de l'IA sur les lunettes Ray-Ban et a considérablement amélioré son utilité. L'imposition de tarifs sur les films étrangers est un exercice nu du pouvoir sur les médias et la culture. S'il est mis en œuvre, cela s'accélérera vers l'IA et la production virtuelle

L'intelligence artificielle révolutionne le domaine de la cybercriminalité, ce qui nous oblige à acquérir de nouvelles compétences défensives. Les cybercriminels utilisent de plus en plus de puissantes technologies d'intelligence artificielle telles que la contrefaçon profonde et les cyberattaques intelligentes à la fraude et à la destruction à une échelle sans précédent. Il est rapporté que 87% des entreprises mondiales ont été ciblées pour la cybercriminalité de l'IA au cours de la dernière année. Alors, comment pouvons-nous éviter de devenir victimes de cette vague de crimes intelligents? Explorons comment identifier les risques et prendre des mesures de protection au niveau individuel et organisationnel. Comment les cybercriminels utilisent l'intelligence artificielle À mesure que la technologie progresse, les criminels recherchent constamment de nouvelles façons d'attaquer les individus, les entreprises et les gouvernements. L'utilisation généralisée de l'intelligence artificielle peut être le dernier aspect, mais son préjudice potentiel est sans précédent. En particulier, l'intelligence artificielle

La relation complexe entre l'intelligence artificielle (IA) et l'intelligence humaine (NI) est mieux comprise comme une boucle de rétroaction. Les humains créent une IA, les formant sur les données générées par l'activité humaine pour améliorer ou reproduire les capacités humaines. Cette AI

La récente déclaration d'Anthropic, mettant en évidence le manque de compréhension entourant les modèles d'IA de pointe, a déclenché un débat houleux parmi les experts. Cette opacité est-elle une véritable crise technologique, ou simplement un obstacle temporaire sur le chemin de plus de soph

L'Inde est un pays diversifié avec une riche tapisserie de langues, faisant de la communication transparente entre les régions un défi persistant. Cependant, Bulbul-V2 de Sarvam aide à combler cette lac


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

SublimeText3 version anglaise
Recommandé : version Win, prend en charge les invites de code !

SublimeText3 Linux nouvelle version
Dernière version de SublimeText3 Linux

Adaptateur de serveur SAP NetWeaver pour Eclipse
Intégrez Eclipse au serveur d'applications SAP NetWeaver.

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Navigateur d'examen sécurisé
Safe Exam Browser est un environnement de navigation sécurisé permettant de passer des examens en ligne en toute sécurité. Ce logiciel transforme n'importe quel ordinateur en poste de travail sécurisé. Il contrôle l'accès à n'importe quel utilitaire et empêche les étudiants d'utiliser des ressources non autorisées.
