Maison  >  Article  >  interface Web  >  Construire un changement de code

Construire un changement de code

WBOY
WBOYoriginal
2024-09-10 11:08:32929parcourir

Cette semaine, j'ai travaillé sur un outil de ligne de commande que j'ai nommé codeshift, qui permet aux utilisateurs de saisir des fichiers de code source, de choisir un langage de programmation et de les traduire dans la langue de leur choix.

Building codeshift

Il n'y a rien de compliqué sous le capot - il utilise simplement un fournisseur d'IA appelé Groq pour gérer la traduction - mais je voulais entrer dans le processus de développement, comment il est utilisé et quelles fonctionnalités il offre.

Building codeshift ouday-rana / changement de code

changement de code

Outil en ligne de commande qui transforme les fichiers de code source dans n'importe quelle langue.

Building codeshift

Caractéristiques

  • Accepte plusieurs fichiers d'entrée
  • Diffuse la sortie vers la sortie standard
  • Peut choisir la langue de sortie
  • Peut spécifier le chemin du fichier pour écrire la sortie dans le fichier
  • Peut utiliser une clé API personnalisée dans .env

Installation

  • Installer Node.js
  • Obtenir une clé API Groq
  • Cloner le dépôt avec Git ou télécharger au format .zip
  • Dans le répertoire du dépôt contenant package.json, exécutez npm install
    • (Facultatif) Exécutez npm install -g . pour installer le package globalement (pour vous permettre de l'exécuter sans préfixer le nœud)
  • Créez un fichier appelé .env et ajoutez votre clé API Groq : GROQ_API_KEY=API_KEY_HERE

Utilisation

codeshift [-o ]

Exemple

codeshift -o index.go go examples/index.js

Building codeshift

Options

  • -o, --output : Spécifiez le nom du fichier dans lequel écrire la sortie
  • -h, --help : Afficher l'aide pour une commande
  • -v, --version : Afficher le numéro de version

Arguments

  •  : la langue souhaitée vers laquelle convertir les fichiers source
  •  : Chemins…
Voir sur GitHub

Caractéristiques

  • Accepte plusieurs fichiers d'entrée
  • Peut choisir la langue de sortie
  • Diffuse la sortie vers la sortie standard
  • Peut spécifier le chemin du fichier pour écrire la sortie dans le fichier
  • Peut utiliser une clé API personnalisée dans .env

Usage

codeshift [-o ]

Par exemple, pour traduire le fichier examples/index.js en Go et enregistrer la sortie dans index.go :

codeshift -o index.go go examples/index.js

Building codeshift

Possibilités

  • -o, --output : Spécifiez le nom du fichier dans lequel écrire la sortie
  • -h, --help : Afficher l'aide pour une commande
  • -v, --version : Afficher le numéro de version

Arguments

  •  : la langue souhaitée vers laquelle convertir les fichiers source
  •  : Chemins d'accès aux fichiers sources, séparés par des espaces

Développement

J'ai travaillé sur ce projet dans le cadre du cours Topics in Open Source Development à Seneca Polytechnic à Toronto, Ontario. Au début, je voulais m'en tenir aux technologies avec lesquelles j'étais à l'aise, mais les instructions du projet nous encourageaient à apprendre quelque chose de nouveau, comme un nouveau langage de programmation ou un nouveau moteur d'exécution.

Même si j'avais envie d'apprendre Java, après avoir fait quelques recherches en ligne, il me semblait que ce n'était pas un bon choix pour développer un outil CLI ou s'interfacer avec des modèles d'IA. Il n'est pas officiellement pris en charge par OpenAI et la bibliothèque communautaire présentée dans leurs documents est obsolète.

J'ai toujours été du genre à m'en tenir aux technologies populaires : elles ont tendance à être fiables et disposent d'une documentation complète et de tonnes d'informations disponibles en ligne. Mais cette fois, j’ai décidé de faire les choses différemment. J'ai décidé d'utiliser Bun, un nouveau runtime sympa pour JavaScript destiné à remplacer Node.

Il s'avère que j'aurais dû m'en tenir à mon instinct. J'ai rencontré des difficultés en essayant de compiler mon projet et tout ce que je pouvais faire était d'espérer que les développeurs résoudraient le problème.

Impossible d'utiliser le SDK OpenAI avec l'agent Sentry Node : TypeError : getDefaultAgent n'est pas une fonction #1010

Building codeshift
KeithWhor publié le

Confirmez qu'il s'agit d'un problème de bibliothèque de nœuds et non d'un problème sous-jacent de l'API OpenAI

  • [X] Il s'agit d'un problème avec la bibliothèque Node

Décrivez le bug

Référencé précédemment ici, fermé sans résolution : https://github.com/openai/openai-node/issues/903

Il s'agit d'un problème assez important car il empêche l'utilisation du SDK lors de l'utilisation du dernier package de surveillance Sentry.

À reproduire

  1. Installez le SDK Sentry Node via npm i @sentry/node --save
  2. Entrez le code suivant ;
import * as Sentry from '@sentry/node';

// Start Sentry
  Sentry.init({
    dsn: "https://your-sentry-url",
    environment: "your-env",
    tracesSampleRate: 1.0, //  Capture 100% of the transactions
  });
Entrez en mode plein écran Quitter le mode plein écran
  1. Try to create a completion somewhere in the process after Sentry has been initialized:
const params = {
  model: model,
  stream: true,
  stream_options: {
    include_usage: true
  },
  messages
};
const completion = await openai.chat.completions.create(params);
Enter fullscreen mode Exit fullscreen mode

Results in error:

TypeError: getDefaultAgent is not a function
    at OpenAI.buildRequest (file:///my-project/node_modules/openai/core.mjs:208:66)
    at OpenAI.makeRequest (file:///my-project/node_modules/openai/core.mjs:279:44)

Code snippets

(Included)

OS

All operating systems (macOS, Linux)

Node version

v20.10.0

Library version

v4.56.0

View on GitHub

This turned me away from Bun. I'd found out from our professor we were going to compile an executable later in the course, and I did not want to deal with Bun's problems down the line.

So, I switched to Node. It was painful going from Bun's easy-to-use built-in APIs to having to learn how to use commander for Node. But at least it wouldn't crash.

I had previous experience working with AI models through code thanks to my co-op, but I was unfamiliar with creating a command-line tool. Configuring the options and arguments turned out to be the most time-consuming aspect of the project.

Apart from the core feature we chose for each of our projects - mine being code translation - we were asked to implement any two additional features. One of the features I chose to implement was to save output to a specified file. Currently, I'm not sure this feature is that useful, since you could just redirect the output to a file, but in the future I want to use it to extract the code from the response to the file, and include the AI's rationale behind the translation in the full response to stdout. Writing this feature also helped me learn about global and command-based options using commander.js. Since there was only one command (run) and it was the default, I wanted the option to show up in the default help menu, not when you specifically typed codeshift help run, so I had to learn to implement it as a global option.

I also ended up "accidentally" implementing the feature for streaming the response to stdout. I was at first scared away from streaming, because it sounded too difficult. But later, when I was trying to read the input files, I figured reading large files in chunks would be more efficient. I realized I'd already implemented streaming in my previous C++ courses, and figuring it wouldn't be too bad, I got to work.

Then, halfway through my implementation I realized I'd have to send the whole file at once to the AI regardless.

But this encouraged me to try streaming the output from the AI. So I hopped on MDN and started reading about ReadableStreams and messing around with ReadableStreamDefaultReader.read() for what felt like an hour - only to scroll down the AI provider's documentation and realize all I had to do was add stream: true to my request.

Either way, I may have taken the scenic route but I ended up implementing streaming.

Planned Features

Right now, the program parses each source file individually, with no shared context. So if a file references another, it wouldn't be reflected in the output. I'd like to enable it to have that context eventually. Like I mentioned, another feature I want to add is writing the AI's reasoning behind the translation to stdout but leaving it out of the output file. I'd also like to add some of the other optional features, like options to specify the AI model to use, the API key to use, and reading that data from a .env file in the same directory.

That's about it for this post. I'll be writing more in the coming weeks.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn