Maison > Article > interface Web > Construire un changement de code
Cette semaine, j'ai travaillé sur un outil de ligne de commande que j'ai nommé codeshift, qui permet aux utilisateurs de saisir des fichiers de code source, de choisir un langage de programmation et de les traduire dans la langue de leur choix.
Il n'y a rien de compliqué sous le capot - il utilise simplement un fournisseur d'IA appelé Groq pour gérer la traduction - mais je voulais entrer dans le processus de développement, comment il est utilisé et quelles fonctionnalités il offre.
Outil en ligne de commande qui transforme les fichiers de code source dans n'importe quelle langue.
codeshift [-o
codeshift -o index.go go examples/index.js
codeshift [-o
Par exemple, pour traduire le fichier examples/index.js en Go et enregistrer la sortie dans index.go :
codeshift -o index.go go examples/index.js
J'ai travaillé sur ce projet dans le cadre du cours Topics in Open Source Development à Seneca Polytechnic à Toronto, Ontario. Au début, je voulais m'en tenir aux technologies avec lesquelles j'étais à l'aise, mais les instructions du projet nous encourageaient à apprendre quelque chose de nouveau, comme un nouveau langage de programmation ou un nouveau moteur d'exécution.
Même si j'avais envie d'apprendre Java, après avoir fait quelques recherches en ligne, il me semblait que ce n'était pas un bon choix pour développer un outil CLI ou s'interfacer avec des modèles d'IA. Il n'est pas officiellement pris en charge par OpenAI et la bibliothèque communautaire présentée dans leurs documents est obsolète.
J'ai toujours été du genre à m'en tenir aux technologies populaires : elles ont tendance à être fiables et disposent d'une documentation complète et de tonnes d'informations disponibles en ligne. Mais cette fois, j’ai décidé de faire les choses différemment. J'ai décidé d'utiliser Bun, un nouveau runtime sympa pour JavaScript destiné à remplacer Node.
Il s'avère que j'aurais dû m'en tenir à mon instinct. J'ai rencontré des difficultés en essayant de compiler mon projet et tout ce que je pouvais faire était d'espérer que les développeurs résoudraient le problème.
Référencé précédemment ici, fermé sans résolution : https://github.com/openai/openai-node/issues/903
Il s'agit d'un problème assez important car il empêche l'utilisation du SDK lors de l'utilisation du dernier package de surveillance Sentry.
import * as Sentry from '@sentry/node';
// Start Sentry
Sentry.init({
dsn: "https://your-sentry-url",
environment: "your-env",
tracesSampleRate: 1.0, // Capture 100% of the transactions
});
const params = {
model: model,
stream: true,
stream_options: {
include_usage: true
},
messages
};
const completion = await openai.chat.completions.create(params);
Results in error:
TypeError: getDefaultAgent is not a function at OpenAI.buildRequest (file:///my-project/node_modules/openai/core.mjs:208:66) at OpenAI.makeRequest (file:///my-project/node_modules/openai/core.mjs:279:44)
(Included)
All operating systems (macOS, Linux)
v20.10.0
v4.56.0
This turned me away from Bun. I'd found out from our professor we were going to compile an executable later in the course, and I did not want to deal with Bun's problems down the line.
So, I switched to Node. It was painful going from Bun's easy-to-use built-in APIs to having to learn how to use commander for Node. But at least it wouldn't crash.
I had previous experience working with AI models through code thanks to my co-op, but I was unfamiliar with creating a command-line tool. Configuring the options and arguments turned out to be the most time-consuming aspect of the project.
Apart from the core feature we chose for each of our projects - mine being code translation - we were asked to implement any two additional features. One of the features I chose to implement was to save output to a specified file. Currently, I'm not sure this feature is that useful, since you could just redirect the output to a file, but in the future I want to use it to extract the code from the response to the file, and include the AI's rationale behind the translation in the full response to stdout. Writing this feature also helped me learn about global and command-based options using commander.js. Since there was only one command (run) and it was the default, I wanted the option to show up in the default help menu, not when you specifically typed codeshift help run, so I had to learn to implement it as a global option.
I also ended up "accidentally" implementing the feature for streaming the response to stdout. I was at first scared away from streaming, because it sounded too difficult. But later, when I was trying to read the input files, I figured reading large files in chunks would be more efficient. I realized I'd already implemented streaming in my previous C++ courses, and figuring it wouldn't be too bad, I got to work.
Then, halfway through my implementation I realized I'd have to send the whole file at once to the AI regardless.
But this encouraged me to try streaming the output from the AI. So I hopped on MDN and started reading about ReadableStreams and messing around with ReadableStreamDefaultReader.read() for what felt like an hour - only to scroll down the AI provider's documentation and realize all I had to do was add stream: true to my request.
Either way, I may have taken the scenic route but I ended up implementing streaming.
Right now, the program parses each source file individually, with no shared context. So if a file references another, it wouldn't be reflected in the output. I'd like to enable it to have that context eventually. Like I mentioned, another feature I want to add is writing the AI's reasoning behind the translation to stdout but leaving it out of the output file. I'd also like to add some of the other optional features, like options to specify the AI model to use, the API key to use, and reading that data from a .env file in the same directory.
That's about it for this post. I'll be writing more in the coming weeks.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!