이번 주에는 사용자가 소스 코드 파일을 입력하고 프로그래밍 언어를 선택한 후 선택한 언어로 번역할 수 있는 codeshift라는 명령줄 도구 작업을 진행했습니다.
내부적으로는 화려한 작업이 진행되지 않습니다. Groq이라는 AI 제공업체를 사용하여 번역을 처리할 뿐입니다. 하지만 개발 프로세스, 사용 방법, 제공하는 기능에 대해 알아보고 싶었습니다.
소스 코드 파일을 원하는 언어로 변환하는 명령줄 도구입니다.
codeshift [-o <출력 파일 이름>] <출력 언어> <입력 파일...>
codeshift -o index.go 예시/index.js로 이동
codeshift [-o <출력 파일 이름>] <출력 언어> <입력 파일...>
예를 들어, example/index.js 파일을 Go로 변환하고 출력을 index.go에 저장하려면:
codeshift -o index.go 예시/index.js로 이동
저는 온타리오 주 토론토에 있는 Seneca Polytechnic에서 오픈 소스 개발 주제 과정의 일환으로 이 프로젝트를 진행해 왔습니다. 처음에는 내가 편한 기술을 계속 사용하고 싶었지만 프로젝트 지침을 통해 새로운 프로그래밍 언어나 새로운 런타임과 같은 새로운 것을 배울 수 있었습니다.
Java를 배우고 싶었지만 온라인에서 검색해 본 결과 CLI 도구를 개발하거나 AI 모델과 인터페이스하는 데는 좋은 선택이 아닌 것 같았습니다. OpenAI에서는 공식적으로 지원되지 않으며 해당 문서에 포함된 커뮤니티 라이브러리는 더 이상 사용되지 않습니다.
저는 항상 인기 있는 기술을 고수해 왔습니다. 이러한 기술은 신뢰할 수 있고 온라인에서 완전한 문서와 수많은 정보를 제공하는 경향이 있습니다. 하지만 이번에는 다르게 행동하기로 결정했습니다. 저는 Node를 대체할 새로운 JavaScript용 런타임인 Bun을 사용하기로 결정했습니다.
알고 보니 직감에 충실했어야 했어요. 프로젝트를 컴파일하는 중에 문제가 발생했고 제가 할 수 있는 일은 개발자가 문제를 해결해주기를 바라는 것뿐이었습니다.
이전에 여기에서 참조했지만 해결 없이 종료되었습니다: https://github.com/openai/openai-node/issues/903
최신 Sentry 모니터링 패키지를 사용하면서 SDK 사용을 방해하기 때문에 이는 꽤 큰 문제입니다.
import * as Sentry from '@sentry/node';
// Start Sentry
Sentry.init({
dsn: "https://your-sentry-url",
environment: "your-env",
tracesSampleRate: 1.0, // Capture 100% of the transactions
});
const params = {
model: model,
stream: true,
stream_options: {
include_usage: true
},
messages
};
const completion = await openai.chat.completions.create(params);
Results in error:
TypeError: getDefaultAgent is not a function at OpenAI.buildRequest (file:///my-project/node_modules/openai/core.mjs:208:66) at OpenAI.makeRequest (file:///my-project/node_modules/openai/core.mjs:279:44)
(Included)
All operating systems (macOS, Linux)
v20.10.0
v4.56.0
This turned me away from Bun. I'd found out from our professor we were going to compile an executable later in the course, and I did not want to deal with Bun's problems down the line.
So, I switched to Node. It was painful going from Bun's easy-to-use built-in APIs to having to learn how to use commander for Node. But at least it wouldn't crash.
I had previous experience working with AI models through code thanks to my co-op, but I was unfamiliar with creating a command-line tool. Configuring the options and arguments turned out to be the most time-consuming aspect of the project.
Apart from the core feature we chose for each of our projects - mine being code translation - we were asked to implement any two additional features. One of the features I chose to implement was to save output to a specified file. Currently, I'm not sure this feature is that useful, since you could just redirect the output to a file, but in the future I want to use it to extract the code from the response to the file, and include the AI's rationale behind the translation in the full response to stdout. Writing this feature also helped me learn about global and command-based options using commander.js. Since there was only one command (run) and it was the default, I wanted the option to show up in the default help menu, not when you specifically typed codeshift help run, so I had to learn to implement it as a global option.
I also ended up "accidentally" implementing the feature for streaming the response to stdout. I was at first scared away from streaming, because it sounded too difficult. But later, when I was trying to read the input files, I figured reading large files in chunks would be more efficient. I realized I'd already implemented streaming in my previous C++ courses, and figuring it wouldn't be too bad, I got to work.
Then, halfway through my implementation I realized I'd have to send the whole file at once to the AI regardless.
But this encouraged me to try streaming the output from the AI. So I hopped on MDN and started reading about ReadableStreams and messing around with ReadableStreamDefaultReader.read() for what felt like an hour - only to scroll down the AI provider's documentation and realize all I had to do was add stream: true to my request.
Either way, I may have taken the scenic route but I ended up implementing streaming.
Right now, the program parses each source file individually, with no shared context. So if a file references another, it wouldn't be reflected in the output. I'd like to enable it to have that context eventually. Like I mentioned, another feature I want to add is writing the AI's reasoning behind the translation to stdout but leaving it out of the output file. I'd also like to add some of the other optional features, like options to specify the AI model to use, the API key to use, and reading that data from a .env file in the same directory.
That's about it for this post. I'll be writing more in the coming weeks.
위 내용은 건물 코드시프트의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!