>  기사  >  웹 프론트엔드  >  건물 코드시프트

건물 코드시프트

WBOY
WBOY원래의
2024-09-10 11:08:32929검색

이번 주에는 사용자가 소스 코드 파일을 입력하고 프로그래밍 언어를 선택한 후 선택한 언어로 번역할 수 있는 codeshift라는 명령줄 도구 작업을 진행했습니다.

Building codeshift

내부적으로는 화려한 작업이 진행되지 않습니다. Groq이라는 AI 제공업체를 사용하여 번역을 처리할 뿐입니다. 하지만 개발 프로세스, 사용 방법, 제공하는 기능에 대해 알아보고 싶었습니다.

Building codeshift 우데이-라나 / 코드시프트

코드시프트

소스 코드 파일을 원하는 언어로 변환하는 명령줄 도구입니다.

Building codeshift

특징

  • 여러 입력 파일 허용
  • stdout으로 출력 스트리밍
  • 출력 언어 선택 가능
  • 파일에 출력을 쓸 파일 경로를 지정할 수 있습니다
  • .env에서 사용자 정의 API 키를 사용할 수 있습니다.

설치

  • Node.js 설치
  • Groq API 키 받기
  • Git로 저장소를 복제하거나 .zip으로 다운로드하세요
  • package.json이 포함된 repo 디렉터리 내에서 npm install을 실행합니다.
    • (선택 사항) npm install -g 를 실행하세요. 패키지를 전체적으로 설치하려면(노드 접두사 없이 실행할 수 있도록)
  • .env라는 파일을 생성하고 Groq API 키를 추가하세요: GROQ_API_KEY=API_KEY_HERE

사용방법

codeshift [-o <출력 파일 이름>] <출력 언어> <입력 파일...>

codeshift -o index.go 예시/index.js로 이동

Building codeshift

옵션

  • -o, --output: 출력을 쓸 파일 이름을 지정합니다
  • -h, --help: 명령에 대한 도움말 표시
  • -v, --version: 버전 번호 출력

인수

  • : 소스 파일을 변환하려는 언어
  • <입력 파일...>: 경로…
GitHub에서 보기

특징

  • 여러 입력 파일 허용
  • 출력 언어 선택 가능
  • stdout으로 출력 스트리밍
  • 파일에 출력을 쓸 파일 경로를 지정할 수 있습니다
  • .env에서 사용자 정의 API 키를 사용할 수 있습니다.

용법

codeshift [-o <출력 파일 이름>] <출력 언어> <입력 파일...>

예를 들어, example/index.js 파일을 Go로 변환하고 출력을 index.go에 저장하려면:

codeshift -o index.go 예시/index.js로 이동

Building codeshift

옵션

  • -o, --output: 출력을 쓸 파일 이름을 지정합니다
  • -h, --help: 명령에 대한 도움말 표시
  • -v, --version: 버전 번호 출력

인수

  • : 소스 파일을 변환하려는 언어
  • : 공백으로 구분된 소스 파일의 경로

개발

저는 온타리오 주 토론토에 있는 Seneca Polytechnic에서 오픈 소스 개발 주제 과정의 일환으로 이 프로젝트를 진행해 왔습니다. 처음에는 내가 편한 기술을 계속 사용하고 싶었지만 프로젝트 지침을 통해 새로운 프로그래밍 언어나 새로운 런타임과 같은 새로운 것을 배울 수 있었습니다.

Java를 배우고 싶었지만 온라인에서 검색해 본 결과 CLI 도구를 개발하거나 AI 모델과 인터페이스하는 데는 좋은 선택이 아닌 것 같았습니다. OpenAI에서는 공식적으로 지원되지 않으며 해당 문서에 포함된 커뮤니티 라이브러리는 더 이상 사용되지 않습니다.

저는 항상 인기 있는 기술을 고수해 왔습니다. 이러한 기술은 신뢰할 수 있고 온라인에서 완전한 문서와 수많은 정보를 제공하는 경향이 있습니다. 하지만 이번에는 다르게 행동하기로 결정했습니다. 저는 Node를 대체할 새로운 JavaScript용 런타임인 Bun을 사용하기로 결정했습니다.

알고 보니 직감에 충실했어야 했어요. 프로젝트를 컴파일하는 중에 문제가 발생했고 제가 할 수 있는 일은 개발자가 문제를 해결해주기를 바라는 것뿐이었습니다.

Sentry Node 에이전트와 함께 OpenAI SDK를 사용할 수 없습니다: TypeError: getDefaultAgent는 함수가 아닙니다. #1010

Building codeshift
키스워 게시일:

이것이 기본 OpenAI API 문제가 아니라 노드 라이브러리 문제인지 확인하세요

  • [X] Node 라이브러리 문제입니다

버그 설명

이전에 여기에서 참조했지만 해결 없이 종료되었습니다: https://github.com/openai/openai-node/issues/903

최신 Sentry 모니터링 패키지를 사용하면서 SDK 사용을 방해하기 때문에 이는 꽤 큰 문제입니다.

재현

  1. npm i @sentry/node --save를 통해 Sentry Node SDK 설치
  2. 다음 코드를 입력하세요
import * as Sentry from '@sentry/node';

// Start Sentry
  Sentry.init({
    dsn: "https://your-sentry-url",
    environment: "your-env",
    tracesSampleRate: 1.0, //  Capture 100% of the transactions
  });
전체 화면 모드로 전환 전체 화면 모드 종료
  1. Try to create a completion somewhere in the process after Sentry has been initialized:
const params = {
  model: model,
  stream: true,
  stream_options: {
    include_usage: true
  },
  messages
};
const completion = await openai.chat.completions.create(params);
Enter fullscreen mode Exit fullscreen mode

Results in error:

TypeError: getDefaultAgent is not a function
    at OpenAI.buildRequest (file:///my-project/node_modules/openai/core.mjs:208:66)
    at OpenAI.makeRequest (file:///my-project/node_modules/openai/core.mjs:279:44)

Code snippets

(Included)

OS

All operating systems (macOS, Linux)

Node version

v20.10.0

Library version

v4.56.0

View on GitHub

This turned me away from Bun. I'd found out from our professor we were going to compile an executable later in the course, and I did not want to deal with Bun's problems down the line.

So, I switched to Node. It was painful going from Bun's easy-to-use built-in APIs to having to learn how to use commander for Node. But at least it wouldn't crash.

I had previous experience working with AI models through code thanks to my co-op, but I was unfamiliar with creating a command-line tool. Configuring the options and arguments turned out to be the most time-consuming aspect of the project.

Apart from the core feature we chose for each of our projects - mine being code translation - we were asked to implement any two additional features. One of the features I chose to implement was to save output to a specified file. Currently, I'm not sure this feature is that useful, since you could just redirect the output to a file, but in the future I want to use it to extract the code from the response to the file, and include the AI's rationale behind the translation in the full response to stdout. Writing this feature also helped me learn about global and command-based options using commander.js. Since there was only one command (run) and it was the default, I wanted the option to show up in the default help menu, not when you specifically typed codeshift help run, so I had to learn to implement it as a global option.

I also ended up "accidentally" implementing the feature for streaming the response to stdout. I was at first scared away from streaming, because it sounded too difficult. But later, when I was trying to read the input files, I figured reading large files in chunks would be more efficient. I realized I'd already implemented streaming in my previous C++ courses, and figuring it wouldn't be too bad, I got to work.

Then, halfway through my implementation I realized I'd have to send the whole file at once to the AI regardless.

But this encouraged me to try streaming the output from the AI. So I hopped on MDN and started reading about ReadableStreams and messing around with ReadableStreamDefaultReader.read() for what felt like an hour - only to scroll down the AI provider's documentation and realize all I had to do was add stream: true to my request.

Either way, I may have taken the scenic route but I ended up implementing streaming.

Planned Features

Right now, the program parses each source file individually, with no shared context. So if a file references another, it wouldn't be reflected in the output. I'd like to enable it to have that context eventually. Like I mentioned, another feature I want to add is writing the AI's reasoning behind the translation to stdout but leaving it out of the output file. I'd also like to add some of the other optional features, like options to specify the AI model to use, the API key to use, and reading that data from a .env file in the same directory.

That's about it for this post. I'll be writing more in the coming weeks.

위 내용은 건물 코드시프트의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.