번역가 | Zhu Xianzhong
Planner | Xu Jiecheng
개발자가 신뢰하는 다른 소프트웨어 개발 도구와 달리 AI 도구는 교육, 구성, 호스팅 및 사용 측면에서 몇 가지 독특한 위험을 안고 있습니다.
2022년 말 ChatGPT가 출시된 이후 인터넷은 거의 같은 비율로 이를 지지하는 주장과 의심하는 주장으로 가득 차 있었습니다. 당신이 좋든 싫든 AI는 개발 조직에 침투하고 있습니다. AI 제품을 개발하거나 AI 도구를 활용하여 코드를 작성할 계획이 없더라도 소스 코드를 구축, 테스트 및 실행하는 데 사용되는 도구 및 플랫폼에 여전히 통합될 수 있습니다.
AI 도구에는 자동화된 작업으로 인한 생산성 향상에 영향을 미칠 수 있는 몇 가지 특별한 위험이 있습니다. 이러한 위험은 주로 AI의 훈련, 구축, 호스팅 및 사용 방식에서 비롯됩니다. AI 도구는 개발자가 신뢰하는 다른 도구와 여러 면에서 다릅니다. 위험을 이해하는 것이 AI 도구의 잠재적인 위험을 이해하는 데 도움이 되도록 AI 도구에 대한 몇 가지 인터뷰 질문을 설계했습니다. 이러한 질문을 통해 해당 도구가 회사에 성공적으로 "참여"할 수 있는지 확인할 수 있습니다.
일반적으로 모든 AI 도구에는 인공 지능의 유형이나 목적에 관계없이 사용을 선택하기 전에 다음 질문을 해야 합니다.
- 이 AI 도구의 용도는 무엇입니까? 인프라는 어디에 위치해 있나요? 현대 인공 지능 중 어느 것도 이를 지원하기 위해 전용적이고 값비싼 하드웨어가 필요하지 않습니다. 새로운 데이터 센터를 인수할 계획이 없다면 AI 도구는 원격으로만 작동하며 원격 액세스 및 오프사이트 데이터 저장이 필요하므로 특정 보안 위험이 발생합니다.
- 코드가 처리 경계를 벗어날 때 IP 손실을 방지하기 위해 어떤 보호 장치가 마련되어 있나요? 스마트 TV부터 스마트 자동차까지 모든 인공지능 제품은 제조업체에 데이터를 제공하고 있습니다. 일부 기업에서는 이 데이터를 사용하여 소프트웨어를 최적화하지만 다른 기업에서는 이를 광고주에게 판매합니다. 따라서 AI 도구가 기본 작업에 사용하는 소스 코드나 기타 개인 데이터를 어떻게 사용하거나 처리하는지 정확히 이해하는 것이 필요합니다.
- 귀하의 입력을 모델 훈련 작업에 사용할 수 있나요? 인공지능 모델의 지속적인 훈련은 모든 모델 회사와 모델 트레이너의 큰 고민거리입니다. 예를 들어, 모델 소유자는 광고주가 무료 광고를 달성하기 위해 모델 교육에 너무 참여하는 것을 원하지 않는 경우가 많습니다.
- 결과는 얼마나 정확합니까? ChatGPT의 가장 치명적인 단점은 결과의 부정확성입니다. 거짓말과 진실을 모두 생성하는 데 탁월합니다. 이를 AI 환상이라고 합니다. 인공지능이 실수를 할 수 있는 방식과 시나리오를 이해하면 AI 도구가 실수를 할 때 이를 관리하는 데 도움이 될 수 있습니다.
또한 모든 인공지능 회사와 개발자에게는 각자의 보안 문제가 있을 것입니다. 이러한 새로운 우려 사항에는 결과를 손상시키고 모델 작동 방식과 모델에서 생성된 결과의 품질에 대한 독점 정보를 유출할 수 있는 AI 훈련 모델에 대한 위협이 포함됩니다. 또한 AI 모델은 안전하게 구축해야 하는 API, 웹 액세스, 모바일 앱 및 기타 애플리케이션을 통해 기존 세계와 상호 작용해야 합니다.
개발자는 소프트웨어 개발 중에 발생하는 위험을 관리하기 위해 일반적인 질문 외에도 AI 보안 스캐너 사용 등 AI 도구를 사용할 때 다른 측면도 질문해야 합니다.
- AI 도구가 이러한 시나리오에 적합합니까? AI가 잘 못하는 것이 무엇인지 이해하는 것이 중요합니다. 예를 들어, 작업이 "학습 규칙에 따라 결정하기" 또는 "학습 규칙에 따라 콘텐츠 작성"으로 분류될 수 있는 경우 AI는 일반적으로 이러한 작업에 매우 능숙합니다. 이를 넘어 문제가 변하면 AI의 성능이 저하될 수 있다.
- AI 도구에 오류가 발생하면 어떤 보호 조치를 취해야 합니까? 프로세스에 단일 실패 지점, 특히 환각을 일으킬 수 있는 실패 지점을 도입하지 마십시오. 권장되는 접근 방식은 심층 방어와 관련된 기존 관행 또는 위험 관리 접근 방식(시스템의 한 계층에서 문제가 발생하면 다음 계층에서 이를 포착한다는 개념)에 의존하는 것입니다.
- 검토 도구 결과를 어떻게 모니터링해야 합니까? 사실 이것은 다시 제기된 오래된 질문입니다. 기존의 문제 로그 캡처 솔루션은 일반적으로 두 부분으로 나뉩니다. 첫 번째는 중요한 이벤트에 대한 데이터를 얻는 것이고 두 번째는 감사 로그입니다. AI가 더욱 성숙해지고 결함이 이해되거나 완화될 때까지 인간은 여전히 주기를 제어해야 합니다.
요즘 점점 더 많은 개발자가 소스 코드 작성을 위해 ChatGPT를 "고용"하고 있습니다. 예비 보고서에 따르면 ChatGPT는 여러 프로그래밍 언어로 소스 코드를 작성할 수 있으며 모든 공용 언어에 능통합니다. 현재 베타의 교육 및 모델의 제한으로 인해 생성되는 코드가 항상 완벽하지는 않습니다. 여기에는 소프트웨어 실행 방식을 변경할 수 있는 비즈니스 논리 결함, 다양한 버전의 소프트웨어를 혼합할 수 있는 구문 오류 및 기타 인간과 유사한 문제가 포함되는 경우가 많습니다.
대략 말하면 ChatGPT는 주니어 프로그래머일 뿐입니다. 그렇다면 그 우월자는 누구일까요?
즉, ChatGPT는 주니어 개발자 수준입니다. 따라서 이 후배 개발자가 작성한 코드를 사용할 때는 관리 방법을 고려해야 합니다.
- 자신이 작성한 코드의 전반적인 효율성을 보장하기 위해 그의 상사는 누구일까요? 주니어 개발자는 종종 시니어 개발자의 도움이 필요합니다. 모든 코드 줄을 테스트해야 하며 일부 코드는 수정해야 합니다. 그러나 보고서에 따르면 이 교정 프로세스는 코드를 처음부터 작성하는 것보다 시간이 더 많이 걸리고 복잡합니다.
- 코드 베이스에 훈련 코드를 주입하는 건가요, 아니면 리믹스하는 건가요? 더 교활한 위협은 때때로 GitHub Copilot과 같은 AI 봇이 훈련 데이터에서 코드 블록을 완벽하게 복제하는 소스 코드를 생성한다는 것입니다. 따라서 라이선스 위험을 관리하려면 표절 방지 도구를 활용해야 합니다.
- AI 도구는 어디서 훈련 데이터를 얻나요? 인공지능 모델의 능력 수준은 훈련 데이터와 밀접한 관련이 있습니다. AI가 오래되거나 잘못된 코드를 사용하여 훈련되면 오래되고 잘못된 결과가 생성됩니다.
- 엔진은 어디에 호스팅되나요? 소스 코드를 분석하는 AI 로봇은 소스 코드를 해당 처리 장치에 통합해야 합니다. 데이터가 회사 통제권을 벗어난 후 어떻게 보호, 사용 및 폐기되는지에 대해 특별히 고려해야 합니다.
그럼에도 불구하고 2022년 12월 ChatGPT 출시는 소프트웨어 개발의 새로운 시대를 예고합니다. 이와 같은 도구의 변경 사항을 계속 주시하고 이에 압도당하지 않는 것이 중요합니다. 이러한 새로운 도구를 채택할 때 더 많은 변화가 있을수록 그대로 유지되어야 한다는 점을 명심하십시오. 보안 사고를 발견하는 것보다 예방하는 것이 항상 더 좋습니다.
원본 링크: https://thenewstack.io/hiring-an-ai-tool-to-code-what-to-ask-at-the-interview/
위 내용은 ChatGPT 코더를 '고용'하기 위해 인터뷰를 수행하는 방법은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!