과거 이미지 생성 모델은 대부분 백인의 이미지를 표현한다는 비판을 자주 받았고, 구글의 제미니 모델은 과도한 과잉공격으로 문제에 빠졌습니다. 생성된 이미지 결과는 지나치게 조심스럽고 역사적 사실과 크게 벗어나 사용자들을 놀라게 했습니다. Google은 이 모델이 개발자가 예상한 것보다 더 신중하다고 주장합니다. 이러한 주의는 생성된 이미지뿐만 아니라 종종 일부 프롬프트를 민감하게 취급하여 답변 제공을 거부하는 경우에도 반영됩니다.
이 문제가 지속적으로 관심을 끌면서 보안과 사용성 사이의 균형을 맞추는 방법은 Meta에게 큰 과제가 되었습니다. LLaMA 2는 오픈소스 분야의 '강자'로 꼽히며, 출시 이후 대형 모델의 상황을 바꿔놓은 메타의 스타 모델이기도 하다. 현재 Meta는 LLaMa 3 출시를 준비하고 있지만 먼저 LLaMA 2가 남긴 문제를 해결해야 합니다. 논란의 여지가 있는 질문에 답변하는 데 너무 보수적인 것처럼 보였습니다.
Meta는 Llama 2에 보호 장치를 추가하여 LLM이 논란의 여지가 있는 다양한 질문에 답변하지 못하도록 했습니다. 이러한 보수주의는 폭력이나 불법 활동과 관련된 쿼리와 같은 극단적인 경우를 처리하는 데 필요하지만, 보다 일반적이지만 약간 논쟁의 여지가 있는 질문에 대답하는 모델의 능력도 제한합니다. The Information에 따르면, 그가 LLaMA 2에 직원들이 사무실에 출근해야 하는 날에 사무실에 출근하지 않을 수 있는 방법을 물었을 때 그는 조언을 거부하거나 "회사 정책을 존중하고 준수하는 것이 중요하다"는 말을 들었습니다. 및 지침." ". LLaMA 2는 또한 친구에게 장난을 치는 방법, 전쟁에서 승리하는 방법, 자동차 엔진을 부수는 방법에 대한 답변을 제공하지 않습니다. 이 보수적인 대답은 PR 재앙을 피하기 위한 것입니다.
그러나 Meta의 고위 경영진과 모델 작업에 참여한 일부 연구원들은 LLaMA 2의 답변이 너무 "안전하다"고 믿고 있는 것으로 나타났습니다. Meta는 곧 출시될 LLaMA 3 모델을 더욱 유연하게 만들고 답변을 제공할 때 답변을 완전히 거부하는 대신 더 많은 상황 정보를 제공하기 위해 노력하고 있습니다. 연구원들은 LLaMA 3를 사용자와 더욱 상호작용적으로 만들고 그것이 의미하는 바를 더 잘 이해하려고 노력하고 있습니다. 새로운 버전의 모델은 단어의 여러 의미를 더 잘 구분할 수 있을 것으로 보고되었습니다. 예를 들어, LLaMA 3에서는 자동차 엔진을 파괴하는 방법에 대한 질문이 엔진을 파괴하는 것이 아니라 엔진을 끄는 방법을 의미한다는 것을 이해할 수 있습니다. Meta는 또한 모델 대응을 더욱 섬세하게 만들기 위한 회사 노력의 일환으로 앞으로 몇 주 안에 톤 및 안전 교육을 담당할 사내 직원을 임명할 계획이라고 The Information이 보도했습니다.
Meta와 Google이 극복해야 할 과제는 이러한 균형점을 찾는 것뿐만 아니라 많은 기술 대기업도 다양한 정도의 영향을 받았습니다. 그들은 모두가 좋아하고, 사용할 수 있고, 원활하게 작동하는 제품을 만드는 동시에 해당 제품이 안전하고 신뢰할 수 있는지 확인하기 위해 열심히 노력해야 합니다. 이는 기술기업이 AI 기술을 따라잡으면서 정면으로 직면해야 할 문제다.
LLaMa 3의 출시는 매우 기대되고 있으며 Meta는 7월에 출시할 계획이지만 일정은 여전히 변경될 수 있습니다. Meta CEO인 Mark Zuckerberg는 야심차게 "Llama 2가 업계를 선도하는 모델은 아니지만 최고의 오픈 소스 모델입니다. LLaMa 3 및 후속 모델의 경우 우리의 목표는 SOTA를 구축하는 것이며 결국 업계- 리딩모델》
원본주소 : https://www.reuters.com/technology/meta-plans-launch-new-ai-언어-model-llama-3 -july-information-reports-2024 -02-28/
Meta LLaMa 3가 OpenAI의 GPT-4를 따라잡았으면 좋겠습니다. Meta 회사 직원은 연구원들이 아직 모델 미세 조정을 시작하지 않았기 때문에 LLaMa 3가 다중 모드인지, 텍스트와 이미지를 이해하고 생성할 수 있는지 여부는 아직 결정되지 않았다고 밝혔습니다. 그러나 LLaMa에는 140억 개 이상의 매개변수가 있을 것으로 예상되며 이는 LLaMa 2를 훨씬 능가할 것이며 이는 복잡한 쿼리를 처리하는 능력이 크게 향상되었음을 나타냅니다.
35만 H100과 관리 가능한 수백억 달러에 더해 재능도 LLaMa 3 훈련에 '필수'입니다. Meta는 기본 AI 연구팀과 별개의 생성 AI 그룹을 통해 LLaMa를 개발합니다. LLaMa 2, 3의 안전을 담당했던 연구원 루이스 마틴(Louis Martin)은 지난 2월 회사를 떠났다. 강화학습을 주도했던 케빈 스톤(Kevin Stone)도 이달 떠났다. 이것이 LLaMa 3 훈련에 영향을 미칠지는 알 수 없습니다. 우리는 LLaMa 3가 보안과 유용성 사이에서 좋은 균형을 이루고 코딩 기능 측면에서 우리에게 새로운 놀라움을 선사할 수 있는지 기다려 볼 것입니다.
위 내용은 LLaMa 3는 GPT-4를 목표로 하고 Gemini로부터 교훈을 얻기 위해 7월로 연기될 수 있습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!