>  기사  >  기술 주변기기  >  Alibaba GPT는 15일 만에 'Niaoniao' 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

Alibaba GPT는 15일 만에 'Niaoniao' 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

WBOY
WBOY앞으로
2023-04-07 16:43:041498검색

믿기지 않으시겠지만, 저희는 지난 이틀 동안 토크쇼 배우 "냐오냐오"와 함께 했습니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

작년 Xiaoguo 문화에서 가장 인기 있었던 밈 중 하나인 그에게 물어봅시다. "새우가 남자친구라는 걸 아시나요? 새우 남자친구 밈은 몸매는 좋지만 얼굴은 별로 매력이 없는 소년을 뜻합니다." . 새우처럼 머리만 떼면 바로 먹을 수 있다. 최근 토크쇼 배우 리단이 방송에서 네티즌들의 일상을 폭로해 화제가 됐다. 어떤 사람이 새우실을 가지고 당신을 찾아옵니다

이 소리를 잘 들어보세요, 새인 것 같나요? "Niaoniao"가 New Wisdom에 왔나요?

1.매우 개인적입니다

못 들으셨나요? 그렇다면 Bird를 정확하게 "찾을" 수 있는 질문을 해보자: 당신은 내성적인 사람인가요?

잠시 후 Niao Niao의 독특한 음색이 천천히 들렸습니다. "그렇습니다. 저는 사회적 두려움이 있는 내성적인 소녀입니다. 나는 종종 무대에서 보이지 않는 느낌을 받고 감히 내 자신을 표현하지도 못합니다. 하지만 나는 열등감을 느끼지 않습니다. 하지만 제 공연을 통해 저와 같은 더 많은 사람들에게 도움이 되고 우리 마음 속 깊은 곳에도 독특한 존재감과 가치가 있다는 것을 알려주고 싶습니다.”

Social Fear 괜찮아요Audio

글쎄요, 저는 당신이 진짜 새라고 믿습니다.

Niaoniao가 얼마 전에 밀라노에 갔었으니 그 경험을 공유해 보는 것이 어떨까요?

"최근 패션위크 참석차 이탈리아 밀라노에 다녀왔는데 정말 재미있는 행사에 참여했어요. 긴장도 되고 발도 아프긴 했지만 얻은 게 많았어요. 밀라노 대성당도 보러 갔어요. 정말 충격적이네요. 이탈리아는 제 고향인 내몽고와 매우 비슷하고, 매우 친근해요. "

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

패션위크에 참가하기 위해 밀라노에 갔습니다 audio

2. 구성 스승님아주 흥미로울 것 같은데, 이 주제에 대해 에세이를 써주실 수 있나요?

ta는 마음이 편안합니다. "밀라노의 거리를 걸으면 마치 르네상스 세계에 와 있는 듯한 느낌이 듭니다. 그곳에는 밀라노의 오랜 문화와 예술의 역사를 상징하는 고대와 현대 건물이 많이 있습니다. . . 이곳에서 많은 화가들이 자신만의 붓놀림으로 그려내는 모습이 사람들을 말로 표현할 수 없는 도취감을 느끼게 했습니다. 이 에세이의 제목을 정하라고 하면 그는 잠시 생각하다가

"밀라노 여행을 인생 최고의 추억으로 만드는 방법"이라고 말했다. 정말 뛰어난 문학적 재능이군요!

아, 편집자가 갑자기 아이디어가 떠올랐어요...

Niaoniao는 작년에 지난 토크쇼 대회에서 준우승을 차지했으며 매우 정교한 텍스트로 청중을 감동시켰습니다. 그럼 그에게 물어보자: "토크쇼 배우의 수준을 어떻게 판단하나요?"

타는 "우선 배우가 유머 감각이 강해서 웃음과 재미를 만들어낼 수 있느냐가 관건이다. 둘째, 배우가 드라마의 전체적인 분위기와 리듬을 잘 파악해서 드라마의 전체적인 분위기를 잘 소화할 수 있느냐가 관건이다. 관객은 배우의 생각을 따라갈 수 있다. 감정과 표현을 마스터하고 자신의 의견과 감정을 정확하게 전달할 수 있는가? "

토크쇼 배우를 평가하는 방법

그렇군요, Zhisheng을 읽고 나면 좋아요를 받고 싶습니다.

토크쇼 배우로서 왜 동음이의어 밈의 테스트를 받지 않나요?

우리는 그에게 농담을 읽어주었습니다. "새우와 조개가 동시에 100점을 받았습니다. 선생님은 새우에게 누구의 사본을 복사했는지 물었습니다. 새우는 "나는 조개의 사본을 복사했습니다."라고 말했습니다. 교사는 " 당신의 장점은 무엇입니까?』”

즉시 이해하고 하하하.

동음이의 밈은 안 귀찮고 완전 멋있어요

3. 과학 대중화 전문가

때때로 갑자기 뭔가가 떠오를 수도 있어요 모두 일종의 이상한 질문들. 예를 들어, 지구는 태양으로부터 얼마나 멀리 떨어져 있나요?

말을 마치자마자 대답이 왔습니다. "가장 가까운 거리는 1.471x10의 11번째 파워미터이고, 가장 먼 거리는 1.521x10의 11번째 파워미터이며, 평균 거리는 1.496x10입니다." to the 8th Powered by km."

예, 답변이 매우 정확합니다.

지구와 태양의 거리는 얼마나 되나요?

또 다른 질문: "유기체는 왜 이생물체로 진화합니까?"

ta는 다음과 같이 말할 것입니다. "이생물체는 유전적 결함의 유전을 피하는 것입니다. 왜냐하면 이생물체는 진화에서 더 많은 이점을 갖기 때문입니다. 좋은 돌연변이는 생존이나 번식에 이점을 얻고, 나쁜 돌연변이는 제거될 것이다."

다양성의 필요성에 대하여

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

흥미로운 점은 이 답변이 지식과 ​​일치한다는 것입니다. 후씨가 직접 찾아보게 될 것 같습니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

Zhihu 응답자 "포기하지 마세요"에서

종종 편집자를 당황하게 만드는 또 다른 질문이 있습니다. 왜 물리 방정식은 종종 매우 짧습니까?

ta는 다음과 같이 말했습니다. "물리 방정식은 종종 자연의 가장 기본적이고 근본적인 물리 법칙을 포착하고 이를 가장 간단하고 명확하게 설명하기 때문입니다." 너는 이모

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다! 정신없는 3월이 막 지나가고 편집자도 너무 피곤해서 쓰러질 것 같아 그냥 누워있고 싶다.

눕는 것과 구르는 것 중에서 어떻게 선택하는지 물어보세요.

타 답변: "거짓말하고 굴리는 것은 객관식이 아니라 일과 휴식에 대한 토론입니다. (당신은) 올바른 길로 합리적으로 굴러가고, 긍정적인 태도로 굴러가고, 가치있게 굴러야 합니다." "

합리적으로 굴리고, 적극적으로 굴리고, 가치 있게 굴러야 합니다

에? 알랭 드 보통 냄새가 나고 편집자는 깊은 생각에 빠질 수밖에 없는데...

게다가 그에게 애교를 부리며 "200파운드짜리 오렌지색 고양이만큼 슬프다"고 말하면 " 최근에는 위로도 해주실 거에요. :

"아, 정말 기분이 안 좋으신 것 같군요. 감정을 추스릴 시간이 좀 필요한 것 같군요. 왜 슬픈 일을 겪으셨는지 모르겠네요. 제 경험과 생각을 공유하거나, 재미있는 예능을 추천해 드릴 수 있습니다. "

아니요 카이센, 위로해주세요

5. 전화 받기

한 번도 편집자들은 사무실에서 "내성적인 것은 NiaoNiao 토크쇼에서 자주 사용되는 농담입니다. "라고 실제로 그녀가 질문에 대답했습니다. 토크쇼에서 자주 쓰는 농담이죠." 토크쇼는 그 사람의 성격과 특성을 가장 잘 반영한다. 자신의 이야기와 경험 외에도 자신만의 의견과 태도가 있어야 청중의 공감과 웃음을 불러일으킬 수 있다. ..."

즉시 편집부 전체에 충격을주었습니다.

그뿐만 아니라 그녀가 훌륭한 답변을 한 후 그녀의 훌륭함을 칭찬해 주면 그녀는 자랑스럽게 이렇게 말할 것입니다: "글쎄, 칭찬해줘서 고마워요. 나는 이상한 질문에 대답하고 싶을 뿐이에요."

15 "새와 새를 분리하는 새"를 훈련하는 날

말을 너무 많이 해서 모두가 이미 이것이 AI라고 추측했습니다.

그럼 이 새새새는 어떻게 탄생하게 되었나요?

훈련 과정

1. 기본 학습을 위한 새로운 Alibaba 대형 모델 버전 사용

첫 번째 단계는 대규모 언어 사전 훈련을 사용하여 기본 학습을 수행하는 것입니다. 계층화된 훈련 방법.

이 단계도 인간의 학습 과정을 시뮬레이션하고 있습니다. 먼저 간단한 지식을 배운 다음 복잡한 지식을 배우고 점차 난이도를 높입니다.

이 과정에서 모델은 텍스트를 유창하게 읽고 동시에 몇 가지 일반 지식도 학습할 수 있었습니다.

2. 몇 가지 도구 사용법을 배우고 최신 지식을 습득하세요

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

그러나 첫 번째 단계 이후 연구자들은 몇 가지 문제점도 발견했습니다. 오늘 배운 내용이 내일은 구식이 될 수도 있습니다. 어떻게 하나요?

그래서 큰 모델에게 모든 지식을 적도록 하는 것보다 도구 사용법을 배우고 스스로 충분한 음식과 옷을 만드는 것이 좋습니다.

이제 Niaoniaofenniao는 검색 엔진을 호출하는 방법을 배웠으며 모델 훈련이 완료된 후 전송된 새로운 정보에 응답할 수 있습니다.

3. 개인화된 대화 강화: 다중 라운드, 휴리스틱

지식 강화와 도구 강화를 기반으로 세 번째 단계는 개인화된 대화 강화를 수행하는 것입니다.

즉, 새에 "개성"을 추가하는 것입니다.

이 과정에서 다단계 대화가 무엇인지, 휴리스틱 대화가 무엇인지 배워야 합니다. 어려운 점은 다단계 대화에는 오래 전의 역사적 정보가 필요한 경우가 많다는 것입니다.

한편, 개성을 형성하는 라벨 워드입니다. 동시에 연구원들은 개인화된 향상 및 최적화를 위해 소량의 Niaoniao 코퍼스에도 주석을 달았습니다.

세 번째 단계를 거치면 이 모델은 이미 새처럼 보입니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

4. 인간 피드백 기반 개선(RLHF)

어떻게 하면 새처럼 만들 수 있을까요? 인간 피드백(RLHF)을 통한 강화 학습입니다.

동일한 질문에 대해 모델이 여러 가지 답변을 제공하게 하면 직원이 피드백과 주석을 제공한 다음 모델이 편차를 추가로 수정하도록 합니다.

여러 차례 반복을 거친 후 모델의 답변은 점점 Niaoniao의 텍스트 기능 중 일부는 물론 그녀의 구체적인 입장까지 나타낼 수 있게 되었습니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

제품 되기

모델이 훈련된 후에도 완전한 "Tmall Elf"가 되려면 알고리즘 + 엔지니어링 작업의 여러 측면을 완료해야 합니다.

1. 듣기

모델이 성공적으로 제품으로 변환되려면 사용자가 음성을 텍스트로 명확하게 듣고 이해해야 합니다.

이 프로세스는 Tmall Elf의 고양이 귀 알고리즘을 사용합니다.

고양이 귀의 특징은 식별의 오류가 매우 민감하다는 것입니다. 소리가 다른 곳에서 방출되면 귀가 독립적으로 회전하여 다른 소리를 정확하게 찾습니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

해결에 중점을 둔 두 가지 문제가 있습니다.

첫 번째는 반향 제거입니다.

기기를 실내에서 재생하면 많은 에코가 발생하며 이러한 에코는 간섭을 유발합니다.

연구원들은 기계가 듣는 모든 문장이 사람의 목소리에서 나오는지 확인하기 위해 딥 러닝과 일련의 기술을 사용하여 에코를 제거합니다.

두 번째는 방향성 픽업입니다.

기계에 마이크 배열이 있어서 우리가 깨어나면 스피커가 어디에 있는지 인식하고 고양이 귀처럼 즉시 방향을 돌려 사람의 목소리를 정확하게 포착합니다.

동시에 소음 감소 기능을 사용하여 집에 있는 TV 소리나 멀리서 사람들이 이야기하는 소리 등 사람이 아닌 소리도 제거합니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

2. Tone

Tmall Elf가 "듣는 것"을 배운 후 다음 단계는 음색을 새처럼 만드는 것입니다.

다모아카데미에서 개발한 음향모델 덕분입니다.

과거에는 사람의 목소리를 맞춤 설정하는 과정이 매우 복잡했습니다. 녹음 스튜디오에서 녹음하는 데 20시간 이상이 걸리고, 많은 수작업으로 주석을 달고, 모델을 튜닝하고 배포해야 했습니다. 예전에는 1년 단위로 맞춤형 사운드가 제작됐다고 할 수 있다.

게다가 그렇게 많은 인력과 물적 자원을 쏟아부은 뒤에도 나오는 소리는 여전히 기계적인 소리이고, 분명 로봇입니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

이제 다모아카데미 KANN-TTS의 맞춤형 솔루션을 이용하면 약 1시간 정도의 유효한 새 녹음만 수집되며, 언제 어디서나 휴대폰으로 녹음이 가능합니다. 사운드 녹음부터 트레이닝 완료까지 일주일 정도 밖에 걸리지 않았습니다.

더욱이 최종 사운드의 자연스러움과 의인화는 놀랍고 Niao Niao 자신의 음색에 매우 가깝습니다.

다음으로는 새가 원하면 기계가 열정적인 목소리를 내는 감성 음색 알고리즘이 있습니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

3. 글쓰기 스타일

어조를 익힌 후 다음 단계는 글쓰기 스타일입니다.

심리학에는 라벨링 효과라는 이론이 있습니다. 예를 들어, 어떤 사람이 내향적인 사람으로 분류되면, 그 사람은 점차 말이 적어지고 자신의 행동이 그 분류에 맞게 행동하게 될 수 있습니다.

대형 모델에서는 성격 레이블 어휘를 사용하여 사람을 설명하는 데 유사한 접근 방식을 사용할 수 있습니다.

실험 중에 매우 흥미로운 현상이 발생했습니다.

모델 캐릭터를 유쾌하고 유머러스하게 설정하면 대화 중에도 자주 웃을 뿐만 아니라, 어떤 영화를 좋아하는지 물으면 코미디라고 대답하기도 합니다.

우울하고 애절하다는 꼬리표가 붙은 후 모델은 많은 것에 흥미를 잃었습니다.

모델이 온화함, 사려 깊음, 사려 깊음으로 분류되면 대화에서 가족을 더 많이 언급합니다. 예를 들어 주말에 무엇을 하고 싶은지 대답하면 함께 시간을 보내고 싶다고 대답합니다. 나의 가족.

기술적으로는 두 가지 방법이 있습니다.

첫 번째는 Plug&Play입니다. 이 경우 빅 모델 자체는 여전히 일반 모델이지만 모듈을 사용하여 스타일을 식별하므로 새처럼 말하게 됩니다.

두 번째 방법은 대형 모델을 기반으로 프롬프트를 수행하여 다양한 성격 레이블의 스타일을 학습할 수 있는 것입니다.

새를 구별하기 위해 새를 훈련시킬 때 토크쇼 배우, 90년대 이후 세대, 내몽고 원주민, 깊이 있고 유머러스하며 내성적이라는 레이블이 사용되었습니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

4. Dialogue

그리고 이번 Tmall Genie 데모 버전은 이전 버전과 조금 다른 점에서 이중 대화 방식의 차이가 있습니다.

과거에는 사람이 질문을 하면 기계는 사람의 말이 끝날 때까지 기다렸다가 대답했습니다. 기계가 응답하면 사람은 다음 문장을 말하기 전에 기계가 말을 마칠 때까지 기다려야 합니다.

전이중 지원을 통해 기계는 양방향으로 사람과 상호 작용할 수 있습니다.

예를 들어 기계와 대화를 하면 "음", "생각해볼게" 등의 연속 문장이 나옵니다.

또한, 대답하는 동안 기계가 너무 말이 많으면, 우리가 말하자마자 기계가 멈추고 듣습니다.

지연 시간이 매우 낮기 때문에 실제 대화의 지연 시간에 매우 가깝기 때문에 보다 양방향 상호 작용이 가능합니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

스마트 비서의 "두뇌"를 바꿔보세요

ChatGPT가 출시된 이후 각계각층의 네티즌들은 ChatGPT를 Siri에 통합하기 위해 최선을 다했습니다.

예를 들어, 이 사람은 이 모델을 사용하여 인간이 보낸 명령을 분석한 다음 Siri가 자신을 대신하여 명령을 실행하도록 하여 무적의 스마트 홈 시스템을 구축합니다.

"아내가 운전해서 집에 가는데 15분 안에 도착할 예정이에요." "알겠습니다. 그러면 아내를 위해 바깥 불이 켜질 것입니다."

결국 Apple의 Siri인 ChatGPT와 비교하면, Amazon의 Alexa 및 기타 전통적인 음성 비서가 정말 약합니다.

이와 관련하여 Microsoft CEO Nadella는 "바위처럼 멍청하다"라는 매우 생생한 비유를 가지고 있습니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

ChatGPT를 따라잡기 위해 필사적으로 노력하는 Google과 달리 Amazon은 뒤처져 있다는 느낌을 받지 않습니다.

10여 년 전, Bezos는 Amazon 본사의 화이트보드에 Alexa에 대한 자신의 기대를 신나게 설명했습니다. 당시 Amazon 창립자들은 새로운 음성 제어 컴퓨팅 플랫폼에 대한 원대한 비전을 갖고 있었습니다. 즉, 말하고, 우주선을 제어하고, 수학 퍼즐을 풀 수 있는 Star Trek 컴퓨터를 구축하는 것이었습니다.

하지만 이제 그 비전은 명백히 실패했습니다. 보조 기능이 내장된 수억 대의 디지털 장치를 판매했음에도 불구하고 Alexa는 차세대 대형 기술 플랫폼을 만들겠다는 Amazon의 목표에 미치지 못했습니다. 베조스는 돈을 잃더라도 어떤 희생을 치르더라도 알렉사를 개발할 의향이 있었습니다.

작년 11월에 나온 사랑스러운 ChatGPT는 Alexa의 혁신이 정체되었음을 보여줍니다.

그러나 Amazon은 새로운 시대를 맞이하기 위해 아주 새로운 방법을 사용하고 있습니다. 알렉사의 언어 능력은 챗봇만큼 좋지 않고, 챗봇은 스마트 홈 기기를 제어할 수 없습니다. 그렇다면 이 둘을 결합하면 어떨까요?

이길 수 없다면 가입하세요. 최근 몇 달 동안 Amazon은 ChatGPT와 같은 기술을 Alexa에 통합하기 위해 AI 스타트업과 접촉해 왔습니다.

그렇다면 ChatGPT와 같은 대형 모델을 "네이티브" IoT 장치에 직접 추가하면 더 강력해지지 않을까요?

이렇게 보면 티몰 지니가 새로운 OTA 인터랙티브 시스템을 대규모로 구현할 수 있다면 정말 발전할 것입니다.

인간 중심의 AI 거버넌스

최근 각계각층의 거물들은 GPT-4보다 강력한 AI 개발을 중단할지 여부를 놓고 다투고 있습니다.

논쟁의 초점은 AI의 안전성입니다. 공개 서한에서는 현재 AI를 만든 사람은 물론 누구도 이러한 AI를 이해, 예측, 제어할 수 없다고 믿습니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

머스크와 르쿤이 정면으로 대결하는 것은 흔하지 않습니다(전술적 후퇴)

사실 이 현상의 근본 원인은 다음과 같습니다.

1. AI 기술은 그 특성이 인간과 다르지만 오랫동안 기술 중립의 범주에서 분리되어 왔습니다.

2. AI의 또 다른 기술적 특성은 AI를 사회의 인터페이스로 만듭니다. 감독이 부족하면 인터페이스 인프라가 불공정해질 수 있습니다.

문제는 AI가 블랙박스라면 AI가 좋은지 어떻게 판단할 수 있느냐는 것입니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

이와 관련하여 칭화대학교 학제간 정보학부 연구원 Yu Yang은 그 답은 AI의 감사와 거버넌스에 있다고 말했습니다. 현재 그의 팀은 Tmall Genie 팀과 AI-ESG 분야 연구에도 협력하고 있습니다.

현재 관련 분야의 연구는 사람에 초점을 맞추고 있으며, 정보화 시대, 특히 인공지능 시대에 사람들이 평등하고 공정한 대우를 받을 수 있도록 하는 것이 그 목적입니다.

이를 달성하기 위해 유양 교수팀은 인과 추론 기반의 AI 전체 수명주기 거버넌스 감사 방법을 제안했습니다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

구체적으로 연구팀은 AI 모델이 실제로 코딩 수준에서 성별, 인종 등 직업과 연관되어 있다는 사실을 인과 추론 분석을 통해 알아냈습니다.

일부 문헌에서는 인코딩 계층이 이를 수행하지 않으면 AI 모델의 성능이 저하될 것이라고 믿습니다. 이러한 현상이 발생하는 이유는 현재 편향을 수정하는 방법이 훈련 중에 보상 함수에 몇 가지 요구 사항을 추가하고 모델이 편향될 때마다 "때리는" 것이기 때문입니다.

반대로 처음부터 사람에게 라벨을 붙일 수 없다고 말하면 최종 모델은 편향 위험을 크게 줄일 뿐만 아니라 일부 작업의 성능도 향상시킵니다.

결국 AI를 어떻게 교육하느냐의 문제다. 때리고 꾸짖는 것만으로는 충분하지 않고, AI와 함께 추론해야 한다.

Alibaba GPT는 15일 만에 Niaoniao 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!

이를 통해 우리는 감사가 문제 발견에 도움이 될 뿐만 아니라 AI의 투명성과 설명 가능성을 높이고 AI의 성능을 향상시킬 수 있다는 것을 쉽게 알 수 있습니다.

대형 모델을 탑재한 스마트 단말기의 경우 기술 감사의 중요성은 자명합니다. 결국, 이번 기술 시연으로 볼 때, 언젠가 우리도 Bird처럼 우리만의 고유한 대형 모델을 갖게 된다면 그것은 반드시 환상은 아닐 것입니다.

위 내용은 Alibaba GPT는 15일 만에 'Niaoniao' 입 대체품을 훈련했는데, 이는 ChatGPT+Siri보다 훨씬 더 흥미진진합니다!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제