불과 며칠 후, 회사는 점차적으로 일부 제한을 해제하고 더 긴 대화를 허용하겠다고 발표했습니다.
화요일, 미국 현지 시간으로 Microsoft는 Bing AI의 더 긴 채팅 모드를 복원할 것이라고 말했습니다. 이전에 Microsoft는 사용자가 Bing AI와 하루에 최대 50개의 대화를 할 수 있도록 허용했으며 대화당 응답은 5개로 제한되었습니다. 이제 사용자는 하루에 60번 채팅을 할 수 있으며, 대화당 최대 답변 수가 6개로 늘어났습니다. 마이크로소프트는 Bing AI 채팅 제한이 곧 하루 100개 채팅으로 올라갈 것이며 일반 쿼리는 더 이상 그 총계에 포함되지 않을 것이라고 덧붙였습니다.
Microsoft는 다음과 같이 말합니다. “우리 데이터에 따르면 대다수의 사람들이 일상 생활에서 Bing을 더욱 자연스럽게 사용할 수 있게 될 것입니다. 일일 총 채팅 수는 100개입니다. "
Microsoft는 긴 대화가 다시 돌아올 때 Bing AI가 너무 방해가 될 것이라고 생각하지 않습니다. 회사는 이러한 대화를 "책임감 있게" 다시 가져오기를 원하기 때문입니다. Microsoft는 "우리는 더 긴 채팅 모드로 돌아갈 계획이며 책임감 있는 방식으로 이 목표를 달성할 수 있는 최선의 방법을 찾기 위해 열심히 노력하고 있습니다."라고 말했습니다. 동시에 Microsoft는 사람들의 우려에도 응답해야 합니다. 응답 AI는 응답 내용 측면에서 너무 장황할 수 있습니다. 다가오는 테스트에서는 사용자가 "정확한"(더 짧고 보다 정확한 답변), "창의적인"(긴 답변) 및 "균형 잡힌" 답변을 포함한 다양한 유형의 답변 중에서 선택할 수 있습니다. 사실에만 관심이 있다면, 많은 양의 텍스트를 헤쳐나갈 필요가 없습니다.
Bing 팀은 다음과 같이 말했습니다. “더 짧고 검색 중심의 정확한 답변을 포함하여 더 정확하고 더 길고 콘텐츠가 풍부한 창의적인 답변과 균형 잡힌 답변을 포함하여 더 정확한 채팅 톤 중에서 선택할 수 있는 추가 옵션 테스트를 시작할 것입니다. 우리의 목표는 귀하의 필요에 가장 적합한 채팅 행동 유형을 더 잘 제어할 수 있도록 하는 것입니다.
오래 전, Bing AI에 문제의 조짐이 있었습니다. 언론 보도에 따르면 연구원인 Gary Marcus 박사와 Nomic 부사장 Ben Schmidt는 4개월 전 인도에서 Bing 챗봇을 공개 테스트한 결과 시간 대화에서 장기적으로 비슷한 이상한 결과가 발생하는 것으로 나타났습니다.
Microsoft는 이전에 Bing AI 채팅의 이상한 동작을 설명하면서 대화가 길어지면 AI 모델을 혼란스럽게 하고 사용자의 말투를 모방하려고 할 수 있다고 말했습니다.
Microsoft는 최근 블로그 게시물에서 현재 검토가 내부 테스트에서 표현되지 않은 "비정형 사용 사례"를 포착하기 위한 것이라고 밝혔습니다. 회사는 이전에 사람들이 Bing AI를 사용하여 더 오랜 시간 동안 즐겁게 채팅할 수 있을 것이라고 완전히 예상하지 못했다고 밝혔습니다. Bing의 AI에 대한 제한을 완화하는 것은 채팅 친화적인 "피드백"과 챗봇이 이상한 방향으로 이동하는 것을 방지하는 보호 장치의 균형을 맞추려는 시도입니다.
위의 개선 사항 외에도 Bing AI에는 개인 비서, 문제 해결을 도와주는 친구, Bing으로 게임을 하기 위한 게임 모드, 기본 대화 모드 간 전환이 가능한 개인 채팅 모드도 포함되어 있다고 합니다. Bing 검색 모드.
이러한 비공개 채팅 모드에 대한 추가 정보를 요청받았을 때 Microsoft는 답변을 거부했습니다. 그러나 이는 회사가 Bing
검색 엔진에 단순한 채팅 서비스를 제공하는 것 이상으로 Bing AI를 통해 더 많은 작업을 수행할 계획임을 분명히 나타냅니다. (샤오샤오)
위 내용은 Microsoft, AI 채팅 제한을 하루 60회로 완화: 한도는 100회로 늘어납니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!