IT House News 10월 12일 어젯밤 Bloomberg에 따르면 Google과 Discord는 자체 AI 챗봇 Bard의 충성도 높은 사용자를 공동으로 초대하여 채팅방을 만들었습니다. 그 중 바드의 프로덕트 매니저와 디자이너, 엔지니어들이 대화방에서 AI의 효과성과 실용성에 대해 논의했지만, 일부에서는 이에 의문을 제기하기 시작했다.
Discord의 Bard 커뮤니티 참가자 두 명이 7월부터 10월까지 채팅방에서 토론한 내용을 Bloomberg에 공유했습니다. Bard의 수석 제품 관리자인 Dominik Rabiej는 토론에서 대규모 언어 모델에서 생성된 응답을 "신뢰하지 않는다"고 말했으며 사람들이 Bard를 "창의적" 및 "브레인스토밍" 목적으로만 사용할 것을 권장했습니다. Rabiej는 또한 프로그래밍에 Bard를 사용하는 것도 "좋은 선택"이라고 말했습니다. 왜냐하면 사람들은 필연적으로 코드가 작동하는지 확인하고 싶어하기 때문입니다.
이번 달에도 Rabiej는 Bard의 새로운 "Double-Check Replies" 버튼의 중요성을 강조했습니다. 이 기능은 "잠재적으로 잘못된" 콘텐츠를 주황색으로 강조 표시한다고 합니다. 그는 또한 Bard가 받는 텍스트를 실제로 이해하지 못하고 단순히 사용자의 프롬프트에 따라 더 많은 텍스트로 응답한다는 점을 반복했습니다. "Bard는 다른 대형 모델과 마찬가지로 생성적이라는 점을 기억하세요. 정보를 검색하거나 요약하는 것이 아니라 텍스트를 생성하는 것입니다.
"이 제품 관리자는 7월 채팅에서 다음과 같이 직설적으로 말했습니다. (사용자 자신이) 독립적으로 확인할 수 없는 한 대규모 언어 모델의 출력 결과를 신뢰하지 마십시오. "우리도 여러분의 기대에 부응하고 싶지만 아직은 그렇지 않습니다.
" 또 다른 제품 관리자인 Warkentin도 토론에서 "인류의 개선이 중요합니다. 그래야만 Bard가 모든 사람에게 적합한 제품이 될 수 있습니다. 그렇지 않으면 사용자가 제품의 기능을 판단할 능력이 없게 될 것입니다. 큰 실수를 저지르세요. “상아탑에 있는 제품은 필요하지 않지만 누구나 사용할 수 있는 제품이 필요합니다!”
IT House는 앞서 Google이 올해 7월 Bard AI 도구 배포를 확대하면서 '대화 링크 공유' 기능을 추가했다고 보도한 바 있습니다. 사용자는 자신과 바드 사이의 대화를 웹 링크로 내보낼 수 있고 이를 다른 사람들과 공유하여 다른 사람들이 바드와 대화를 계속할 수 있습니다.분석 컨설턴트 Gagan Ghotra가 다음에서 취약점을 발견했습니다.
Gagan Ghotra는 이에 따라 사용자에게 Bard와 대화할 때 "비공개 콘텐츠"를 공유하지 말라고 경고했습니다. 그렇지 않으면 관련 정보가 유출될 수 있습니다.
위 내용은 Bloomberg: Google 내부자는 Bard 챗봇의 유용성에 의문을 제기합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!