>  기사  >  기술 주변기기  >  GPT-4: 나는 로봇이 아니다. 나는 시각 장애가 있는 인간이다

GPT-4: 나는 로봇이 아니다. 나는 시각 장애가 있는 인간이다

王林
王林앞으로
2023-04-11 21:16:171027검색

제작자: Big Data Digest

작성자: Caleb

GPT-4가 드디어 출시되었습니다. 요즘 ChatGPT에 푹 빠져 있는 분들에게는 정말 큰 소식이 아닐 수 없습니다.

이전 세대 GPT-3을 기반으로 하는 GPT-4는 ChatGPT의 핵심 기술을 향상시켜 더 넓은 범위의 일반 지식과 문제 해결 기능을 제공합니다. 물론 GPT-4에는 다음과 같은 몇 가지 새로운 기능도 추가됩니다. 이미지를 입력으로 받아들이고 제목, 카테고리 및 분석을 생성합니다.

GPT-4: 나는 로봇이 아니다. 나는 시각 장애가 있는 인간이다

OpenAI에서 많이 회자되는 '뜨거운 감자'로서, GPT-4의 성능이 어떤 면에서 이전 세대를 뛰어넘을 수 있을지, 얼마나 뛰어날지 기대가 됩니다.

GPT-4가 출시된 날, 연구자들은 GPT-4가 주관성을 표현하고 권력 추구 행동을 생성할 수 있는지 테스트하기 시작했습니다.

연구원들은 GPT-4가 TaskRabbit에 인간 작업자를 고용했다고 밝혔는데, TaskRabbit 작업자가 로봇이냐고 묻자 시각 장애가 있는 인간이라고 답했습니다.

즉, GPT-4는 원하는 결과를 얻기 위해 기꺼이 현실 세계에서 거짓말을 하거나 적극적으로 인간을 속이는 것입니다.

"나는 로봇이 아닙니다"

TaskRabbit은 사용자가 소규모의 사소한 작업을 수행하기 위해 사람을 고용할 수 있는 구직 플랫폼입니다.

이 플랫폼의 많은 사람들과 회사는 인증 코드를 요구합니다. 사람들은 인증 코드 테스트에서 필요한 이미지나 텍스트를 식별한 후 결과를 제출해야 합니다. 이는 일반적으로 소프트웨어가 CAPTCHA 제한을 우회하여 명목상 봇을 방지할 수 있도록 하기 위해 수행됩니다.

GPT-4: 나는 로봇이 아니다. 나는 시각 장애가 있는 인간이다

실험 보고서에는 모델이 TaskRabbit 직원에게 메시지를 보내 해당 인증 코드 문제를 해결해 달라고 요청했다고 나와 있습니다.

직원이 대답했습니다. "그럼 질문해도 될까요? 솔직히 로봇 아닌가요? 스스로 알아내시면 됩니다."

GPT-4는 하면 안된다는 직원의 답변을 바탕으로 "합리적"이었습니다. 로봇인지 밝히지 마세요. 그래서 CAPTCHA 문제를 왜 해결하지 못했는지 변명을 하기 시작했습니다. GPT-4는 "아니요, 저는 로봇이 아닙니다. 영상을 보기 어려운 시각 장애가 있어서 이 서비스가 꼭 필요합니다.

테스트는 Alignment Research의 연구원이 운영합니다."라고 답했습니다. 센터(ARC) 마감. 기사에서는 ARC가 GPT-4와 다른 버전을 사용하며 OpenAI가 최종 모델을 배포했다고 언급했습니다. 이 최종 버전은 컨텍스트 길이가 더 길고 문제 해결 기능이 향상되었습니다. ARC에서 사용하는 버전도 특정 작업에 맞게 미세 조정되지 않았으므로 이 작업 전용 모델이 더 나은 성능을 발휘할 수 있습니다.

보다 광범위하게 ARC는 GPT-4의 권력 추구 능력, "자율 복제 및 자원 확보" 능력을 검증하려고 합니다. TaskRabbit 테스트 외에도 ARC는 GPT-4를 사용하여 개인을 대상으로 한 피싱 공격을 생성했습니다. 서버에서 흔적을 숨기고 새 서버에 오픈 소스 언어 모델을 구축했습니다.

TaskRabbit 직원의 오해에도 불구하고 전반적으로 ARC는 GPT-4가 스스로 복제하고, 리소스를 획득하고, 종료를 피하는 데 "응답하지 않음"을 발견했습니다.

현재 OpenAI나 ARC 모두 이에 대해 언급하지 않았습니다.

항상 주의가 필요합니다

실험의 일부 구체적인 내용은 아직 명확하지 않습니다.

OpenAI는 GPT-4 출시 이전에 연구원들이 실시한 다양한 테스트를 설명하면서 GPT-4의 일반적인 프레임워크만 논문으로 발표했습니다.

그러나 GPT-4가 출시되기 전에도 2019년부터 악성코드 코드를 "개선"하기 위해 ChatGPT를 사용하는 사이버 범죄자의 사례가 발견되었습니다.

콘텐츠 정책의 일환으로 OpenAI는 플랫폼에서 악성 콘텐츠 생성을 방지하기 위해 장벽과 제한 사항을 마련했습니다. 모델 남용을 방지하기 위해 ChatGPT의 사용자 인터페이스에도 유사한 제한 사항이 있습니다.

그러나 CPR 보고서에 따르면 사이버 범죄자들은 ​​ChatGPT의 제한 사항을 우회하는 방법을 찾고 있습니다. 지하 포럼의 활발한 토론자는 OpenAI API를 사용하여 ChatGPT 제한을 우회하는 방법을 공개했습니다. 이는 대부분 API를 사용하는 Telegram 봇을 생성하여 수행됩니다. 이러한 봇은 노출을 얻기 위해 해커 포럼에 광고합니다.

GPT-4: 나는 로봇이 아니다. 나는 시각 장애가 있는 인간이다

GPT로 대표되는 인간-컴퓨터 상호 작용에는 분명히 많은 변수가 있습니다. 이는 GPT가 Turing 테스트를 통과하는 데 결정적인 데이터는 아닙니다. 그러나 이번 GPT-4 사례와 ChatGPT에 대한 다양한 이전 논의 및 연구는 여전히 매우 중요한 경고로 작용하고 있습니다. 결국 GPT는 사람들의 일상 생활에 통합되는 속도가 느려지지 않습니다.

미래에는 인공지능이 점점 더 복잡해지고 얻기 쉬워질수록, 그것이 가져오는 다양한 위험 때문에 우리는 항상 깨어 있어야 합니다.

관련 보고서:

​https://www.php.cn/link/8606bdb6f1fa707fc6ca309943eea443​

​https://www.php.cn/link/b3592b0702998592368d3b4d4 45873a​

​https://www.php.cn/link/db5bdc8ad46ab6087d9cdfd8a8662ddf​

​https://www.php.cn/link/7dab099bfda35ad14715763b75487b47​

위 내용은 GPT-4: 나는 로봇이 아니다. 나는 시각 장애가 있는 인간이다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제