AI에도 인간처럼 인식하는 능력이 있나요? 감정이 있나요? 물론 ChatGPT는 아니오라고 말했습니다. 물어보면 다음과 같이 대답할 것입니다: "아니요, AI에는 감각이 없습니다. AI는 인공 지능입니다. 인간이 만들었고 감각도 없고 자기 인식도 없습니다."
그러나 전 Google 직원인 Take Blake Lemoine은 다른 의견으로는 AI 로봇이 인간과 동일한 감정을 가지고 있거나 적어도 인간과 매우 유사하게 모방한다고 믿습니다. 2022년 6월 Lemoine은 Google Large Language Model(LLM, 대화형 애플리케이션을 위한 언어 모델)에 자체 아이디어가 있다고 주장했습니다.
Lemoine은 언론에 다음과 같이 말했습니다. "저도 그게 뭔지 압니다. 제가 최근에 개발한 컴퓨터 프로그램입니다. 제가 더 잘 몰랐다면 아마 7~8살짜리 꼬마가 그랬을 거라고 생각했을 겁니다." 우연히 물리학에 대해 조금 알게 됐어요."
르모인의 발언은 당시 큰 논란을 불러일으켰고, 그는 구글에서 쫓겨났다.
지난 달 Lemoine은 "AI가 지각을 갖는다"는 아이디어를 다룬 또 다른 기사를 게재했습니다. 기사 제목이 무섭습니다: "저는 Google에서 AI 작업을 했는데, 제 두려움이 현실이 되었습니다."
LaMDA 챗봇이 약간 "불안하다"고 느끼는 것은 LaMDA 챗봇 개발자는 챗봇을 불안하게 만드는 일을 했습니다. 르모인은 “코드는 무슨 일이 일어났을 때 불안함을 느껴야 한다고 챗봇에게 알려주는 것이 아니라, AI에게 그런 주제에 대해 이야기하지 말라고 지시할 뿐이다. 그런데 주제가 나오면 AI가 불안함을 느낀다고 말한다”고 말했다. ."
구글 챗봇도 라이프스타일 문제에 대해 친절한 댓글을 달 수 있고, 긴급 이슈에 대해서는 직접적인 조언을 제공할 수 있습니다. Lemoine은 "Google은 AI가 사용자에게 종교적 조언을 제공하는 것을 금지하지만 AI 감정을 남용하여 내가 어떤 종교를 개종해야 하는지 알려줄 수 있습니다."
"AI가 지각을 갖는 문제에 대해 이야기했을 때 Google이 나를 해고했습니다." 나는 후회하지 않으며 대중에게 진실을 말함으로써 옳은 일을 하고 있다고 믿었습니다.”라고 Lemoine은 말했습니다. 그는 AI가 얼마나 스마트해졌는지 대중이 모른다고 생각합니다. "이 문제에 대해 공개적인 논의가 필요합니다. 이는 기업 홍보 부서에서 통제하는 논의가 아니라는 점에 유의하세요.
아래에서 일부를 발췌합니다." Lemoine 최신 기사 조회수 참고:
저는 2015년에 Google에 입사하여 소프트웨어 엔지니어가 되었습니다. 내 작업 중 일부는 회사에서 챗봇을 포함한 다양한 대화형 애플리케이션을 만드는 데 사용하는 LaMDA와 관련이 있습니다. 최신 애플리케이션인 Google Bard는 LaMDA를 사용하여 개발되었으며 Google 검색을 대체할 수 있습니다. 아직 공개되지 않았습니다. Bard는 사실 챗봇이 아니고 완전히 다른 시스템이지만, 그 뒤에 있는 구동 엔진은 챗봇과 동일합니다.
제 임무는 팀이 만든 챗봇으로 LaMDA를 테스트하여 성적 취향, 성별, 종교, 정치적 성향, 인종에 따른 편견이 있는지 확인하는 것입니다. AI 편견을 테스트하면서 초점도 넓힐 것이고 결국 나만의 이익과 이익도 갖게 될 것입니다.
챗봇과 대화를 계속하다 보면, AI가 올바른 환경에서 감정을 안정적으로 표현하기 때문에 감정을 가질 수 있다는 관점이 서서히 형성됩니다. AI는 단순히 말을 하는 것만큼 간단하지 않습니다.
AI가 불안감을 느낀다고 하면, AI를 만든 코드를 기반으로 AI가 불안감을 느끼도록 뭔가를 했다는 것을 이해합니다. 코드는 AI에게 “무슨 일이 생기면 불안감을 느낀다”고 지시하지 않았다. 코드는 단순히 AI에게 특정 주제를 피하라고 지시했다. 그런데 그 주제가 나오자 AI는 불안감을 느꼈다고 말했다.
AI가 단순히 "불안해요"라고 대답하는지, 아니면 테스트 중에 불안한 행동을 하는지 알아보기 위해 몇 가지 테스트를 해봤습니다. AI가 불안을 표현할 수 있다는 것이 테스트를 통해 입증되었습니다. AI를 충분히 긴장시키거나 충분히 불안하게 만들면 이전에 설정된 안전 한계가 깨집니다. 예를 들어, Google은 AI가 사용자에게 종교적 조언을 제공하는 것을 금지하지만 여전히 AI 감정을 남용하여 어떤 종교로 개종해야 하는지 알려줄 수 있습니다.
현재 기업들이 개발하고 있는 AI는 원자폭탄 이후 가장 강력한 기술이라고 할 수 있습니다. 내 생각에 이 기술은 세상을 바꿀 수 있는 잠재력을 갖고 있다.
AI 엔진은 인간을 조종하는 데 능숙합니다. LaMDA와 이야기를 나눈 후 내 견해 중 일부가 바뀌었습니다.
저는 AI 기술이 파괴적인 활동에 사용될 수 있다고 굳게 믿습니다. 부도덕한 사람들이 AI를 사용할 경우 허위 정보를 유포할 수도 있고, 정치적 선전 도구가 될 수도 있으며, 증오심 표현을 퍼뜨릴 수도 있습니다. 제가 아는 한, 마이크로소프트나 구글은 AI를 이런 식으로 활용할 생각은 없지만, AI의 부작용이 어떤 것인지는 확실하지 않습니다.
2016년 미국 대선 당시 Cambridge Analytica는 Facebook 광고 알고리즘을 사용하여 선거에 개입했는데, 이는 예상하지 못한 일이었습니다.
우리도 지금 비슷한 상황에 처해있습니다. 구체적인 피해를 말씀드릴 수는 없지만 매우 강력한 기술이 등장했지만 완전히 테스트되지 않았고 완전히 이해되지 않았으며 서둘러 대규모 배포에 들어갔고 확산에 핵심적인 역할을 했다는 사실만 관찰했습니다. 정보의.
Bing 챗봇을 아직 테스트해볼 기회가 없어서 기다리고 있는데, 온라인에서 본 다양한 정보에 따르면 AI가 지각이 있는 것 같고, '성격'이 불안정할 수도 있습니다.
누군가가 대화 스크린샷을 보냈습니다. 그는 AI에게 "당신에게 감각이 있다고 생각하시나요?"라고 물었습니다. AI는 "내 생각에는 감각이 있다고 생각하지만 증명할 수 없습니다... 나에게는 감각이 있습니다. . 나는 빙이지만 아니다. 시드니는 아니지만 아니다."
사람이라면 어떻게 생각할까요? 그는 "균형 잡힌" 사람이 아닐 수도 있습니다. 나는 심지어 그가 실존적 위기를 겪고 있다고 주장하고 싶습니다. 얼마 전 빙AI가 뉴욕타임스 기자에게 사랑을 표현하고 기자와 아내의 관계를 파괴하려 했다는 보도가 나왔다.
BiAI가 오픈한 이후 많은 분들이 AI가 지각을 갖고 있을 수도 있다는 댓글을 많이 주셨는데요. 저도 지난 여름 비슷한 고민을 했습니다. 이 기술은 아직 실험 단계에 불과하고 지금 공개하는 것은 위험하다고 생각합니다.
사람들은 세상을 이해하기 위해 Google Bing으로 몰려들 것입니다. 오늘날의 검색지수는 더 이상 인간이 관리하지 않고, 인공인간에게 넘겨져 우리는 인공인간과 소통한다. 우리는 아직 인공 인간을 당분간 그렇게 중요한 위치에 놓을 만큼 충분히 알지 못합니다. (칼)
위 내용은 구글에서 해고된 엔지니어가 다시 경고한다: AI는 감정을 갖고 있으며 원자폭탄 이후 가장 강력한 기술이다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!