일반 대중은 AI에 대해 서로 다른 견해를 갖고 있습니다. 일부는 기계가 인간 작업자를 완전히 대체할 것이라고 믿는 반면, 다른 일부는 AI가 유행이라고 주장합니다. 그러나 모두가 동의하는 한 가지는 AI에 더 엄격한 모니터링이 필요하다는 것입니다.
AI 규제의 중요성에도 불구하고 AI는 훈련에서 뒷전으로 밀렸습니다. 개발자들은 차세대 AI 모델을 구축하는 데 너무 집착하여 빠른 발전을 위해 사이버 보안을 포기하고 있습니다. 문제는 AI에 규제가 필요한지 여부가 아닙니다. 적절한 자금, 인적 자원, 기술 역량을 갖춘 어느 치리회가 주도권을 잡을 것인가입니다.
그렇다면 AI를 누가 규제해야 할까요?
소비자부터 기술 리더까지 다양한 사람들은 정부가 AI를 규제하기를 바랍니다. 공공 자금을 지원받는 기관에는 그렇게 할 수 있는 자원이 있습니다. AI 경쟁의 두 주요 동인인 Elon Musk와 Sam Altman조차도 AI와 관련된 일부 개인 정보 보호 문제는 정부 기관이 간과하기에는 너무 위험하다고 믿습니다.
정부가 AI 규제를 맡게 된다면 구성원의 개인정보와 시민의 자유를 보호하는 데 집중해야 합니다. 사이버 범죄자들은 자신의 계획에 AI 시스템을 이용하는 방법을 계속해서 찾고 있습니다. AI에 능숙하지 않은 개인은 합성된 음성, 딥페이크 비디오, 봇이 운영하는 온라인 프로필에 쉽게 속을 수 있습니다.
그러나 AI를 규제하는 정부의 주요 문제 중 하나는 실수로 혁신을 억제할 수 있다는 것입니다. AI는 복잡하고 진화하는 기술입니다. 배포, 개발 및 교육 지침을 감독하는 공무원이 AI의 작동 방식을 이해하지 못하면 성급하고 비효율적인 판단을 내릴 수 있습니다.
정부의 AI 모니터링으로 인해 발생할 수 있는 잠재적인 장애물을 고려할 때 많은 사람들은 기술 회사가 규제를 주도하는 것을 선호합니다. 그들은 개발자가 자신이 출시하는 기술에 대해 책임을 져야 한다고 믿습니다. 자율 규제를 통해 혁신을 주도하고 이러한 시스템을 효율적으로 발전시키는 데 집중할 수 있습니다.
또한 AI에 대한 심층적인 이해는 기능을 저하시키지 않으면서 사용자 안전을 우선시하는 공정하고 정보에 입각한 지침을 만드는 데 도움이 될 것입니다. 모든 기술과 마찬가지로 업계 전문 지식을 통해 모니터링이 간소화됩니다. 훈련받지 않은 공무원을 자신들이 거의 이해하지 못하는 기술을 규제하도록 배정하는 것은 이익보다 더 많은 문제를 야기할 수 있습니다.
Facebook의 데이터 개인 정보 보호법에 관한 2018년 미국 상원 청문회를 예로 들어 보겠습니다. 워싱턴 포스트(Washington Post)의 이번 보고서를 보면 많은 의원들이 페이스북의 기본 기능을 혼동하고 있음을 알 수 있습니다. 따라서 미국 상원이 기술 전문가로 구성된 단독 부서를 만들지 않는 한, AI와 같이 끊임없이 변화하는 첨단 시스템을 규제할 자격이 없을 가능성이 높습니다.
그러나 기술 기업이 스스로를 규제하는 주요 문제는 수상한 기업이 권력을 남용할 수 있다는 것입니다. 제3자가 개입하지 않으므로 기본적으로 원하는 것은 무엇이든 자유롭게 할 수 있습니다.
일부에서는 정부와 민간 단체가 AI 시스템을 남용할 것이라고 우려합니다. 그들은 특히 AI가 여전히 진화하고 있기 때문에 소수의 통치 기관에 이러한 강력한 기술에 대한 완전한 통제권을 부여하는 것에 대해 확신이 없습니다. 그들은 효율적인 규제를 위해 노력하기보다는 결국 권위를 놓고 싸울 수도 있습니다.
이러한 위험을 완화하기 위해 회의론자들은 최종 사용자가 원하는 방식으로 AI 모델을 자유롭게 사용할 자격이 있다고 믿습니다. 그들은 AI 사용자가 법을 어길 때만 정부 기관이 개입해야 한다고 말합니다. 이는 야심찬 목표지만, 오픈 소스 AI 개발자가 시장 점유율을 장악한다면 기술적으로 달성할 수 있습니다.
즉, 이 설정은 기술에 익숙하지 않은 개인을 불리하게 만듭니다. 사용자는 자신의 시스템 내에서 제한 사항을 설정할 책임이 있습니다. 불행히도 모든 사람이 그렇게 할 수 있는 리소스를 갖고 있는 것은 아닙니다.
독점 모델을 시장에서 퇴출시키는 것도 근시안적입니다. 오픈 소스 AI 모델의 확산은 여러 가지 긍정적인 영향과 부정적인 영향을 미칩니다. 어떤 사람들에게는 단점이 장점보다 더 큽니다.
주요 기관이 AI 규제를 주도하겠지만 중요한 역할을 수행하는 기관도 있습니다.
언론 매체는 AI에 대한 대중의 인식을 형성하는 데 중요한 역할을 합니다. 그들은 업계 발전을 보고하고, 새로운 도구를 공유하고, AI의 유해한 사용에 대한 인식을 제고하고, 관련 우려 사항에 대해 전문가와 인터뷰합니다.
최종 사용자가 AI에 대해 알고 있는 대부분의 사실은 기본적으로 언론 매체에서 나옵니다. 고의든 아니든 허위 데이터를 게시하면 돌이킬 수 없는 피해를 입게 됩니다. 잘못된 정보가 얼마나 빨리 퍼지는지 과소평가할 수는 없습니다.
여러 비영리 조직이 AI 사용자의 개인정보와 시민 자유를 보호하는 데 중점을 두고 있습니다. 그들은 무료 자원을 통해 대중을 교육하고, 새로운 정책을 옹호하고, 정부 관료와 협력하고, 간과된 우려 사항을 목소리를 높입니다.
NPO의 유일한 문제는 일반적으로 리소스가 부족하다는 것입니다. 그들은 정부와 연결되어 있지 않기 때문에 일상적인 운영을 위해 민간의 권유와 기부에 의존합니다. 안타깝게도 소수의 조직만이 적절한 자금을 지원받고 있습니다.
AI 중심의 기술산업협회는 국민의 권익을 대변할 수 있습니다. NPO와 마찬가지로 국회의원과 협력하고, 관련 개인을 대표하고, 공정한 정책을 옹호하고, 특정 문제에 대한 인식을 제고합니다.
하지만 차이점은 민간 기업과 연결되는 경우가 많다는 것입니다. 회원들은 여전히 권유를 하고 있지만 일반적으로 결과를 제공하는 한 상위 조직으로부터 충분한 자금을 받게 됩니다.
AI에는 여러 가지 위험이 따르지만 본질적으로 중립적입니다. 모든 편견, 개인 정보 보호 문제, 보안 오류 및 잠재적인 사이버 범죄 활동은 인간에게서 비롯되므로 AI 자체는 두려워할 것이 아닙니다.
그러나 현대 AI 모델의 작동 방식을 이미 이해하는 사람은 거의 없습니다. 오해는 AI에 대한 사람들의 인식을 왜곡하여 AI가 인류를 장악하거나 일자리를 훔치는 것과 같은 근거 없는 두려움을 지속시킵니다.
교육 기관은 접근 가능한 리소스를 통해 이러한 교육 격차를 메울 수 있습니다. 현대 LLM 및 NLP 시스템에 대한 학술 연구는 아직 많지 않습니다. 대중은 AI의 작동 방식을 완전히 이해한다면 AI를 보다 책임감 있게 사용하고 사이버 범죄에 맞서 싸울 수 있습니다.
법 집행 기관은 AI 기반 사이버 공격이 더 많이 발생할 것으로 예상해야 합니다. 생성 모델이 확산되면서 사기꾼은 신속하게 음성을 합성하고, 딥페이크 이미지를 생성하고, 개인 식별 정보(PII)를 긁어내고, 심지어 완전히 새로운 페르소나를 만들 수도 있습니다.
대부분의 기관에는 이러한 범죄를 처리할 장비가 없습니다. 그들은 새로운 시스템에 투자하고 현대 사이버 범죄에 대해 직원을 교육해야 합니다. 그렇지 않으면 사기꾼을 잡는 데 어려움을 겪게 될 것입니다.
빠르게 진행되는 AI의 특성을 고려할 때 단일 관리 기관이 이를 제어할 가능성은 거의 없습니다. 그렇습니다. 기술 리더는 소비자보다 더 많은 권력을 가지게 될 것입니다. 그러나 발전을 방해하지 않고 AI 위험을 관리하려면 다양한 주체가 협력해야 합니다. 일반 인공지능(AGI) 구현은 아직 멀었지만 지금 통제 대책을 세우는 것이 최선이다.
즉, AI 규제는 AGI만큼 먼 것입니다. 그 동안 사용자는 AI 기반 위협에 맞서기 위해 안전 관행을 준수해야 합니다. 온라인에서 연결되는 사람을 제한하고 디지털 PII를 보호하는 것과 같은 좋은 습관은 이미 큰 효과를 거두고 있습니다.
위 내용은 AI 규제란 무엇인가? 누가 AI를 규제해야 하는가?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!