2023년은 모두가 이야기하는 기술인 ChatGPT가 주도하는 AI 시대의 주류 시작으로 우리가 기억하는 해가 될 것입니다.
ChatGPT와 같은 생성적 AI 언어 모델은 처음으로 AI가 실제 사람처럼 우리에게 말하고 산문, 시 및 우리가 창의적인 새로운 콘텐츠라고 생각하는 기타 것들을 생성할 수 있다는 점에서 우리의 상상력을 사로잡았습니다. 생성적 AI 솔루션을 사용하면 혁신 속도, 생산성 및 가치 전달 효율성을 높일 수 있는 획기적인 잠재력이 있을 수 있습니다. 제한 사항에도 불구하고 데이터 개인 정보 보호 및 관리 모범 사례에 대한 인식이 개선될 여지가 많습니다.
최근 기술 및 보안 분야의 많은 사람들은 인공 지능 기술 사용에 대한 이해와 적절한 규제 가드 레일이 부족하다는 사실에 경종을 울렸습니다. AI 도구 출력의 신뢰성, 지적 재산권, 민감한 데이터 유출, 개인 정보 보호 및 보안 문제 위반에 대한 우려가 표명되었습니다.
삼성의 ChatGPT 사건은 거대 기술 기업이 실수로 ChatGPT에 비밀을 유출했기 때문에 헤드라인을 장식했습니다. 이러한 작업을 수행하는 회사는 삼성만이 아닙니다. Cyberhaven 연구에 따르면 직원 중 4%가 민감한 회사 데이터를 대규모 언어 모델에 입력한 것으로 나타났습니다. 많은 사람들은 엔터프라이즈 데이터를 사용하여 모델을 훈련할 때 AI 회사가 해당 데이터를 다른 경우에 재사용할 수 있다는 사실을 깨닫지 못합니다.
더 이상 사이버 범죄의 미끼가 필요하지 않은 것처럼 사이버 보안 정보 회사인 RecordedFuture는 다음과 같이 밝혔습니다. “ChatGPT가 출시된 지 며칠 만에 우리는 다크 웹과 특별 액세스 포럼에서 결함이 있지만 완전히 공유한 수많은 위협 행위자를 발견했습니다. 기능적 악성 코드, 사회 공학 튜토리얼, 돈 버는 계획 등 - 모두 ChatGPT를 사용하여 가능했습니다."
개인 인터넷 액세스 엔지니어링 이사인 Jose Blaya는 개인 정보 보호 측면에서 개인 정보 보호 측면에서 개인 정보 보호 측면에서 도구를 사용할 때 ChatGPT 등록과 마찬가지로 오늘날의 검색 엔진과 마찬가지로 IP 주소, 브라우저 설정 및 탐색 활동에 액세스할 수 있습니다. 그러나 개인의 동의 없이 정치적 신념이나 성적 취향이 드러날 수 있고 당황스럽거나 심지어 경력을 파괴하는 정보가 공개될 수 있기 때문에 위험은 더 높습니다.
분명히 이러한 새로운 AI 기술을 구현하려면 더 나은 규정과 표준이 필요합니다. 그러나 기업의 인공지능 도입과 안전한 사용에 핵심적인 역할을 할 수 있는 데이터 거버넌스와 데이터 관리의 중요한 역할에 대한 논의는 부족하다.
독점적인 사전 훈련된 AI 모델 또는 대규모 언어 모델(LLM)과 관련하여 데이터 거버넌스 및 투명성의 핵심 문제는 다음에 있습니다. 훈련 데이터. llm을 사용하는 기계 학습 프로그램에는 다양한 소스의 대규모 데이터 세트가 포함되어 있습니다. 문제는 LLM이 블랙박스이고 소스 데이터에 대한 투명성을 거의 제공하지 않는다는 것입니다. 우리는 출처의 신뢰성에 대해 편견이 없고 편견이 없지만 불법적인 개인 식별 정보나 사기성 데이터를 포함하지 않습니다. 예를 들어 Open AI는 소스 데이터를 공유하지 않습니다. 워싱턴 포스트(Washington Post)는 1,500만 개의 웹사이트를 포함하는 Google의 C4 데이터 세트를 분석한 결과 선동적이고 개인 식별 정보 데이터와 기타 의심스러운 콘텐츠가 포함된 수십 개의 불쾌한 사이트를 발견했습니다. 데이터 거버넌스는 데이터 소스에 대한 투명성을 요구하며 이러한 데이터 소스에서 얻은 지식의 유효성과 신뢰성을 보장합니다. 예를 들어, AI 봇은 확인되지 않은 소스나 가짜 뉴스 사이트의 데이터에 대해 교육을 받았을 수 있으며, 현재 회사의 새로운 정책이나 R&D 프로그램의 일부인 지식을 편향시킬 수 있습니다.
현재 다양한 인공 지능 공급업체는 데이터 격리 및 데이터 도메인을 포함하여 사용자 데이터 개인 정보 보호를 처리하기 위한 다양한 전략을 가지고 있습니다. 직원이 자신도 모르게 LLM에 데이터를 제공할 수 있지만 이 데이터가 모델의 지식 기반에 통합된다는 사실을 알지 못할 수도 있습니다. 기업이 의도치 않게 영업 비밀, 소프트웨어 코드, 개인 데이터를 대중에게 유출할 수도 있습니다. 일부 AI 솔루션은 사전 훈련된 모델에서 데이터를 제외하여 데이터 개인 정보를 보호하는 API와 같은 해결 방법을 제공하지만 이상적인 사용 사례는 사전 훈련된 모델을 사례별 데이터로 강화하고 데이터를 비공개로 유지하는 것이므로 가치가 제한됩니다. 사전 훈련된 AI 도구가 데이터 "도메인"의 개념을 이해하도록 하는 것이 문제에 대한 한 가지 해결책입니다. 훈련 데이터의 "공통" 필드는 사전 훈련에 사용되고 엔터티 간에 공유되는 반면, "독점 데이터"를 기반으로 하는 훈련 모델 확장은 조직 경계 내에서 안전하게 제한됩니다. 데이터 관리를 통해 이러한 경계가 생성되고 보존됩니다.
AI 기반 파생 작업은 AI 프로세스 및 궁극적으로 데이터 소유자와 관련된 데이터 관리의 세 번째 영역을 다룹니다. 코딩 문제를 해결하기 위해 AI 봇을 사용한다고 가정해 보겠습니다. 일반적으로 무언가를 올바르게 처리하지 않으면 버그나 오류가 발생하기 때문에 조사하고 수정하는 책임이 누구에게 있는지 알 수 있습니다. 하지만 AI를 사용하면 내가 AI에게 수행하도록 요청한 작업으로 인해 발생하는 모든 오류나 부정적인 결과에 대해 우리 조직이 책임을 집니다. 프로세스나 원본 데이터에 대해 투명하지 않더라도 마찬가지입니다. 기계를 비난할 수는 없습니다. 어딘가에서 실수를 하거나 나쁜 결과를 낸 것은 인간이었습니다. IP는 어떻습니까? 생성 AI 도구를 사용하여 만든 작품의 IP를 법정에서 어떻게 방어합니까? Harvard Business Review에 따르면 이미 예술계는 소송을 제기하기 시작했습니다.
이러한 초기 단계에서 우리는 불량 데이터, 개인 정보 보호 및 보안, 지적 재산, 기타 민감한 데이터 세트의 위험을 포함하여 AI에 대해 무엇을 모르고 있는지 모릅니다. . 인공 지능은 또한 LLM, 논리 기반 자동화와 같은 다양한 접근 방식을 사용하는 광범위한 분야입니다. 이는 데이터 거버넌스 정책과 데이터 관리 관행을 결합하여 탐구하는 주제 중 일부일 뿐입니다.
및 절차가 있습니다.
AI 애플리케이션에 불필요한 데이터를 제공하지 말고 민감한 독점 데이터를 공유하지 마세요. IP 및 고객 데이터를 잠그거나 암호화하여 공유를 방지합니다.
공급업체가 귀하의 데이터를 보호할 수 있습니까? Google은 블로그에서 이 진술을 공유했지만 "어떻게"는 명확하지 않습니다. 더 넓은 기본 모델 훈련 자료에는 사용되지 않습니다. 귀하가 제공하는 데이터가 소유자 또는 위임한 사람 또는 부서의 파생 작업에 대한 데이터인지 여부를 주의 깊게 검토하십시오. 이는 회사에서 생산한 모든 작업에 대해 궁극적으로 책임을 질 수 있고 AI가 프로세스에 어떻게 통합되는지, 그리고 누가 하는지 알고 싶기 때문에 유용합니다. IP 및 식별 기능의 데이터를 제거하고 향후 사용을 위해 공통 교육 데이터 세트에 제공하려고 합니다. 이 프로세스의 자동화 및 추적이 가능합니다.
현재 진행 중인 모든 업계 규정 및 지침을 계속 확인하세요. 위험 완화 및 데이터 관리를 구현하는 방법을 이해하기 위해 다른 조직의 동료를 개발하고 대화하세요.
생성 AI 프로젝트를 시작하기 전에 법률 전문가와 상담하여 이벤트에서 따라야 하는 위험과 프로세스를 이해하세요. 데이터 침해, 개인 정보 보호 및 지적 재산권 위반, 악의적 행위자 또는 허위/거짓 결과
위 내용은 데이터 관리가 생성 AI에 미치는 영향의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!