디지털 부동산 회사 Interxion의 마케팅 및 비즈니스 이사인 PatrickLastennet은 AI 혁신을 가속화하는 데 방해가 되는 장벽을 살펴봅니다. 처음부터 AI 배포를 위한 강력한 인프라 전략을 개발하는 것이 중요하다고 믿습니다.
인공지능에 대한 사람들의 수요가 늘어나고 있습니다. 모든 업계의 기업은 인공 지능을 사용하여 혁신을 가속화하고 강력한 경쟁 우위를 제공하는 방법을 모색하고 있습니다. 그러나 AI 인프라 설계는 복잡하고 부담스럽기 때문에 기업의 76%는 인프라가 AI 성공의 장벽이라고 믿고 있습니다.
그러나 이것이 진행 속도를 늦추는 변명이 될 수는 없습니다. AI를 적극적으로 추구하는 기업이 늘어나거나 적어도 뒤처지는 기업이 늘어나면 기다리는 기업은 더욱 뒤쳐질 뿐입니다.
유럽 8개 국가의 IT 의사 결정자를 대상으로 한 최근 설문 조사에 따르면 기업의 약 2/3(62%)가 현재 AI를 배포하거나 테스트하고 있으며, 17%는 2020년에 AI를 사용할 계획인 것으로 나타났습니다.
인터뷰 대상자들은 자금, 인력, 물리적 인프라와 같은 리소스 부족부터 AI를 고려하지 않는 불분명한 기업 전략에 이르기까지 많은 인프라 장벽이 AI의 대규모 배포를 제한한다고 언급했습니다.
AI 배포는 많은 기업에서 느린 구축 프로세스이기 때문에 배포 단계에 들어간 기업과 아직 계획을 시작하지 않은 기업 사이에는 엄청난 기술 격차가 발생합니다. AI에 투자하기를 꺼리는 기업은 경쟁 우위를 확보할 수 있는 기회를 놓치게 됩니다.
이것이 바로 AI 배포를 위한 강력한 인프라 전략을 처음부터 갖추는 것이 매우 중요한 이유입니다. 고려해야 할 몇 가지 질문은 다음과 같습니다.
주요 AI R&D를 선도하는 기업은 IT 부서로부터 상당한 초기 투자를 받지 못하는 경우가 많습니다. 결과적으로 팀은 불행하게도 IT의 레이더 아래 생성된 AI 인프라인 섀도우 AI를 생성하는데, 이는 성공적으로 운영하기 어렵고 궁극적으로 비효율적입니다. 기업은 AI에 특별히 최적화된 인프라 전략을 개발하여 섀도우 AI를 피할 수 있습니다.
설문 조사에서는 측정할 수 없는 비용이 주요 문제(21%)라고 강조했습니다. 사람과 장비에 대한 새로운 투자의 필요성부터 AI 설계와 배포 사이의 구불구불한 길에서 발생하는 예상치 못한 비용, 기술 요구 사항의 급속한 혁신과 변화에 이르기까지 AI 투자는 상당하고 예측하기 어려울 수 있습니다. 또한 IT와 AI 개발 간의 내부 단절로 인해 기업이 기술을 배포하지 못하면 ROI가 낮아질 수 있습니다.
사내 전문 인력이 부족한 것도 큰 과제입니다. 기업은 전문 개발자를 고용해야 하는 경우가 많으며, 이는 비용이 많이 들고 신입 직원이 AI 설계 및 조직 목표를 달성하기 위해 비즈니스를 배우는 데 시간이 걸릴 수 있습니다.
IT 장비가 부족하면 기업은 인공 지능을 운영에 통합하는 방법을 구상하는 데 방해가 됩니다. 설문 조사에 따르면 많은 기업은 현재 인프라가 AI 지원에 최적화되어 있지 않고 데이터 센터가 용량에 도달하고 있다는 점을 우려하고 있습니다.
전략 단계의 장벽은 일반적으로 업계 전반에서 유사하지만 구체적인 인프라 결정은 업계마다 다를 수 있습니다. GDPR과 같은 법적 또는 규정 준수 요구 사항은 물론 관련 데이터 유형 및 워크플로가 AI 인프라 결정에 영향을 미칩니다.
이 연구에 따르면 업계 전반에 걸쳐 기업의 39%가 주요 퍼블릭 클라우드를 사용하고 있으며, 그 중 대다수는 유연성과 속도를 원하는 제조업체입니다. 한편, 응답자의 29%는 개인 식별 정보(PII) 데이터를 엄격한 보안과 더 나은 통제 하에 유지하기를 원하는 금융, 에너지, 의료 기업 등 컨설턴트가 지원하는 사내 솔루션을 선호합니다.
많은 비즈니스가 처음부터 시작하므로 처음부터 명확한 전략을 세우는 것이 중요합니다. 나중에 재설계하려면 많은 시간, 비용, 리소스가 소요되기 때문입니다. AI를 대규모로 성공적으로 활성화하려면 기업은 여러 측면을 검토해야 합니다.
무엇보다도 기업은 AI 워크로드를 위해 준비된 데이터 세트에 필요한 데이터 수집 및 수집을 지원하는 올바른 인프라를 갖추고 있는지 확인할 수 있어야 합니다. 특히 AI 추론이 실행되는 엣지나 클라우드 디바이스에서 데이터를 수집하는 효율성과 비용에 주목해야 한다. 이상적으로는 고속 연결을 활용하고 고가용성을 보장하면서 전 세계 여러 지역에서 구현되어야 합니다. 이는 기업이 다음을 제공하는 네트워크 패브릭으로 지원되는 인프라가 필요하다는 것을 의미합니다.
AI 데이터에 대한 근접성: 기업 데이터 센터의 5G 및 유선 코어 노드는 현장 장비, 사무실 및 제조 시설의 AI 데이터를 해당 구역으로 가져옵니다. 상호 연결 데이터 센터 다중 노드 아키텍처를 따라 처리합니다.
직접 클라우드 액세스: AI 교육 또는 추론 워크로드의 하이브리드 배포를 지원하기 위해 클라우드 하이퍼스케일 환경에 대한 고성능 액세스를 제공합니다.
지리적 규모: 전략적인 지리적 영역에 위치한 여러 데이터 센터에 인프라를 배치함으로써 기업은 글로벌 규모로 저비용 데이터 수집 및 고성능 AI 워크로드 제공을 달성할 수 있습니다.
기업이 AI/딥 러닝 모델 교육을 고려할 때 장기적으로 GPU 가속 컴퓨팅을 지원하는 데 필요한 전력 및 냉각 기술을 수용할 수 있는 데이터 센터 파트너를 고려해야 합니다. 이를 위해서는 다음이 필요합니다.
높은 랙 밀도: To AI 워크로드를 지원하려면 기업에는 데이터 센터의 모든 랙에서 더 많은 컴퓨팅 성능이 필요합니다. 이는 더 높은 전력 밀도를 의미합니다. 실제로 대부분의 기업은 AI 워크로드를 지원하고 향후 더 높은 수준에 대비하기 위해 최대 밀도를 최소한 3배 이상 늘려야 합니다.
볼륨 및 규모: AI의 이점을 활용하는 핵심은 대규모 구현입니다. 대규모 하드웨어(GPU)에서 실행되는 기능은 대규모 컴퓨팅 효과를 가능하게 합니다.
대부분의 온프레미스 엔터프라이즈 데이터 센터는 이 정도 규모의 데이터를 처리할 수 없습니다. 한편, 퍼블릭 클라우드는 저항이 가장 적은 경로를 제공하지만, 높은 비용이나 대기 시간 문제로 인해 AI 모델을 대규모로 교육하거나 프로덕션에 배포하는 데 항상 최상의 환경은 아닙니다.
그렇다면 AI 워크로드를 지원하기 위한 인프라를 설계하려는 기업을 위한 최선의 접근 방식은 무엇입니까? 이미 AI를 통해 가치를 얻고 있는 기업이 인프라 배포를 어떻게 선택하는지 검토함으로써 중요한 교훈을 얻을 수 있습니다.
Google, Amazon, Facebook, Microsoft와 같은 하이퍼스케일 기업은 고도로 연결된 고품질 데이터 센터에 배포되는 자체 코어 및 엣지 인프라를 사용하여 AI를 대규모로 성공적으로 배포했습니다. 그들은 필요한 규모, 밀도 및 연결성을 지원할 수 있다는 것을 알고 있기 때문에 전 세계적으로 코로케이션을 많이 사용합니다.
AI 리더들의 지식과 경험을 활용하여 기업은 AI 분야에서 자신의 운명을 계획할 수 있습니다.
위 내용은 AI의 잠재력을 제한하는 주요 인프라 문제의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!