2월 23일 뉴스, 인공지능 채팅 도구 ChatGPT가 계속 인기를 끌면서 구글, 마이크로소프트 등 검색 서비스를 제공하는 기업들이 인공지능 채팅 로봇 기능을 검색 인터페이스에 통합하기 시작했습니다. 그러나 이러한 거대 기술 기업의 경우 이 챗봇 스타일의 검색 엔진은 운영 비용을 10배 증가시켜 최대 수십억 달러의 지출을 초래하게 됩니다.
기술 업계의 임원들이 ChatGPT와 같은 AI를 운영하는 데 드는 높은 비용에 대해 논의하고 있습니다. OpenAI의 CEO인 Sam Altman은 트위터를 통해 사용자와의 대화당 ChatGPT의 계산 비용이 몇 센트 이상에 달해 "견딜 수 없다"고 말한 적이 있습니다.
구글 모회사 알파벳의 존 헤네시 회장은 인터뷰에서 미세 조정을 하면 비용을 빠르게 절감할 수 있지만 "대형 언어 모델 등 인공지능과 정보를 교환하는 데 드는 비용은 표준 키워드를 완성하는 데 드는 비용이 10개 이상일 수 있다"고 말했다. 검색 기능의 배입니다."
알파벳의 2022년 순이익은 600억 달러에 가까울 것입니다. 분석가들은 챗봇 기반 검색 사업이 광고 수익을 창출하더라도 이 기술이 알파벳의 수익에 부정적인 영향을 미치고 수십억 달러의 추가 비용이 발생할 수 있다고 말했습니다.
투자 은행 모건 스탠리는 지난해 구글의 3조 3000억 건의 검색 쿼리 비용이 쿼리당 약 0.55센트라고 추정합니다. 이 수치는 인공지능이 생성하는 텍스트의 양에 따라 더 많거나 적을 뿐입니다. 분석가들은 "ChatGPT와 같은 AI 챗봇이 오늘날 검색어의 절반을 50단어 답변으로 처리할 수 있다면" 2024년까지 Google에 연간 60억 달러의 추가 비용이 들 것이라고 예측합니다.
다른 분석가들도 비슷한 견해를 가지고 있습니다. 칩 기술에 중점을 둔 연구 및 자문 회사인 SemiAnalytic은 검색에 ChatGPT 스타일 인공 지능을 추가하면 Google의 새로운 Tensor 처리 장치 및 기타 최적화를 고려할 때 Alphabet에 30억 달러의 추가 비용이 발생할 수 있다고 말했습니다.
이런 종류의 인공 지능이 기존 검색 엔진보다 비싼 이유는 관련된 컴퓨팅 성능이 더 높기 때문입니다. 분석가들은 이런 종류의 인공지능은 수십억 달러의 비용이 드는 칩에 의존하며, 해당 비용은 수년의 서비스 수명에 걸쳐 분산되어야 한다고 말합니다. 소비되는 전기는 또한 기업 운영 비용과 탄소 배출 지표에 대한 압력을 증가시킬 것입니다.
인공 지능 검색어를 처리하는 과정을 "추론"이라고 합니다. 각 검색마다 인간의 두뇌를 모방한 거대한 신경망이 시작되어 많은 텍스트를 생성하고 사실 정보에 대한 대규모 검색 색인을 쿼리할 수도 있습니다.
Alphabet의 하니스는 “추론 비용을 줄여야 한다”며 “최악의 경우 수년이 걸릴 것”이라고 말했다.
높은 운영 비용에도 불구하고 Alphabet은 여전히 다른 기술 회사의 도전에 대응하는 방법을 고려해야 합니다. 이달 초 경쟁사인 마이크로소프트는 자사의 빙(Bing) 검색 엔진에 인공지능 챗봇을 내장할 계획을 선보였다. 유사웹은 마이크로소프트 경영진이 구글의 91% 검색 시장 점유율을 목표로 삼고 있다고 추정한다.
Microsoft 최고 재무 책임자(CFO) Amy Hood는 분석가들에게 향상된 Bing이 출시됨에 따라 사용자 수 증가와 광고 수익의 이점이 비용보다 더 크다고 말했습니다. Hood는 "우리가 논의하고 있는 서비스 비용에도 불구하고 매출총이익이 증가한다"고 말했습니다.
검색 엔진 You.com의 CEO인 Richard Socher와 또 다른 Google 경쟁자(Richard Socher)는 인공 지능 채팅을 추가한다고 말했습니다. 경험은 물론 차트 작성, 비디오 및 기타 생성 기술 애플리케이션으로 인해 운영 비용이 30%~50% 증가합니다. 하지만 그는 "시간이 지날수록 기술은 점점 더 저렴해질 것"이라고 말했다.
구글에 가까운 관계자는 운영 효율성과 사용량에 따라 크게 달라질 수 있기 때문에 챗봇의 구체적인 비용을 단정하기는 이르다고 경고했다. 관련된 기술과 검색 제품은 오랫동안 인공 지능에 의해 구동되었습니다.
Accenture 최고 기술 책임자인 Paul Daugherty는 수십억 명의 사용자를 보유한 검색 대기업이 인공 지능 챗봇을 즉시 출시하지 않은 두 가지 주요 이유 중 하나가 비용이라고 말했습니다.
"하나는 정확성이고, 두 번째는 올바른 방식으로 확장해야 한다는 것입니다."라고 그는 말했습니다.
수년 동안 Alphabet과 다른 회사의 연구원들은 대규모 언어 모델을 더 저렴하게 훈련하고 실행하는 방법을 연구해 왔습니다.
대형 모델에는 일반적으로 추론을 위해 더 많은 칩이 필요하므로 실행 비용이 더 많이 듭니다. 소비자를 끌어들이는 인공지능 모델은 상당히 큽니다. 예를 들어 ChatGPT 모델은 1,750억 개의 매개변수를 가지고 있으며 각 작업의 비용은 사용자의 쿼리 길이에 따라 계속 변합니다.
한 기술 고위 임원은 수백만 명의 소비자가 이런 종류의 인공 지능을 사용하도록 하는 데 여전히 비용이 너무 많이 든다고 말합니다. "이러한 모델은 매우 비싸기 때문에 다음 발전 단계에서는 이러한 모델을 훈련하고 추론하는 비용을 낮추어 모든 애플리케이션에 사용할 수 있게 될 것입니다."라고 이 문제에 대해 잘 아는 익명의 한 관계자는 말했습니다. OpenAI의 과학자들은 이제 복잡한 코드를 통해 추론 비용을 최적화하여 칩 작동 효율성을 향상시키는 방법을 알아냈습니다.
오랜 질문은 정확도에 영향을 주지 않고 인공 지능 모델의 매개변수 수를 10배, 심지어 100배까지 줄이는 방법입니다.
한때 인텔의 인공지능 칩 프로젝트를 이끌었던 나빈 라오(Naveen Rao)는 "(매개변수)를 가장 효과적으로 제거하는 방법은 여전히 열려 있는 질문입니다."라고 말했습니다.
동시에 월 20달러의 구독료를 부과하는 OpenAI의 업그레이드된 ChatGPT 서비스 등 일부 회사에서는 인공지능 검색을 유료로 사용하는 것을 고려하고 있습니다. 기술 전문가들은 또한 한 가지 해결 방법은 더 작은 AI 모델을 더 간단한 작업에 적용하는 것이라고 말하는데, 이는 Alphabet이 탐구하는 접근 방식입니다.
Alphabet은 이번 달에 LaMDA 인공 지능 모델의 "더 작은 버전"이 챗봇 Bard를 구동할 것이라고 말했습니다. "훨씬 적은 컴퓨팅 성능을 요구하므로 더 많은 사용자에게 확장할 수 있습니다."
지난 주에 챗봇에 대해 물었을 때. 컨퍼런스에서 ChatGPT와 Bader처럼 Hannis는 전능한 시스템보다는 더 많은 타겟 모델이 "비용 절감"에 도움이 될 것이라고 말했습니다.
위 내용은 업계에서는 ChatGPT 스타일 검색이 Google의 비용을 10배 증가시켜 매년 수십억 달러의 추가 비용을 발생시킬 것이라고 말합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!