목차:
문서 1: 심층 강화 학습을 사용하여 발견한 더 빠른 정렬 알고리즘
추상: "동작을 교환하고 복사하면 AlphaDev가 건너뜁니다. 잘못된 것처럼 보이지만 사실은 지름길인 방식으로 프로젝트를 연결하는 발걸음. 이 파격적이고 직관에 반하는 생각은 2016년 봄을 연상시킨다.
7년 전 AlphaGo는 바둑에서 인간 세계 챔피언을 이겼고 이제 AI는 우리에게 프로그래밍에 대한 또 다른 교훈을 가르쳐주었습니다. Google DeepMind CEO Hassabis의 두 문장은 컴퓨터 분야를 시작했습니다. "AlphaDev는 새롭고 빠른 정렬 알고리즘을 발견했으며 개발자가 사용할 수 있도록 이를 기본 C++ 라이브러리에 오픈 소스로 제공했습니다. 이것은 코드 효율성을 향상시키는 AI일 뿐입니다. 시작 "
권장사항: AI는 70% 더 빠르게 정렬 알고리즘을 다시 작성합니다. DeepMind AlphaDev는 컴퓨팅 기반을 혁신하고 라이브러리는 하루에 수조 번 업데이트됩니다.
Paper 2: Video-LLaMA: 비디오 이해를 위한 지시 조정 시청각 언어 모델
요약: 최근에는 대규모 언어 모델이 인상적인 기능을 보여주었습니다. 대형 모델에 "눈"과 "귀"를 장착하여 비디오를 이해하고 사용자와 상호 작용할 수 있습니까?
이 문제에서 출발하여 DAMO 아카데미 연구진은 종합적인 시청각 기능을 갖춘 대형 모델인 Video-LLaMA를 제안했습니다. Video-LLaMA는 영상 속의 영상과 음성 신호를 인지하고 이해할 수 있으며, 사용자가 입력한 지시를 이해할 수 있고, 음성/영상 설명, 작문, 질문 및 설명 등 음성과 영상을 기반으로 일련의 복잡한 작업을 완료할 수 있습니다. 답변 등 현재 논문, 코드, 대화형 데모가 모두 열려 있습니다. 또한 연구팀은 중국 사용자들의 원활한 경험을 위해 Video-LLaMA 프로젝트 홈페이지에서 중국어 버전의 모델도 제공하고 있다.
다음 두 가지 예는 Video-LLaMA의 포괄적인 시청각 인식 기능을 보여줍니다. 이 예의 대화는 오디오 비디오를 중심으로 진행됩니다.
추천: 대규모 언어 모델인 DAMO Academy 오픈 소스 Video-LLaMA에 포괄적인 시청각 기능을 추가하세요.문서 3: 단일 예제에서 패치 기반 3D 자연 장면 생성
요약: Peking University Chen Baoquan 팀 산동대학교와 함께 및 Tencent AI Lab 연구원들은 단일 샘플 장면을 기반으로 훈련 없이 다양한 고품질 3D 장면을 생성하는 최초의 방법을 제안했습니다.
권장: CVPR 2023 | 3D 장면 생성: 신경망 훈련 없이 단일 샘플에서 다양한 결과를 생성합니다.
논문 4: 시공간 확산점 과정
요약: 청화대학교 전자공학과 도시과학컴퓨팅연구센터는 최근 제한된 확률형과 모델링을 위한 높은 샘플링 비용 등 기존 방법의 한계를 뛰어넘는 시공간 확산점 프로세스를 제안했습니다. 시공간 점 처리 모델은 유연하고 효율적이며 계산이 용이한 시공간 점 처리 모델을 통해 도시 자연재해, 비상사태, 주민 활동 등 시공간 사건의 모델링 및 예측에 널리 활용될 수 있으며, 도시 계획 및 관리의 지능적인 발전을 촉진합니다. 다음 표는 기존 포인트 프로세스 솔루션에 비해 DSTPP의 장점을 보여줍니다.
권장: 확산 모델이 지진과 범죄를 예측할 수 있나요? Tsinghua 팀의 최신 연구는 시공간 확산점 프로세스를 제안합니다.
문서 5: SpQR: 거의 손실 없는 LLM 가중치 압축을 위한 희소 양자화 표현
Abstract:정확도 문제를 해결하기 위해 워싱턴 대학교, ETH Zurich 및 기타 기관의 연구자들은 새로운 압축 형식 및 양자화 기술인 SpQR(Sparse-Quantitative)을 제안했습니다. 표현), 이전 방법과 유사한 압축 수준을 달성하면서 처음으로 모델 규모 전반에 걸쳐 LLM의 거의 무손실 압축을 달성했습니다.
SpQR은 특히 큰 양자화 오류를 유발하는 비정상적인 가중치를 식별 및 격리하고 LLaMA에서 다른 모든 가중치를 3~4비트로 압축하면서 더 높은 정밀도로 저장하는 방식으로 작동합니다. 그리고 Falcon LLM. 성능 저하 없이 단일 24GB 소비자 GPU에서 33B 매개변수 LLM을 실행하는 동시에 15% 더 빨라졌습니다. 아래 그림 3은 SpQR의 전체 아키텍처를 보여줍니다.
권장: "330억 매개변수의 대형 모델을 단일 소비자급 GPU에 넣어" 성능 저하 없이 15% 속도를 높입니다.
문서 6: UniControl: 야생에서 제어 가능한 시각적 생성을 위한 통합 확산 모델
Author : CAN Qin et alfpaper 주소 : https://arxiv.org/abs/2305.11147 abstract :문서 7: FrugalGPT: 비용을 절감하고 성능을 향상시키면서 대규모 언어 모델을 사용하는 방법
저자: Lingjiao Chen 외
문서 주소: https://arxiv. org /pdf/2305.05176.pdf
요약:
권장: GPT-4 API 대체? 성능은 비슷하고 비용은 98% 절감됐다. 스탠포드는 FrugalGPT를 제안했지만 연구 결과는 논란이 됐다.
위 내용은 DeepMind는 AI로 정렬 알고리즘을 다시 작성하여 33B 대형 모델을 단일 소비자 GPU에 집어넣습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!