ubuntu14.04 설치
pip install xgboost
오류 보고
sudo apt-get update
결과도 같은 오류
해결 방법 :
아아아아성공!
과적합
훈련 정확도는 높지만 탐지 정확도가 낮다는 것을 관찰하면 과적합 문제가 발생할 가능성이 높습니다.
xgboost는 빠르고 효과적인 부스팅 모델입니다.
부스팅 분류기는 분류 정확도가 낮은 수백 또는 수천 개의 트리 모델을 정확도가 높은 모델로 결합하는 것이 기본 아이디어입니다. 이 모델은 계속 반복되어 각 반복마다 새 트리를 생성합니다. 각 단계에서 합리적인 트리를 생성하는 방법에 대해 많은 방법이 제안되었습니다. 여기에서는 Friedman이 제안한 Gradient Boosting Machine을 간략하게 소개합니다. 각 트리를 생성할 때 경사하강법이라는 아이디어를 사용하여 이전에 생성된 모든 트리를 기반으로 주어진 목적 함수를 최소화하는 방향으로 한 단계 더 나아갔습니다. 합리적인 매개변수 설정 하에서 만족스러운 정확도를 달성하려면 특정 수의 트리를 생성해야 하는 경우가 많습니다. 데이터 세트가 크고 복잡할 경우 수천 번의 반복 작업이 필요할 수 있습니다. 트리 모델을 생성하는 데 몇 초가 소요된다면 그렇게 많은 반복 작업을 수행하는 데 시간이 많이 걸리기 때문에 조용히 생각하는 데 집중할 수 있습니다.
이제 xgboost 도구를 통해 이 문제를 더 잘 해결할 수 있기를 바랍니다. xgboost의 전체 이름은 eXtreme Gradient Boosting입니다. 이름에서 알 수 있듯이 Gradient Boosting Machine을 C++로 구현한 것입니다. 저자는 워싱턴 대학에서 기계 학습을 연구하고 있는 석사 Chen Tianqi입니다. 연구를 진행하면서 기존 라이브러리의 계산 속도와 정확도에 제약이 있다는 것을 느껴 1년 전부터 xgboost 프로젝트를 구축하기 시작했고, 지난해 여름부터 점차 구체화됐다. xgboost의 가장 큰 특징은 병렬화를 위해 CPU의 멀티스레딩을 자동으로 활용하는 동시에 알고리즘을 개선하여 정확도를 높일 수 있다는 것입니다. 데뷔작은 캐글의 힉스 신호 식별 대회로 뛰어난 효율성과 높은 예측 정확도로 대회 포럼 참가자들의 폭넓은 관심을 끌었으며, 1,700개 이상의 팀이 참여하는 치열한 경쟁에서 자리를 차지했다. Kaggle 커뮤니티에서 인기가 높아지면서 최근 한 팀이 xgboost의 도움으로 대회에서 1위를 차지했습니다.
모두의 편의를 위해 Chen Tianqi는 xgboost를 Python 라이브러리로 캡슐화했습니다. 그와 함께 xgboost 도구용 R 언어 인터페이스를 만들고 이를 CRAN에 제출할 수 있었던 것은 행운이었습니다. 일부 사용자는 이를 Julia 라이브러리에 캡슐화하기도 했습니다. Python 및 R 인터페이스의 기능은 지속적으로 업데이트되었습니다. 아래에서 일반적인 기능을 학습한 후 가장 익숙한 언어를 선택하여 학습할 수 있습니다. Ipython 노트북 명령줄을 사용하여sudo -H pip install --pre xgboost Successfully installed xgboost Cleaning up...를 직접 입력하세요. ~
위 내용은 Python의 일부 설치 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!