이번에는 JS에서 베이지안 분류기를 구현하는 방법을 알려드리겠습니다. JS에서 베이지안 분류기를 구현할 때 주의사항은 무엇인가요? 다음은 실제 사례입니다.
먼저 코드를 입력하세요
function NB(data) { this.fc = {}; //记录特征的数量 feature conut 例如 {a:{yes:5,no:2},b:{yes:1,no:6}} this.cc = {}; //记录分类的数量 category conut 例如 {yes:6,no:8} } NB.prototype = { infc(w, cls) { //插入新特征值 if (!this.fc[w]) this.fc[w] = {}; if (!this.fc[w][cls]) this.fc[w][cls] = 0; this.fc[w][cls] += 1; }, incc(cls) { //插入新分类 if (!this.cc[cls]) this.cc[cls] = 0; this.cc[cls] += 1; }, allco() { //计算分类总数 all count var t = 0; for (var k in this.cc) t += this.cc[k]; return t; }, fprob(w, ct) { //特征标识概率 if (Object.keys(this.fc).indexOf(w) >= 0) { if (Object.keys(this.fc[w]).indexOf(ct) < 0) { this.fc[w][ct] = 0 } var c = parseFloat(this.fc[w][ct]); return c / this.cc[ct]; } else { return 0.0; } }, cprob(c) { //分类概率 return parseFloat(this.cc[c] / this.allco()); }, train(data, cls) { //参数:学习的Array,标识类型(Yes|No) for (var w of data) this.infc(String(w), cls); this.incc(cls); }, test(data) { var ccp = {}; //P(类别) var fccp = {}; //P(特征|类别) for (var k in this.cc) ccp[k] = this.cprob(k); for (var i of data) { i = String(i); if (!i) continue; if (Object.keys(this.fc).indexOf(i)) { for (var k in ccp) { if (!fccp[k]) fccp[k] = 1; fccp[k] *= this.fprob(i, k); //P(特征1|类别1)*P(特征2|类别1)*P(特征3|类别1)... } } } var tmpk = ""; for (var k in ccp) { ccp[k] = ccp[k] * fccp[k]; if (!tmpk) tmpk = k; if (ccp[k] > ccp[tmpk]) tmpk = k; } return tmpk; } };
예측 함수를 사용하려면 Naive Bayes 알고리즘을 사용해야 합니다
먼저 베이지안 공식을 살펴보겠습니다.
공식을 모르거나 이해하고 있을 수도 있습니다. 공식이지만 어떻게 작동하는지 모르겠습니다.
를 사용하여 간단히 번역해 보겠습니다.
P( Category |Feature) = P ( Feature | Category ) * P( Category)/ P(Feature)
는 실제로 다음과 같습니다.
P(category|feature)=P(feature|category)*P(category)/p(feature)
따라서 다음만 계산하면 됩니다. 데이터는 다음과 같습니다.
P(특성 | 범주)
P(범주)
p(특성)
두 개의 범주, 즉 범주 1과 범주 2가 있다고 가정합니다.
그런 다음 총 카테고리 수는 두 카테고리의 발생 횟수의 합입니다.
또한 우리가 입력한 기능에 대해 여러 가설이 있을 수 있습니다. 이는 단지 3가지 가설만큼 간단합니다:
P((Feature 1, Feature 2) , 기능 3) | 카테고리 1) = P (기능 1 | 카테고리 1) * P ( 기능 2|카테고리 1)*P(기능 3|카테고리 1)
P(카테고리 1)=카테고리 개수 1/(총 개수) of 카테고리)
P(Feature 1, Feature 2, Feature 3)=P(Feature 1)* P(Feature 2)*P(Feature 3)
우리는 공식에 따라 알기 때문에:
P(카테고리 1 |기능)=P(기능|카테고리 1)*P(카테고리 1)/p(기능)
P(카테고리 2|기능)=P(기능|카테고리 2)*P(카테고리 2)/p(기능)
Just p(Feature)가 분모이므로 P(Category 1|Feature)와 P(Category 2 |Feature)를 비교하면
P(Feature|Category 1)*P(Category 1)과 P(Category 1)의 크기를 비교하면 됩니다. P(Feature|Category 2)*P(Category 2)
이 기사의 사례를 읽으신 후 마스터하셨다고 생각합니다. 방법, 더 흥미로운 정보를 보려면 PHP 중국어 웹사이트의 다른 관련 기사를 주목하세요!
관련 읽기:
캔버스를 사용하여 유용한 그래피티 드로잉 보드를 만드는 방법
위 내용은 JS는 베이지안 분류기를 구현합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!