首頁 >後端開發 >Python教學 >使用Python進行泰坦尼克號倖存者的數據分析和預測

使用Python進行泰坦尼克號倖存者的數據分析和預測

王林
王林轉載
2023-05-07 15:16:232068瀏覽

數據獲取

當我們成功註冊帳號後,可以在競賽鏈接中找到泰坦尼克沉船存活的競賽鏈接,如下圖所示:

使用Python進行泰坦尼克號倖存者的數據分析和預測


進入競賽頁面後,可以看到關於競賽的簡單介紹以及其他人的程式碼等內容,在這裡我們點擊Data。

使用Python進行泰坦尼克號倖存者的數據分析和預測


注意下面的資料介紹,這裡的資料介紹將會幫助我們了解資料的基本情況以及其代表的內容。

使用Python進行泰坦尼克號倖存者的數據分析和預測

我們取得到資料之後,開啟編譯環境準備開始進行資料分析,在本文中我使用的是jupyter進行資料分析,當然可以選擇自己習慣的編譯環境進行後續的工作。

拿到資料之後,我們先寫程式將其讀取進編譯環境中,程式碼如下:

# 导入pandas
import pandas as pd
# 将训练集数据导入
data = pd.read_csv('train.csv')

匯入資料後的結果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

#資料初步觀察與處理資料觀察資料清理4C原則

在我們拿到資料後,我們需要對資料進行初步的觀察以及資料清洗。這裡介紹Kaggle大佬提出的資料清理4C原則,其分別是:

#Correcting(修正):顧名思義,修正資料就是對資料進行異常值的處理。例如年齡如果存在100 的數據,那麼這一定是不正常的值。我們將對不同的資料進行異常值的檢查以確保其是正常有效的。但是,當我們從原始的數據中修改數據的時候一定要謹慎行事,因為建立一個準確的模型的基石就是數據,數據決定了模型的好壞

Completing(補充):補充缺失值以及被我們所發現的異常值是必須的。雖然在某些模型中,可以自動的幫助我們處理缺失值兒不需要處理(例如決策樹)。在這部分中,我們通常會選擇缺失佔比小的缺失值進行刪除,兒佔比較大或佔比非常大的缺失值,我們會考慮在原有的資料中探尋某種規律將其填入。

Creating(創建):特徵工程中需要我們對原有的特徵進行理解並決定是否要提取新的特徵。例如,在本題中我們可以考慮將年齡分段作為一個新的特徵來考慮。當然這裡的前提是,我們對問題有一個深刻的了解,並探索我們提取的特徵是否真的能夠對最後的模型建構有幫助。這就需要我們反覆驗證,思考進行提取特徵,找出真正對不同問題有幫助的特徵。

Converting(轉換):在針對某些特定的資料格式的時候,可能還需要我們進行資料轉換。這當然是非常重要的,例如某些字串類型的數據,需要我們轉換為數值的形式來表示。

在這一步驟中,我們將呼叫pandas中的基本函數對資料進行初步的觀察。我們先呼叫info()查看資料的型別以及基本情況,程式碼如下:

data.info()

結果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

當我們呼叫函數後,可以看到所有資料的類型以及基本情況。

這裡需要注意我標註的數據,我們發現Age數據與其它數據相比數量少了很多,也就是我們說的缺失值。同時,可以看到Cabin以及Embarked也存在著缺失的情況。

這些都需要我們關注,並在後續進行一些處理。

隨後,我們呼叫describe()函數進一步觀察資料的分佈情況,該函數可以幫助我們計算每列資料的分佈以及平均值等內容。程式碼如下:

data.describe()

結果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

這裡我們發現Parch資料的75%都是0,存在明顯的分佈不均勻的情況,後續可能需要處理。

缺失值處理(Completing)

在上節中,我們發現資料存在一定的缺失情況,我們首先對其進行視覺化,這能夠使得我們對資料的觀察更直觀。

在這裡我們用到了missingno函式庫進行缺失資料的視覺化,其對缺失資料的視覺化更為直觀。

使用之前,请确保自己已经安装该库。

使用该库进行可视化的代码如下:

# 在数据中抽样100个单位
data_sample = data.sample(100)
msno.matrix(data_sample)

结果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

可以发现,Cabin的缺失值较为明显,Age也存在一些缺失值。

因为数据中每列代表的情况不尽相同,所以我们将针对数据进行不同的处理方法。

我们再通过代码来观察一下缺失的数据情况,代码与结果如下:

missing_data = data.isnull().sum()
missing_data = missing_data [missing_data >0]
missing_data

使用Python進行泰坦尼克號倖存者的數據分析和預測

Embarked的处理

我们首先处理Embarked列,在上边的数据观察中发现其拥有两个缺失值,因为相对于全部的一千条数据来说其量级较小,所以我们在这里直接选择该列缺失的两条数据进行删除处理,代码如下:

# 在data中寻找Embarked的缺失值 找到后在原表中将其行删除
data.dropna(axis=0, how='any',subset=['Embarked'], inplace=True)

dropna 参数介绍
axis: default 0指行,1为列
how: {‘any’, ‘all’}, default ‘any’指带缺失值的所有行;'all’指清除全是缺失值的
thresh: int,保留含有int个非空值的行
subset: 对特定的列进行缺失值删除处理
inplace: 这个很常见,True表示直接在原数据上更改

Age的处理

在上述观察中,我们发现Age存在一定的缺失情况,接下来我们对其进行处理。

我们由Kaggle中的数据介绍中了解到,其表示乘客的年龄,且缺失值相对来说较多,不能够直接采用删除的方式。

我们首先观察Age的分布情况,绘制年龄的直方图,代码如下:

data.hist(column='Age')

结果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

我们注意到,年龄的分布存在一定的偏态,这时候更适合采用中位数进行填充。

注意:偏态分布的大部分值都聚集在变量分布的一侧,中位数可以很好的表示中心趋势。

所以,我们对年龄的缺失值进行中位数的填充。代码如下:

data['Age'].fillna(data['Age'].median(), inplace=True)

至此,我们对于年龄的缺失值处理完毕。

Cabin的处理

我们首先看一下Cabin的数据解释:Cabin number(机舱号码)

对于该特征来说,仿佛对于最终的数据帮助不大。即使其对于最后的数据是非常重要的,由于其缺失值过多且不容易探寻其中的规律,我们还是选择对其做删除的处理。

代码如下:

# 这里我直接删除了该列
del data['Cabin']

至此,所有数据的缺失值处理完毕。

异常值的检测与处理(Correcting)

在本例中,我们能够进行检测并处理的主要是Age特征,因为我们预先知道其大概的范围。在这里我们绘制箱线图观察其数据的异常情况决定是否需要进行处理,代码如下:

data['Age'].plot.box()

结果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

在这里,我们可以看到该数据的最高点在80,符合我们对于数据的预先认知,遂不进行处理。

特征构建(Create)

在这部分中,要求我们对不同的特征有一定的了解以及认识,在这里我列出所有的特征含义。

特征名称含义survival是否存活,1表示存活,0表示没有pclass表示票的种类,分别为1,2,3等sex性别Age年龄sibsp在泰坦尼克号上的兄弟姐妹/配偶的数量parch在泰坦尼克号上的父母/子女人数ticket票号fare乘客票价cabin机舱号embarked上岸港口 ,C = Cherbourg, Q = Queenstown, S = Southampton

在这里,我们提取两个特征,分别是乘客家庭规模,是否独自一人,并对票价以及年龄进行分段构造两个新的特征。

注意:针对不同的项目采取的特征提取工作并不相同,因为这需要根据具体的业务进行分析并提取。

我们首先针对家庭规模以及是否独自一人创建新的两个特征,代码如下:

data['FamilySize'] = data['SibSp'] + data['Parch'] + 1

data['IsAlone'] = 1 
data['IsAlone'].loc[data['FamilySize'] > 1] = 0

然后,我们对年龄和票价进行分段,代码如下:

data['FareBin'] = pd.qcut(data['Fare'], 4)
data['AgeBin'] = pd.cut(data['Age'].astype(int), 5)

这里简单介绍一下上述两个函数的区别与作用
qcut:根据传入的数值进行等频分箱,即每个箱子中含有的数的数量是相同的。
cut:根据传入的数值进行等距离分箱,即每个箱子的间距都是相同的。

特别的,在本节中特征工程的过程要根据实际业务进行不同的特征提取,这个过程需要我们对业务有足够的理解程度。几个好的特征对后续的模型精确程度有很大的积极影响。

数据格式转换(Convert)

某些特定的格式在很多模型中其实是不适用的,在本例中经过上述处理后的数据如下所示:

使用Python進行泰坦尼克號倖存者的數據分析和預測

图中的性别等内容都为字符类型,这显然在模型中存在一定的不兼容情况,这就需要我们进行一定程度的格式转换。

在本部分中,我们要处理的有以下几个部分:

PassengerId:用户id的部分对后面的预测仿佛用处不大,我们对其进行删除。Name:这里的名字中有MR.MISS等信息,这可能对后续的模型有帮助,我们对其进行处理保留。Sex:需要进行编码使用,因为它是字符串类型。Ticket:仿佛用处不大,这里我们选择删除。Embarked:需要进行编码使用,因为它是字符串类型。FareBin:需要进行编码使用,因为它是一个范围。AgeBin:需要进行编码使用,因为它是一个范围。

我们首先对需要删除的两列进行删除的操作,代码如下:

del data['PassengerId']
del data['Ticket']

然后我们对Name进行处理,将其中的身份信息提取出来,代码如下:

data['Title'] = data['Name'].str.split(", ", expand=True)[1].str.split(".", expand=True)[0]

结果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

最后,我们对需要编码的数据进行编码:

from sklearn.preprocessing import OneHotEncoder, LabelEncoder
label = LabelEncoder()

data['Sex_Code'] = label.fit_transform(data['Sex'])
data['Embarked_Code'] = label.fit_transform(data['Embarked'])
data['Title_Code'] = label.fit_transform(data['Title'])
data['AgeBin_Code'] = label.fit_transform(data['AgeBin'])
data['FareBin_Code'] = label.fit_transform(data['FareBin'])

编码后的结果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

至此,数据格式转换已经完毕。

模型构建与评价

在本节中,我们将基于上述数据进行模型的构建,并且通过不同的评价指标进行构建。

模型构建

在这里我将会使用基础的分类模型进行模型的构建,并挑选出初步表现最好的模型进行参数调节。代码如下:

# 处理不需要的数据列
data_x = data.copy()
del data_x['Survived']
del data_x['Name']
del data_x['Sex']
del data_x['FareBin']
del data_x['AgeBin']
del data_x['Title']
del data_x['Embarked']
# 构建y
data_y = data['Survived']
# 导入包
from sklearn import svm, tree, linear_model, neighbors, naive_bayes, ensemble, discriminant_analysis, gaussian_process
from sklearn.model_selection import cross_val_score
# 定义常用的几种分类模型
MLA = {
    #随机森林
    '随机森林':ensemble.RandomForestClassifier(),
    #逻辑回归
    '逻辑回归':linear_model.LogisticRegressionCV(max_iter=3000),
    #SVM
    'SVM':svm.SVC(probability=True),
    #树模型
    '树模型':tree.DecisionTreeClassifier(),
    }
# 进行5折交叉验证并选择f1作为评价指标
for model_name in MLA:
    scores = cross_val_score(MLA[model_name], X=data_x, y=data_y, verbose=0, cv = 5, scoring='f1')
    print(f'{model_name}:',scores.mean())

结果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

我们可以看到,目前随机森林的效果最好,所以我们选择随机森林进行参数调节。

参数调节

在这里我们选择使用网格调参的方式进行参数调节,代码如下:

from sklearn.model_selection import GridSearchCV

n_estimators = [3,5,10,15,20,40, 55]
max_depth = [10,100,1000]

parameters = { 'n_estimators': n_estimators, 'max_depth': max_depth}

model = ensemble.RandomForestClassifier()
clf = GridSearchCV(model, parameters, cv=5)
clf = clf.fit(data_x, data_y)
clf.best_estimator_

结果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

在这里,我们选择了几个简单的参数进行调节,可以根据自己的实际情况对不同的参数进行调节。我们再进行一次交叉验证求平均值看一下效果,结果如下:

使用Python進行泰坦尼克號倖存者的數據分析和預測

可以看到与刚才的效果相比有一些提升。

以上是使用Python進行泰坦尼克號倖存者的數據分析和預測的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:yisu.com。如有侵權,請聯絡admin@php.cn刪除