ホームページ >バックエンド開発 >Python チュートリアル >機械学習モデルを構築するときのデータセット
對於那些開始學習機器學習的人來說,最大的困難之一可能是工作、處理資料、做出小的推論,然後組合你的模型。
在本文中,我將舉例說明如何分析資料集以更好地建立機器學習模型:
但是讓我們從頭開始,這樣我們就可以了解什麼是機器學習 (ML)?
ML 是人工智慧 (AI) 的不同分支之一,以及神經網路或機器人等。機器學習的類型取決於資料的結構,因此可以將其分為不同的類型,然後建立模型。 ML 模型是使用處理輸入資料並學習預測或分類結果的演算法建立的。
要建立ML模型,我們需要一個資料集,在資料集中必須有我們的輸入特徵,這基本上是我們的整個資料集,除了目標列,取決於我們的學習類型,如果是監督學習,資料集必須包含目標、標籤或正確答案,因為這些資訊將用於訓練和測試模型。
一些類型的學習及其資料集結構:
因此,資料集基本上定義了機器產生的模型的整個行為和學習過程。
為了繼續這些範例,我將使用帶有標籤的資料集,舉例說明具有監督學習的模型,其目標是為特定受眾定義人壽保險的每月價值。
讓我們先載入資料集並查看它的第一行。
import pandas as pd data = pd.read_csv('../dataset_seguro_vida.csv') data.head()
讓我們更詳細地描述一下我們的數據,我們可以看到它的格式,並發現資料集中的行數和列數。
data.shape
我們這裡有一個 500 行 9 列的資料結構。
現在讓我們看看我們有哪些類型的資料以及是否缺少任何資料。
data.info()
這裡有3個數字列,包括2個int(整數)和1個float(有小數位的數字),其他6個是物件。所以我們可以繼續下一步處理資料。
改進資料集的一個很好的步驟是了解某些類型的資料比其他資料更容易被模型處理甚至理解。例如,物件類型的資料比較重,甚至限制了使用,因此最好將其轉換為類別,因為這使我們能夠從效能到記憶體使用效率方面獲得一些收益(在最後,我們甚至可以透過進行另一個轉換來改進這一點,但到時候我會更好地解釋).
object_columns = data.select_dtypes(include='object').columns for col in object_columns: data[col] = data[col].astype('category') data.dtypes
Como o nosso objetivo é conseguir estipular o valor da mensalidade de um seguro de vida, vamos dar uma olhada melhor nas nossas variáveis numéricas usando a transposição.
data.describe().T
Podemos aqui ver alguns detalhes e valores dos nossos inputs numéricos, como a média aritmética, o valor mínimo e máximo. Através desses dados podemos fazer a separação desses valores em grupos baseados em algum input de categoria, por gênero, se fuma ou não, entre outros, como demonstração vamos fazer a separação por sexo, para visualizar a media aritmética das colunas divididas por sexo.
value_based_on_sex = data.groupby("Sexo").mean("PrecoSeguro") value_based_on_sex
Como podemos ver que no nosso dataset os homens acabam pagando um preço maior de seguro (lembrando que esse dataset é fictício).
Podemos ter uma melhor visualização dos dados através do seaborn, é uma biblioteca construída com base no matplotlib usada especificamente para plotar gráficos estatísticos.
import seaborn as sns sns.set_style("whitegrid") sns.pairplot( data[["Idade", "Salario", "PrecoSeguro", "Sexo"]], hue = "Sexo", height = 3, palette = "Set1")
Aqui podemos visualizar a distribuição desses valores através dos gráficos ficando mais claro a separação do conjunto, com base no grupo que escolhemos, como um teste você pode tentar fazer um agrupamento diferente e ver como os gráficos vão ficar.
Vamos criar uma matriz de correlação, sendo essa uma outra forma de visualizar a relação das variáveis numéricas do dataset, com o auxilio visual de um heatmap.
numeric_data = data.select_dtypes(include=['float64', 'int64']) corr_matrix = numeric_data.corr() sns.heatmap(corr_matrix, annot= True)
Essa matriz transposta nos mostra quais variáveis numéricas influenciam mais no nosso modelo, é um pouco intuitivo quando você olha para a imagem, podemos observar que a idade é a que mais vai interferir no preço do seguro.
Basicamente essa matriz funciona assim:
Os valores variam entre -1 e 1:
1: Correlação perfeita positiva - Quando uma variável aumenta, a outra também aumenta proporcionalmente.
0: Nenhuma correlação - Não há relação linear entre as variáveis.
-1: Correlação perfeita negativa - Quando uma variável aumenta, a outra diminui proporcionalmente.
Lembra da transformada que fizemos de object para category nos dados, agora vem a outra melhoria comentada, com os dados que viraram category faremos mais uma transformada, dessa vez a ideia é transformar essa variáveis categóricas em representações numéricas, isso nos permitirá ter um ganho incrível com o desempenho do modelo já que ele entende muito melhor essas variáveis numéricas.
Conseguimos fazer isso facilmente com a lib do pandas, o que ele faz é criar nova colunas binarias para valores distintos, o pandas é uma biblioteca voltada principalmente para analise de dados e estrutura de dados, então ela já possui diversas funcionalidades que nos auxiliam nos processo de tratamento do dataset.
data = pd.get_dummies(data)
Pronto agora temos nossas novas colunas para as categorias.
Para a construção do melhor modelo, devemos saber qual o algoritmo ideal para o propósito da ML, na tabela seguinte vou deixar um resumo simplificado de como analisar seu problema e fazer a melhor escolha.
Olhando a tabela podemos ver que o problema que temos que resolver é o de regressão. Aqui vai mais uma dica, sempre comesse simples e vá incrementando seu e fazendo os ajustes necessários até os valores de previsibilidade do modelo ser satisfatório.
Para o nosso exemplo vamos montar um modelo de Regressão Linear, já que temos uma linearidade entre os nossos inputs e temos como target uma variável numérica.
Sabemos que a nossa variável target é a coluna PrecoSeguro , as outras são nossos inputs. Os inputs em estatísticas são chamadas de variável independente e o target de variável dependente, pelos nomes fica claro que a ideia é que o nosso target é uma variável que depende dos nosso inputs, se os inputs variam nosso target tem que vai variar também.
Vamos definir nosso y com o target
y = data["PrecoSeguro"] E para x vamos remover a coluna target e inserir todas as outras X = data.drop("PrecoSeguro", axis = 1)
Antes de montarmos o modelo, nosso dataset precisa ser dividido uma parte para teste e outra para o treino, para fazer isso vamos usar do scikit-learn o método train_test_split.
from sklearn.model_selection import train_test_split X_train,X_test,y_train,y_test=train_test_split( X,y, train_size = 0.80, random_state = 1)
Aqui dividimos o nosso dataset em 80% para treino e 20% para testes. Agora podemos montar o nosso modelo.
from sklearn.linear_model import LinearRegression lr = LinearRegression() lr.fit(X_train,y_train)
Modelo montado agora podemos avaliar seu desempenho
lr.score(X_test, y_test). lr.score(X_train, y_train)
Aqui podemos analisar a o coeficiente de determinação do nosso modelo para testes e para o treinamento.
Podemos usar um outro método para poder descobrir o desvio padrão do nosso modelo, e entender a estabilidade e a confiabilidade do desempenho do modelo para a amostra
<p>from sklearn.metrics import mean_squared_error<br> import math</p> <p>y_pred = lr.predict(X_test)<br> math.sqrt(mean_squared_error(y_test, y_pred))</p>
O valor perfeito do coeficiente de determinação é 1, quanto mais próximo desse valor, teoricamente melhor seria o nosso modelo, mas um ponto de atenção é basicamente impossível você conseguir um modelo perfeito, até mesmo algo acima de 0.95 é de se desconfiar.
Se você tiver trabalhando com dados reais e conseguir um valor desse é bom analisar o seu modelo, testar outras abordagens e até mesmo revisar seu dataset, pois seu modelo pode estar sofrendo um overfitting e por isso apresenta esse resultado quase que perfeitos.
Aqui como montamos um dataset com valores irreais e sem nenhum embasamento é normal termos esses valores quase que perfeitos.
Deixarei aqui um link para o github do código e dataset usados nesse post
以上が機械学習モデルを構築するときのデータセットの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。