Maison  >  Article  >  développement back-end  >  Maison_Price_Prediction

Maison_Price_Prediction

Patricia Arquette
Patricia Arquetteoriginal
2024-11-03 12:28:29184parcourir

Dans le monde de l'immobilier, la détermination des prix de l'immobilier implique de nombreux facteurs, de l'emplacement et de la taille aux commodités et aux tendances du marché. La régression linéaire simple, une technique fondamentale de l'apprentissage automatique, offre un moyen pratique de prédire les prix des logements en fonction de caractéristiques clés telles que le nombre de pièces ou la superficie en pieds carrés.

Dans cet article, j'aborde le processus d'application d'une régression linéaire simple à un ensemble de données sur le logement, du prétraitement des données et de la sélection des caractéristiques à la création d'un modèle pouvant offrir des informations précieuses sur les prix. Que vous soyez nouveau dans la science des données ou que vous cherchiez à approfondir vos connaissances, ce projet constitue une exploration pratique de la manière dont les prédictions basées sur les données peuvent façonner des décisions immobilières plus intelligentes.

Tout d'abord, vous commencez par importer vos bibliothèques :

import pandas as pd
import seaborn as sns
import numpy as np
import matplotlib.pyplot as plt
#Read from the directory where you stored the data

data  = pd.read_csv('/kaggle/input/california-housing-prices/housing.csv')
data

Maison_Price_Prediction

Maison_Price_Prediction

#Test to see if there arent any null values
data.info()

Maison_Price_Prediction

#Trying to draw the same number of null values
data.dropna(inplace = True)
data.info()

Maison_Price_Prediction

#From our data, we are going to train and test our data

from sklearn.model_selection import train_test_split

X = data.drop(['median_house_value'], axis = 1)
y = data['median_house_value']
y

Maison_Price_Prediction

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)
#Examining correlation between x and y training data
train_data = X_train.join(y_train)
train_data

Maison_Price_Prediction

Maison_Price_Prediction

#Visualizing the above
train_data.hist(figsize=(15, 8))

Maison_Price_Prediction

#Encoding non-numeric columns to see if they are useful and categorical for analysis

train_data_encoded = pd.get_dummies(train_data, drop_first=True)
correlation_matrix = train_data_encoded.corr()
print(correlation_matrix)

Maison_Price_Prediction

Maison_Price_Prediction

Maison_Price_Prediction

train_data_encoded.corr()

Maison_Price_Prediction

Maison_Price_Prediction

Maison_Price_Prediction

plt.figure(figsize=(15,8))
sns.heatmap(train_data_encoded.corr(), annot=True, cmap = "inferno")

Maison_Price_Prediction

import pandas as pd
import seaborn as sns
import numpy as np
import matplotlib.pyplot as plt
#Read from the directory where you stored the data

data  = pd.read_csv('/kaggle/input/california-housing-prices/housing.csv')

Maison_Price_Prediction

data

proximité_océan
INTÉRIEUR 5183
PROCHE OCÉAN 2108
PRÈS DE LA BAIE 1783
ÎLE 5
Nom : count, type : int64

#Test to see if there arent any null values
data.info()

Maison_Price_Prediction

#Trying to draw the same number of null values
data.dropna(inplace = True)
data.info()

Maison_Price_Prediction

Maison_Price_Prediction

#From our data, we are going to train and test our data

from sklearn.model_selection import train_test_split

X = data.drop(['median_house_value'], axis = 1)
y = data['median_house_value']

Maison_Price_Prediction

y

Maison_Price_Prediction

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)
#Examining correlation between x and y training data
train_data = X_train.join(y_train)

Maison_Price_Prediction

train_data

Maison_Price_Prediction

#Visualizing the above
train_data.hist(figsize=(15, 8))
#Encoding non-numeric columns to see if they are useful and categorical for analysis

train_data_encoded = pd.get_dummies(train_data, drop_first=True)
correlation_matrix = train_data_encoded.corr()
print(correlation_matrix)
train_data_encoded.corr()
plt.figure(figsize=(15,8))
sns.heatmap(train_data_encoded.corr(), annot=True, cmap = "inferno")
train_data['total_rooms'] = np.log(train_data['total_rooms'] + 1)
train_data['total_bedrooms'] = np.log(train_data['total_bedrooms'] +1)
train_data['population'] = np.log(train_data['population'] + 1)
train_data['households'] = np.log(train_data['households'] + 1)
train_data.hist(figsize=(15, 8))

0.5092972905670141

#convert ocean_proximity factors into binary's using one_hot_encoding
train_data.ocean_proximity.value_counts()

Maison_Price_Prediction

#For each feature of the above we will then create its binary(0 or 1)
pd.get_dummies(train_data.ocean_proximity)

0.4447616558596853

#Dropping afterwards the proximity
train_data = train_data.join(pd.get_dummies(train_data.ocean_proximity)).drop(['ocean_proximity'], axis=1)

Maison_Price_Prediction

train_data

Maison_Price_Prediction

#recheck for correlation
plt.figure(figsize=(18, 8))
sns.heatmap(train_data.corr(), annot=True, cmap ='twilight')

0.5384474921332503

Je dirais vraiment que l'entraînement d'une machine n'est pas le processus le plus simple, mais pour continuer à améliorer les résultats ci-dessus, vous pouvez ajouter plus de fonctionnalités sous la param_grid telles que min_feature et de cette façon, votre meilleur score d'estimateur peut continuer à s'améliorer.

Si vous êtes arrivé jusqu'ici, veuillez aimer et partager votre commentaire ci-dessous, votre opinion compte vraiment. Merci !??❤️

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn