Maison > Article > développement back-end > Maison_Price_Prediction
Dans le monde de l'immobilier, la détermination des prix de l'immobilier implique de nombreux facteurs, de l'emplacement et de la taille aux commodités et aux tendances du marché. La régression linéaire simple, une technique fondamentale de l'apprentissage automatique, offre un moyen pratique de prédire les prix des logements en fonction de caractéristiques clés telles que le nombre de pièces ou la superficie en pieds carrés.
Dans cet article, j'aborde le processus d'application d'une régression linéaire simple à un ensemble de données sur le logement, du prétraitement des données et de la sélection des caractéristiques à la création d'un modèle pouvant offrir des informations précieuses sur les prix. Que vous soyez nouveau dans la science des données ou que vous cherchiez à approfondir vos connaissances, ce projet constitue une exploration pratique de la manière dont les prédictions basées sur les données peuvent façonner des décisions immobilières plus intelligentes.
Tout d'abord, vous commencez par importer vos bibliothèques :
import pandas as pd import seaborn as sns import numpy as np import matplotlib.pyplot as plt
#Read from the directory where you stored the data data = pd.read_csv('/kaggle/input/california-housing-prices/housing.csv')
data
#Test to see if there arent any null values data.info()
#Trying to draw the same number of null values data.dropna(inplace = True)
data.info()
#From our data, we are going to train and test our data from sklearn.model_selection import train_test_split X = data.drop(['median_house_value'], axis = 1) y = data['median_house_value']
y
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)
#Examining correlation between x and y training data train_data = X_train.join(y_train)
train_data
#Visualizing the above train_data.hist(figsize=(15, 8))
#Encoding non-numeric columns to see if they are useful and categorical for analysis train_data_encoded = pd.get_dummies(train_data, drop_first=True) correlation_matrix = train_data_encoded.corr() print(correlation_matrix)
train_data_encoded.corr()
plt.figure(figsize=(15,8)) sns.heatmap(train_data_encoded.corr(), annot=True, cmap = "inferno")
import pandas as pd import seaborn as sns import numpy as np import matplotlib.pyplot as plt
#Read from the directory where you stored the data data = pd.read_csv('/kaggle/input/california-housing-prices/housing.csv')
data
proximité_océan
INTÉRIEUR 5183
PROCHE OCÉAN 2108
PRÈS DE LA BAIE 1783
ÎLE 5
Nom : count, type : int64
#Test to see if there arent any null values data.info()
#Trying to draw the same number of null values data.dropna(inplace = True)
data.info()
#From our data, we are going to train and test our data from sklearn.model_selection import train_test_split X = data.drop(['median_house_value'], axis = 1) y = data['median_house_value']
y
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)
#Examining correlation between x and y training data train_data = X_train.join(y_train)
train_data
#Visualizing the above train_data.hist(figsize=(15, 8))
#Encoding non-numeric columns to see if they are useful and categorical for analysis train_data_encoded = pd.get_dummies(train_data, drop_first=True) correlation_matrix = train_data_encoded.corr() print(correlation_matrix)
train_data_encoded.corr()
plt.figure(figsize=(15,8)) sns.heatmap(train_data_encoded.corr(), annot=True, cmap = "inferno")
train_data['total_rooms'] = np.log(train_data['total_rooms'] + 1) train_data['total_bedrooms'] = np.log(train_data['total_bedrooms'] +1) train_data['population'] = np.log(train_data['population'] + 1) train_data['households'] = np.log(train_data['households'] + 1)
train_data.hist(figsize=(15, 8))
0.5092972905670141
#convert ocean_proximity factors into binary's using one_hot_encoding train_data.ocean_proximity.value_counts()
#For each feature of the above we will then create its binary(0 or 1) pd.get_dummies(train_data.ocean_proximity)
0.4447616558596853
#Dropping afterwards the proximity train_data = train_data.join(pd.get_dummies(train_data.ocean_proximity)).drop(['ocean_proximity'], axis=1)
train_data
#recheck for correlation plt.figure(figsize=(18, 8)) sns.heatmap(train_data.corr(), annot=True, cmap ='twilight')
0.5384474921332503
Je dirais vraiment que l'entraînement d'une machine n'est pas le processus le plus simple, mais pour continuer à améliorer les résultats ci-dessus, vous pouvez ajouter plus de fonctionnalités sous la param_grid telles que min_feature et de cette façon, votre meilleur score d'estimateur peut continuer à s'améliorer.
Si vous êtes arrivé jusqu'ici, veuillez aimer et partager votre commentaire ci-dessous, votre opinion compte vraiment. Merci !??❤️
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!