Heim > Artikel > Backend-Entwicklung > Hauspreisvorhersage
In der Welt der Immobilien hängt die Bestimmung der Immobilienpreise von zahlreichen Faktoren ab, von Lage und Größe bis hin zu Ausstattung und Markttrends. Die einfache lineare Regression, eine grundlegende Technik des maschinellen Lernens, bietet eine praktische Möglichkeit, Immobilienpreise basierend auf Schlüsselmerkmalen wie der Anzahl der Zimmer oder der Quadratmeterzahl vorherzusagen.
In diesem Artikel beschäftige ich mich mit dem Prozess der Anwendung einer einfachen linearen Regression auf einen Wohnungsdatensatz, von der Datenvorverarbeitung und Funktionsauswahl bis hin zum Aufbau eines Modells, das wertvolle Einblicke in die Preise bieten kann. Egal, ob Sie neu in der Datenwissenschaft sind oder Ihr Verständnis vertiefen möchten, dieses Projekt dient als praktische Erkundung, wie datengesteuerte Vorhersagen zu intelligenteren Immobilienentscheidungen führen können.
Das Wichtigste zuerst: Sie beginnen mit dem Importieren Ihrer Bibliotheken:
import pandas as pd import seaborn as sns import numpy as np import matplotlib.pyplot as plt
#Read from the directory where you stored the data data = pd.read_csv('/kaggle/input/california-housing-prices/housing.csv')
data
#Test to see if there arent any null values data.info()
#Trying to draw the same number of null values data.dropna(inplace = True)
data.info()
#From our data, we are going to train and test our data from sklearn.model_selection import train_test_split X = data.drop(['median_house_value'], axis = 1) y = data['median_house_value']
y
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)
#Examining correlation between x and y training data train_data = X_train.join(y_train)
train_data
#Visualizing the above train_data.hist(figsize=(15, 8))
#Encoding non-numeric columns to see if they are useful and categorical for analysis train_data_encoded = pd.get_dummies(train_data, drop_first=True) correlation_matrix = train_data_encoded.corr() print(correlation_matrix)
train_data_encoded.corr()
plt.figure(figsize=(15,8)) sns.heatmap(train_data_encoded.corr(), annot=True, cmap = "inferno")
import pandas as pd import seaborn as sns import numpy as np import matplotlib.pyplot as plt
#Read from the directory where you stored the data data = pd.read_csv('/kaggle/input/california-housing-prices/housing.csv')
data
ocean_proximity
INLAND 5183
NEAR OCEAN 2108
IN DER NÄHE VON BAY 1783
INSEL 5
Name: count, dtype: int64
#Test to see if there arent any null values data.info()
#Trying to draw the same number of null values data.dropna(inplace = True)
data.info()
#From our data, we are going to train and test our data from sklearn.model_selection import train_test_split X = data.drop(['median_house_value'], axis = 1) y = data['median_house_value']
y
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)
#Examining correlation between x and y training data train_data = X_train.join(y_train)
train_data
#Visualizing the above train_data.hist(figsize=(15, 8))
#Encoding non-numeric columns to see if they are useful and categorical for analysis train_data_encoded = pd.get_dummies(train_data, drop_first=True) correlation_matrix = train_data_encoded.corr() print(correlation_matrix)
train_data_encoded.corr()
plt.figure(figsize=(15,8)) sns.heatmap(train_data_encoded.corr(), annot=True, cmap = "inferno")
train_data['total_rooms'] = np.log(train_data['total_rooms'] + 1) train_data['total_bedrooms'] = np.log(train_data['total_bedrooms'] +1) train_data['population'] = np.log(train_data['population'] + 1) train_data['households'] = np.log(train_data['households'] + 1)
train_data.hist(figsize=(15, 8))
0,5092972905670141
#convert ocean_proximity factors into binary's using one_hot_encoding train_data.ocean_proximity.value_counts()
#For each feature of the above we will then create its binary(0 or 1) pd.get_dummies(train_data.ocean_proximity)
0,4447616558596853
#Dropping afterwards the proximity train_data = train_data.join(pd.get_dummies(train_data.ocean_proximity)).drop(['ocean_proximity'], axis=1)
train_data
#recheck for correlation plt.figure(figsize=(18, 8)) sns.heatmap(train_data.corr(), annot=True, cmap ='twilight')
0,5384474921332503
Ich würde wirklich sagen, dass das Trainieren einer Maschine nicht der einfachste Prozess ist, aber um die oben genannten Ergebnisse weiter zu verbessern, können Sie weitere Funktionen unter dem param_grid hinzufügen, wie z. B. das min_feature, und auf diese Weise kann sich Ihr bester Schätzerwert weiter verbessern.
Wenn Sie bis hierher gekommen sind, liken und teilen Sie bitte Ihren Kommentar unten, Ihre Meinung ist wirklich wichtig. Vielen Dank!??❤️
Das obige ist der detaillierte Inhalt vonHauspreisvorhersage. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!