Maison >développement back-end >Tutoriel Python >Créez votre premier DataFrame dans Pyspark

Créez votre premier DataFrame dans Pyspark

Johnathan Smith
Johnathan Smithoriginal
2025-03-07 18:33:42426parcourir

Création de votre première dataframe dans Pyspark

Création d'un DataFrame dans Pyspark, la structure de données de base pour Spark, est l'étape de base pour toute tâche de traitement des données. Il existe plusieurs façons d'y parvenir, selon votre source de données. L'approche la plus simple et la plus courante consiste à utiliser la méthode spark.read.csv(), que nous explorerons en détail plus tard. Cependant, avant de plonger dans des détails, installons notre environnement Spark. Vous devrez installer Pyspark. Sinon, vous pouvez l'installer en utilisant pip install pyspark. Ensuite, vous devez initialiser une éteinte, qui est le point d'entrée de la fonctionnalité Spark. Cela se fait généralement comme suit:

<code class="python">from pyspark.sql import SparkSession

spark = SparkSession.builder.appName("DataFrameCreation").getOrCreate()</code>

Cela crée un objet Sparkcession nommé spark. Nous utiliserons cet objet tout au long de nos exemples. N'oubliez pas d'arrêter la session une fois terminé en utilisant spark.stop(). Maintenant, nous sommes prêts à créer notre premier DataFrame.

Création d'un DataFrame à partir d'un fichier CSV dans Pyspark

Les données de lecture d'un fichier CSV sont une méthode répandue pour créer des dataframes dans Pyspark. La fonction spark.read.csv() offre une flexibilité dans la gestion de diverses caractéristiques de CSV. Supposons que vous ayez un fichier CSV nommé data.csv dans votre répertoire de travail avec la structure suivante:

<code class="csv">Name,Age,City
Alice,25,New York
Bob,30,London
Charlie,28,Paris</code>

Voici comment vous pouvez créer un DataFrame à partir de ce fichier CSV:

<code class="python">from pyspark.sql import SparkSession

spark = SparkSession.builder.appName("DataFrameCreation").getOrCreate()

df = spark.read.csv("data.csv", header=True, inferSchema=True)

df.show()
spark.stop()</code>

header=True indique que la première ligne contient des en-têtes de colonnes, et inferSchema=True instruites étincelles pour inférer automatiquement les types de données de chaque colonne. Si ces options ne sont pas spécifiées, Spark supposera que la première ligne est des données et attribuera un type de données par défaut (généralement une chaîne) à toutes les colonnes. Vous pouvez explicitement définir le schéma à l'aide d'un objet StructType pour plus de contrôle, ce qui est particulièrement bénéfique pour les ensembles de données complexes ou importants.

Différentes façons de créer un dataframe dans Pyspark

En plus de lire les fichiers CSV, Pyspark fournit plusieurs voies pour la création de données:

>
  • À partir d'une liste de listes ou de tuples: Vous pouvez créer directement un DataFrame à partir de listes ou de tuples de Python. Chaque liste intérieure / tuple représente une ligne, et la première liste intérieure / tuple définit les noms de colonne.
<code class="python">from pyspark.sql import SparkSession

spark = SparkSession.builder.appName("DataFrameCreation").getOrCreate()</code>
  • à partir d'un pandas dataframe: Si vous travaillez déjà avec des pandas, vous pouvez convertir votre pandas de pandas sans couture vers un pyspark DataFrame.
<code class="csv">Name,Age,City
Alice,25,New York
Bob,30,London
Charlie,28,Paris</code>
  • À partir d'un fichier JSON: Similaire à CSV, vous pouvez lire les données d'un fichier JSON en utilisant spark.read.json(). Ceci est particulièrement utile pour les données semi-structurées.
  • à partir d'un fichier de parquet: Parquet est un format de stockage en colonnes optimisé pour Spark. La lecture d'un fichier Parquet est souvent considérablement plus rapide que CSV. Utilisez spark.read.parquet() pour cela.
  • D'autres sources de données: Spark prend en charge un large éventail de sources de données, y compris des bases de données (via JDBC / ODBC), AVRO, ORC, et plus encore. L'objet spark.read fournit des méthodes pour accéder à ces sources.

Pièges courants à éviter lors de la création d'une fromage de données dans Pyspark

Plusieurs problèmes courants peuvent survenir lors de la création de Fames de données:

  • Les problèmes de conférence du schéma peuvent être inférieurs à des erreurs de données et à des erreurs de traitement des données. La définition explicite du schéma est souvent plus sûre, en particulier pour les grands ensembles de données avec divers types de données.
  • Fichiers volumineux: La lecture de fichiers extrêmement volumineuses directement dans une dataframe peut submerger la mémoire du nœud du pilote. Envisagez de partitionner vos données ou à l'aide d'autres techniques comme pour limiter le nombre d'enregistrements lus par fichier. spark.read.option("maxRecordsPerFile",10000).csv(...)
  • Traitement des en-tête incorrects: oublier de spécifier lors de la lecture des fichiers CSV avec des en-têtes peut provoquer un désalignement des données et des noms de colonnes. header=True
  • Type de données Inccasionnelles: Inconsistique traitement. Le nettoyage et le prétraitement des données sont cruciaux avant de créer une fragmentation des données pour résoudre ce problème.
  • Gestion de la mémoire: La nature distribuée de Pyspark peut masquer les problèmes de mémoire. Surveillez de près l'utilisation de la mémoire, en particulier pendant la création de données de données, pour éviter les erreurs hors mémoire.
N'oubliez pas de toujours nettoyer et valider vos données avant de créer une dataframe pour assurer un traitement de données précis et efficace. Le choix de la méthode appropriée pour la création de dataframe en fonction de votre source de données et de votre taille est la clé pour optimiser les performances.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn