Exemple 1:
Dans l'exemple suivant, nous allons créer le Pyspark DataFrame avec 5 lignes et 6 colonnes et afficher à l'aide de la méthode Show ():
# importer le module Pyspark
Importer Pyspark
#mport Sparkcession pour la création d'une session
de Pyspark.SQL IMPORT SPARKSESSE
#create une application nommée Linuxhint
Spark_App = Sparkcession.constructeur.appname ('Linuxhint').getorCreate ()
# Créer des données étudiants avec 5 lignes et 6 attributs
étudiants1 = ['rollno': '001', 'name': 'sravan', 'Âge': 23, 'height': 5.79, «poids»: 67, «adresse»: «guntur»,
'rollno': '002', 'name': 'ojaswi', 'Âge': 16, 'height': 3.79, «poids»: 34, «adresse»: «hyd»,
'rollno': '003', 'name': 'gnanesh chowdary', 'Âge': 7, 'height': 2.79, «poids»: 17, «adresse»: «patna»,
'rollno': '004', 'name': 'rohith', 'Âge': 9, 'height': 3.69, «poids»: 28, «adresse»: «hyd»,
'rollno': '005', 'name': 'sridevi', 'Âge': 37, 'height': 5.59, «poids»: 54, «adresse»: «hyd»]
# Créer le DataFrame
df = spark_app.CreatedataFrame (étudiants1)
# Afficher DataFrame
df.montrer()
Sortir:
Exemple 2:
Dans l'exemple suivant, nous allons créer le Pyspark DataFrame avec 3 lignes et 6 colonnes et afficher à l'aide de la méthode Show ():
# importer le module Pyspark
Importer Pyspark
#mport Sparkcession pour la création d'une session
de Pyspark.SQL IMPORT SPARKSESSE
#create une application nommée Linuxhint
Spark_App = Sparkcession.constructeur.appname ('Linuxhint').getorCreate ()
# Créer des données étudiants avec 5 lignes et 6 attributs
étudiants2 = ['rollno': '056', 'name': 'Vinay', 'Age': 23, 'Height': 5.79, «poids»: 67, «adresse»: «Tamilnadu»,
'rollno': '045', 'name': 'bhanu', 'Âge': 16, 'height': 3.79, «poids»: 34, «adresse»: «hyd»,
?.79, «poids»: 17, «adresse»: «Delhi»]
# Créer le DataFrame
df2 = spark_app.CreatedataFrame (Students2)
# Affichez la seconde Dataframe
df2.montrer()
Sortir:
Pyspark - Union () Fonction
La fonction Union () ajoutera des lignes d'un ou plusieurs dataframes au premier dataframe. Nous verrons comment ajouter les lignes de la deuxième Dataframe au premier DataFrame.
Syntaxe:
first_dataframe.Union (second_dataframe)
Où:
Exemple:
Dans cet exemple, nous appliquons la fonction Union () pour ajouter le deuxième DataFrame au premier
Trame de données. Enfin, nous affichons le DataFrame à l'aide de la méthode Show ():
# importer le module Pyspark
Importer Pyspark
#mport Sparkcession pour la création d'une session
de Pyspark.SQL IMPORT SPARKSESSE
#create une application nommée Linuxhint
Spark_App = Sparkcession.constructeur.appname ('Linuxhint').getorCreate ()
# Créer des données étudiants avec 5 lignes et 6 attributs
étudiants1 = ['rollno': '001', 'name': 'sravan', 'Âge': 23, 'height': 5.79, «poids»: 67, «adresse»: «guntur»,
'rollno': '002', 'name': 'ojaswi', 'Âge': 16, 'height': 3.79, «poids»: 34, «adresse»: «hyd»,
'rollno': '003', 'name': 'gnanesh chowdary', 'Âge': 7, 'height': 2.79, «poids»: 17, «adresse»: «patna»,
'rollno': '004', 'name': 'rohith', 'Âge': 9, 'height': 3.69, «poids»: 28, «adresse»: «hyd»,
'rollno': '005', 'name': 'sridevi', 'Âge': 37, 'height': 5.59, «poids»: 54, «adresse»: «hyd»]
# Créer le DataFrame
df = spark_app.CreatedataFrame (étudiants1)
# Créer des données étudiants avec 5 lignes et 6 attributs
étudiants2 = ['rollno': '056', 'name': 'Vinay', 'Age': 23, 'Height': 5.79, «poids»: 67, «adresse»: «Tamilnadu»,
'rollno': '045', 'name': 'bhanu', 'Âge': 16, 'height': 3.79, «poids»: 34, «adresse»: «hyd»,
?.79, «poids»: 17, «adresse»: «Delhi»]
# Créer le DataFrame
df2 = spark_app.CreatedataFrame (Students2)
# interpréter Union ()
df.Union (DF2).montrer()
Sortir:
Fonction Pyspark - Unionall ()
La fonction Unionall () ajoutera des lignes d'un ou plusieurs données de données à la première dataframe. Nous verrons comment ajouter les lignes de la deuxième Dataframe au premier DataFrame.
Syntaxe:
first_dataframe.Unionall (second_dataframe)
Où:
Exemple:
Dans cet exemple, nous appliquons la fonction Unionall () pour ajouter le deuxième DataFrame au premier DataFrame. Enfin, nous affichons le dataframe à l'aide de la méthode Show ().
# importer le module Pyspark
Importer Pyspark
#mport Sparkcession pour la création d'une session
de Pyspark.SQL IMPORT SPARKSESSE
#create une application nommée Linuxhint
Spark_App = Sparkcession.constructeur.appname ('Linuxhint').getorCreate ()
# Créer des données étudiants avec 5 lignes et 6 attributs
étudiants1 = ['rollno': '001', 'name': 'sravan', 'Âge': 23, 'height': 5.79, «poids»: 67, «adresse»: «guntur»,
'rollno': '002', 'name': 'ojaswi', 'Âge': 16, 'height': 3.79, «poids»: 34, «adresse»: «hyd»,
'rollno': '003', 'name': 'gnanesh chowdary', 'Âge': 7, 'height': 2.79, «poids»: 17, «adresse»: «patna»,
'rollno': '004', 'name': 'rohith', 'Âge': 9, 'height': 3.69, «poids»: 28, «adresse»: «hyd»,
'rollno': '005', 'name': 'sridevi', 'Âge': 37, 'height': 5.59, «poids»: 54, «adresse»: «hyd»]
# Créer le DataFrame
df = spark_app.CreatedataFrame (étudiants1)
# Créer des données étudiants avec 5 lignes et 6 attributs
étudiants2 = ['rollno': '056', 'name': 'Vinay', 'Age': 23, 'Height': 5.79, «poids»: 67, «adresse»: «Tamilnadu»,
'rollno': '045', 'name': 'bhanu', 'Âge': 16, 'height': 3.79, «poids»: 34, «adresse»: «hyd»,
?.79, «poids»: 17, «adresse»: «Delhi»]
# Créer le DataFrame
df2 = spark_app.CreatedataFrame (Students2)
# interpréter Unionall ()
df.Unionall (DF2).montrer()
Sortir:
Conclusion
Dans cet article, nous pouvons ajouter deux ou plusieurs dataframes en utilisant les méthodes Union () et Unionall (). La fonctionnalité des deux méthodes est la même et discutée avec des exemples fournis. Nous espérons que vous avez trouvé cet article utile. Découvrez plus d'articles sur les conseils pour les conseils et les tutoriels.