Laden Sie \(n=10^k\) Tweets von Twitter herunter (mit \(k=2\)) und zwar pro Nutzerkonto wie unten angegeben . die Tweets sollen jeweils an eine prominente Person gerichtet sein.
name party screenname
1 Karl Lauterbach SPD Karl_Lauterbach
2 Olaf Scholz SPD OlafScholz
3 Annalena Baerback Gruene ABaerbock
4 Bundesministerium für Wirtschaft und Klimaschutz Gruene BMWK
5 Friedrich Merz CDU _FriedrichMerz
6 Markus Söder CSU Markus_Soeder
7 Cem Özdemir Gruene cem_oezdemir
8 Janine Wissler Linke Janine_Wissler
9 Martin Schirdewan Linke schirdewan
10 Christian Lindner FDP c_lindner
11 Marie-Agnes Strack-Zimmermann FDP MAStrackZi
12 Tino Chrupalla AFD Tino_Chrupalla
13 Alice Weidel AFD Alice_Weidel
comment
1 <NA>
2 <NA>
3 <NA>
4 Robert Habeck ist der Minister im BMWK
5 CDU-Chef
6 CSU-Chef
7 BMEL
8 Linke-Chefin
9 Linke-Chef
10 FDP-Chef
11 Vorsitzende Verteidigungsausschuss
12 AFD-Bundessprecher
13 AFD-Bundessprecherin
Wir müssen noch das Passwort bereitstellen:
bearer_token <- askpass::askpass("bearer token")
Und dann definieren wir eine Funktion, die das Gewichtheben für uns erledigt:
Jetzt wenden wir die Funktion auf jedes Twitterkonto unserer Liste (alle Politikis) an:
d <- politicians$screenname %>%map(get_all_tweets_politicians)
Categories:
textmining
twitter
programming
Source Code
---extype: stringexsolution: NAexname: twitter07expoints: 1categories:- textmining- twitter- programmingdate: '2022-11-19'slug: twitter07title: twitter07---# ExerciseLaden Sie $n=10^k$ Tweets von Twitter herunter (mit $k=2$) und zwar pro Nutzerkonto wie unten angegeben .die Tweets sollen jeweils an eine prominente Person gerichtet sein.Beziehen Sie sich auf [diese Politikis](https://github.com/sebastiansauer/datascience-text/blob/main/data/twitter-german-politicians.csv).</br></br></br></br></br></br></br></br></br></br></br></br></br></br></br></br></br></br></br></br># SolutionWir starten die benötigten R-Pakete:```{r}library(academictwitteR)library(tidyverse)library(askpass)library(rio)```Hier ist der Datensatz mit den Twitterkonten,für die wir die Daten herunterladen sollen:```{r}politicians_path <-"https://raw.githubusercontent.com/sebastiansauer/datascience-text/main/data/twitter-german-politicians.csv"politicians <-import(politicians_path)politicians```Wir müssen noch das Passwort bereitstellen:```{r}#| eval: falsebearer_token <- askpass::askpass("bearer token")```Und dann definieren wir eine Funktion, die das Gewichtheben für uns erledigt:```{r}get_all_tweets_politicians <-function(screenname, n =1e1) {get_all_tweets(query =paste0("to:", screenname, " -is:retweet"),start_tweets ="2021-01-01T00:00:00Z",end_tweets ="2021-12-31T23:59:59Z",bearer_token = bearer_token,file = glue::glue("~/datasets/Twitter/hate-speech/tweets_to_{screenname}_2021.rds"),data_path = glue::glue("~/datasets/Twitter/hate-speech/{screenname}"),n = n)}```Jetzt wenden wir die Funktion auf jedes Twitterkonto unserer Liste (alle Politikis) an:```{r}#| eval: falsed <- politicians$screenname %>%map(get_all_tweets_politicians)```---Categories: - textmining- twitter- programming