Hallo zusammen,
was haltet Ihr von der Serie. Ich als Breaking Bad Fan "die Serie war der Hammer, vor allem wegen der brutalen Ansätze war man teilweise richtig schockiert" habe mich sehr gefreut mehr über das Universum von Saul Goodman und Walter White zu erfahren. Die mittlerweile 3 Staffeln legen langsam los, fesseln jedoch von Folge zu Folge. Mittlerweile eine richtig gute Serie.
Was meint Ihr?
Euer Cacie 51
Grüsse aus NRW