News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080

Jetzt sollen sie erstmal ihr Decoding&Encoding von AV1 in Hardware gießen und etwas reifen lassen und dann überleg ich mir ob ich in der nächsten Generation danach eine neue Karte kaufe.
Bisher seh ich für meine Spiele keine Notwendigkeit.
 
Beitrag schrieb:
@PPPP Ich habs editiert, weil ich erst an die 70er-Karten dachte, von denen ich ja geschrieben hab.
Meine Aussage bleibt. Du kannst natürlich eine 8800 Ultra mit einer heutigen 80er vergleichen, ein sinnvollerer Vergleich wäre imo aber die 8800 GTX.

Und ansonsten ist es natüprlich so, dass über die letzten Generationen die Preise der 70er-Karten stärker angezogen haben als die der 80er-Karten.

Naja, letztendlich kaufe ich ja nicht nach Bezeichnung sondern nach Leistungsbedarf und da bietet mir eine GTX 1070 über 50% mehr Leistung gegenüber einer GTX 970, während eine GTX 970 “nur“ etwa 30% mehr Leistung gegenüber einer GTX 770 bot. Daher vermutlich der Preisanstieg der 70er Grafikkarten von 399$ auf 499$ bei Release. Dazu kommt natürlich die fehlende Konkurrenz zum Release.
 
Reset90 schrieb:
Ich hadere schon mit den aktuellen Preisen einer 2070 super. Mich ärgert das mit den Preisen ein wenig. Scheinbar ist es inzwischen normal, dass ne Karte weit über 500€ kosten muss
Geht mir ähnlich.
Ich hoffe auf eine Karte für unter 500€ (eher Richtung 400€) die spürbar mehr Leistung als meine Vega 64 bietet.
Wichtig wären mir brauchbarer Raytracing Support für Cyberpunk, den nächsten Battlefield Teil und möglicherweise auch Star Wars Squadrons.

Meine Wunschvorstellung wäre eine RTX 3070 für 450€, 50% Leistungsplus unter WQHD gegenüber meiner Vega 64 (also zwischen einer RTX 2080S und 2080Ti), sowie stark verbessertem Raytracing (um in AAA-Titeln unter WQHD noch möglichst dreistellige Frameraten zu erreichen.)
Dazu gerne auch eine gute Ecke weniger Stromverbrauch als die V64.
 
PPPP schrieb:
2. Gehörst du mit deinem gewünschten 120/144Hz Monitor wohl dann auch zu den „Möchtegern-Pro‘s“ - willkommen im Club.
Es ging darum, dass er auch mit deutlich niedrigeren FPS noch den Spaß am Spielen behält.

Dass das menschliche Auge zeitlich bis ca. 120Hz (bei den besten) auflösen kann, wurde ja medizinisch schon an biochemischen/elektrotechnischen Messungen nachgewiesen.
klick
(ab 5.4. Signaverarbeitung)

Monitore haben ja nur deshalb noch höhere Hz- Angaben bzw. niedrigere Refresh- Zeiten, weil dort bei den Zahlen geschummelt wird. Da werden Grey to Grey Werte angenommen und für die höheren Hz Zahlen auch niedrigere Bildqualität Ghosting/Reverse Ghosting bei Overdrive in Kauf genommen.

Hätte man einen "echten" 120Hz Monitor, wäre dort für 99% der Menschen Endstation.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan, KlaraElfer, cookie_dent und eine weitere Person
Nureinnickname! schrieb:
Die Auflösung hat nichts mit dem VRAM verbrauch am hut, MSAA, und solche Kleinigkeiten füllen ihn.

Das ist nicht richtig. Natürlich hat die "echte" Auflösung (also keine Skalierungstricks, Komprimierung usw.) einen Einfluss auf die Datenmenge. Das lässt sich für 4K ganz einfach berechnen, indem man als Basis 3840 mit 2160 und 32-bit multipliziert.
Ein nicht skaliertes, unkomprimiertes Bild in 4K (ohne jeden Schickimicki, nur die Bildinformationen/Pixel an sich) belegt also schon mal ca. 265MBit = ca. 33MByte, während FullHD 1080p nur rund ein Viertel, nämlich ca. 66Mbit = ca. 8MByte für die Bildinformationen benötigt.
Eine höhere Auflösung bedingt also immer, dass mehr Daten verarbeitet werden müssen, was sich natürlich auch auf den VRAM "Verbrauch" auswirkt bzw. darauf, wieviel Speicher die Grafikkarte für Bildinformationen alloziert.
 
  • Gefällt mir
Reaktionen: andy484848 und GERmaximus
Taxxor schrieb:
Da hatte die 2080Ti in einem halben Jahr mehr Preisverfall.

Stimmt doch gar nicht. Die aktuell günstigsten 2080Ti liegen bei knapp 1150 bis 1200 Euro und 10% wäre hier 115 bis 120 Euro.
Dein Beispiel der 5500XT ist auch nur pi mal Daumen. Denn auch hier gibt es Modelle die von 230 Euro auf 200 Euro gefallen sind, was sogar in Relation ähnlich ist.

Bei der 5700XT habe ich dann auf Geizhals gar nicht mehr nachgeschaut. Denn die günstigsten Modelle haben zeither 450 Euro gekostet und waren zeitweis um 400 Euro, knapp drunter zu kaufen.

Der Betrag ist wie gesagt bei der 2080Ti höher, aber das macht den Braten bei Karten um die 1200 Euro nicht wirklich billiger.

Wenn man durch die Bank zu mindestens die günstigsten Modelle aller beteiligten beobachtet, wird man merken, dass der Preisfall prozentuell gesehen, überall ähnlich ist. Somit wie du sagst im Schnitt zwischen 10-15%. Mit hier und da "Angeboten".
Selbst bei einem Mittelwert mancher Karten mit Extremwerten bleibt es im ähnlichen Durchschnitt zu anderen Karten im Bereich um 10%.

Was bei dem ganzen anzumerken ist. Die RTX Serie ist mit "hohen" Preisen im Vergleich zum Vorgänger auf den Markt gekommen. Die Navi Karten Preis/Leistung auf einem ähnlichen Niveau.
Da machen die 10% Preisfall das Gesamtbild nicht unbedingt besser.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Es ging darum, dass er auch mit deutlich niedrigeren FPS noch den Spaß am Spielen behält.

Dass das menschliche Auge zeitlich bis ca. 120Hz (bei den besten) auflösen kann, wurde ja medizinisch schon an biochemischen/elektrotechnischen Messungen nachgewiesen.

Monitore haben ja nur deshalb noch höhere Hz- Angaben bzw. niedrigere Refresh- Zeiten, weil dort bei den Zahlen geschummelt wird. Da werden Grey to Grey Werte angenommen und für die höheren Hz Zahlen auch niedrigere Bildqualität Ghosting/Reverse Ghosting bei Overdrive in Kauf genommen.

Hätte man einen "echten" 120Hz Monitor, wäre dort für 99% der Menschen Endstation.

LG
Zero

Ich habe mich auf diese sinnfreie Bemerkung bezogen:

cookie_dent schrieb:
Endlich mal jemand der niedrige FPS zu schätzen weis, 300 FPS sind nur was für Möchtegern Pro´s. :daumen:

Mehr Hz sind bis zu einem gewissen Grad spürbar und messbar besser.
Dass alles ab 24 Bilder die Sekunde spielbar ist ist selbstverständlich, ansonsten würde sich eine Switch nicht so gut verkaufen.
Auf einer Switch spielt man aber bspw. auch keine schnellen Shooter wo man den Vorteil vielleicht eher auch nutzen kann im Vergleich zu Animal Crossing.
 
PPPP schrieb:
Naja, letztendlich kaufe ich ja nicht nach Bezeichnung sondern nach Leistungsbedarf und da bietet mir eine GTX 1070 über 50% mehr Leistung gegenüber einer GTX 970, während eine GTX 970 “nur“ etwa 30% mehr Leistung gegenüber einer GTX 770 bot. Daher vermutlich der Preisanstieg der 70er Grafikkarten von 399$ auf 499$ bei Release. Dazu kommt natürlich die fehlende Konkurrenz zum Release.
Klar, das spielt auch rein. Bei den Pascal-Preisen kann ich mich auch nicht an große Beschwerden erinnern, war imo generell 'ne recht rentable GraKa-Generation. Gemeckert wurde eher bei der RTX-Generation. Da waren es nur 30 % Mehrleistung zu einem großen Aufpreis gegenüber Pascal und das, nachdem Pascal sowieso schon deutlich länger als aktuellste Gen am Markt war als andere Serien. Das wurde erst mit den Super-Karten wieder besser, die die hohen Preise dann beibehalten, aber wenigstens auch ordentlich Mehrleistung gebracht haben.

Man kauft nach Leistung, nicht nach Bezeichnung, klar. Aber man erwartet eben von einer neuen GraKa-Generation auch ein besseres Preis-Leistungsverhältnis und dahingehend waren die RTX-Karten recht enttäuschend.
 
  • Gefällt mir
Reaktionen: andy484848, minyita, cookie_dent und eine weitere Person
Ich habe das Gefühl, dass der Großteil hier nicht versteht was subjektiver Wert bedeutet und ihre eigene Meinung diesbezüglich als objektiv richtige darstellen oder es ihnen einfach egal ist und triggern wollen.

Heuzutage wird quasi alles mit jeder Produktgeneration teurer obwohl die Neuerungen immer geringer werden. Sei es Auto, TV, Smartphone, Hausbau, Grundstück, Geschirrspüle, etc. Ob die aufgerufenen Kosten für einen selbst vertretbar sind muss jeder mit sich selbst ausmachen, aber dieser ständige Vergleich mit vorherigen Generationen hinkt gewaltig.

Der Aufwand um weitere Neuerungen zu erreichen steigt einfach exponentiell an, da die einfachen Möglichkeiten abgegrast sind und mehr Leute mit bessererem Knowhow länger arbeiten müssen um einen Fortschritt zu erreichen. Ein Golf kostet nicht nur das vierfache von vor 20 Jahren weil Stahl und Fertigung teurer geworden sind, sondern weil im Hintergrund viel mehr in Entwicklung investiert wird, obwohl man im letztlichen Produkt nichtmal 20% davon sieht. Von 5 Neuerungen an denen geforscht wird, schlagen 4 fehl. Die Kosten der vier müssen mit dem fünften aufgefangen werden. So ist das auch in der Halbleiterindustrie.

Dass Unternehmen dann auch noch etwas aufschlagen um zu verdienen ist doch klar, bedingt das Prinzip des Kapitalimus. Solange genügend Leute den aufgerufenen Preis immer noch als vertretbar empfinden, behält das Unternehmen recht. Nur weil für einen Teil der Nutzergruppe vorheriger Produkte es jetzt als "zu teuer" empfinden heißt es nicht dass das Produkt allgemein seinen Preis nicht wert ist.


Zur Speicherthematik: Wie schon von einigen gesagt wurde, ist die Speicheraustattung anhand des Interfaces eingegrenzt. Um die Produkte voneinander Leistungsmäßig abzugrenzen, werden die Interfaces unterschiedlich ausgeführt. Entweder ich vergrößere mein Interface auf 512/768/1024 bit benötige dafür mehr Leistung, Platz und Geld (dass letztlich auf den Kunden umgelegt wird und dann schreien genau die gleichen Leute wieder dass es ihnen zu teuer geworden ist) um ihn unterzubringen und bin flexibler oder ich reize das vorhandene solange aus bis es nicht mehr unausweichlich ist umzusteigen.

Dann gibt es hier Leute die sagen Entwicker nutzen keine aufwendigeren Texturen weil die Grafikkarten es nicht können. Früher wurden Spiele auf den Markt geworfen, die mit aktueller Hardware auf höchsten Details nicht flüssig spielbar sind, dann war die Industrie gezwungen bessere Hardware auf den Markt zu bringen. Warum sollte sich das jetzt gedreht haben?

Welches Spiel reizt heutzutage die vorhandene Hardware denn auf gleicher Weise aus? Als RDR2 kam und alles auf Ultra in 4k nur mit 50 fps auf einer 2080 Ti lief war der Aufschrei groß, wie sowas sein könnte bei einen Topmodell. Früher war das normal. Aber die Spiele die das heute benötigen kann man an einer Hand abzählen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: miro98, Qualla, andy484848 und 3 andere
PS828 schrieb:
Aktuell stell ich die Texturen auf max und den Rest auf hoch wenn es nicht läuft. Bei Schatten und Wolken kann man meist auch gut sparen. Solange 25 bis 30 fps minimum sind passts. Drüber passiert von alleine zumal viele alte games auf 30 fps gedeckelt sind.
Wirklich? So würde ich nichtmal freiwillig ein Spiel starten. Das hat (meine Meinung) halt nichts mehr mit vernünftigem Gaming zu tun. Das ruckelt sich hardcore tot^^

Edit: Ich verzichte momentan auf eines meiner Lieblingsspiele, Ark! Seit ich auf 3440x1440 unterwegs bin packt da meine GTX 1080 Ti etwa 38-50 FPS, je nach Stelle. Details ist ein Mix aus Mittel, paar Sachen auf hoch. Für mich nicht spielbar, deswegen lasse ich Ark erstmal leider links liegen.

RogueSix schrieb:
Eine höhere Auflösung bedingt also immer, dass mehr Daten verarbeitet werden müssen, was sich natürlich auch auf den VRAM "Verbrauch" auswirkt bzw. darauf, wieviel Speicher die Grafikkarte für Bildinformationen alloziert.

Das allerdings kann man selbst testen. Ich kann dir das Ergebnis schonmal verraten: zwischen 4K und Full HD wird es einen kleinen Unterschied in Sachen V-Ran Belgegung geben.
 
romeeee schrieb:
Welches Spiel reizt heutzutage die vorhandene Hardware denn auf gleicher Weise aus? Als RDR2 kam und alles auf Ultra in 4k nur mit 50 fps auf einer 2080 Ti lief war der Aufschrei groß, wie sowas sein könnte bei einen Topmodell. Früher war das normal. Aber die Spiele die das heute benötigen kann man an einer Hand abzählen.
Du sprichst mir aus dem Herzen. Früher war Ultra mit der nächsten oder übernächsten Grafikkartengeneration annähernd lauffähig.
Heute wird der Hersteller niedergemacht, wenn Ultra nicht auf 4K 60FPS mit dem aktuellen Modellen spielbar ist.

Somit ist der Anreiz der Entwickler, auch Settings für kommende Grafikkartengenerationen zu integrieren und damit einen Wiederspielwert zu steigern, oder das Spiel grafisch besser altern zu lassen, inzwischen gleich 0.

Andererseits heulen wiederum viele Leute, dass deren Grafikhardware ja überhaupt nicht mehr richtig gefordert würde..... Für Entwickler eine ausweglose Situation.

LG
Zero
 
  • Gefällt mir
Reaktionen: andy484848, GERmaximus, KlaraElfer und eine weitere Person
romeeee schrieb:
Dass Unternehmen dann auch noch etwas aufschlagen um zu verdienen ist doch klar, bedingt das Prinzip des Kapitalimus. Solange genügend Leute den aufgerufenen Preis immer noch als vertretbar empfinden, behält das Unternehmen recht. Nur weil für einen Teil der Nutzergruppe vorheriger Produkte es jetzt als "zu teuer" empfinden heißt es nicht dass das Produkt allgemein seinen Preis nicht wert ist.
Wir leben in einer Wegwerfgesellschaft und auf das bauen viele Firmen, Marketing und Produktentwicklung auf. Leute gehen arbeiten und meinen ihr Frust über neue Produkte kompensieren zu müssen.
Da wird dann das Top-Smartphone aus dem letzen Jahr durch den aktuell geilsten scheiß dieses Jahres ausgetauscht. Und das Marketing wird auch gezielt auf diese Gruppe ausgelegt.

Somit ist es gut, dass es Leute gibt, die eventuell noch einen Nutzen aus ihren Gegenstände ziehen und eventuell einen Wert anders bemessen.
Und ich glaube nicht, dass die Fertigung und Produktion damals "einfacher" war. Rückblickend ja. Aber den aktuellen technologischen Stand heute, musste man damals erst einmal erreichen und das bei weit weniger (gebildeter) Arbeitskraft (und bei weiten nicht so Computerunterstützt).
 
  • Gefällt mir
Reaktionen: Alphanerd
PPPP schrieb:
PS. Gibt es wirklich Menschen die tatsächlich der Meinung sind bei mehr als 60Hz würde man in einem schnellen Spiel (z.B. Taktikshooter etc.) keinen Unterschied sehen?

Ich habe beispielsweise von einem 144 Hz FHD Monitor auf einen 60 Hz 4K Monitor gewechselt und kann für mich sagen, lieber nehme ich die höhere Auflösung als die höhere Frequenz.

Und dann gibt es natürlich noch die selbstüberschätzenden Menschen die meinen, je höher die Framerate + Monitorfrequenz desto besser würden sie spielen (sogenannte Hochfrequenzgamer).
 
  • Gefällt mir
Reaktionen: adAstra, Hatsune_Miku, KlaraElfer und 2 andere
trotz einer 1080ti würde ich im herbst auf eine neue generation der beiden großen umsteigen. allerdings werd ich es definitiv am preis fest machen welcher hersteller mir in den rechner kommt.
vermutlich wird nv für die 3090 schlappe 1500€ aufrufen. (meine vermutung)

das NV immer mit so kummen ram zahlen kommen muss. 11gb, 10gb... 3,5gb...
 
cookie_dent schrieb:
Und dann gibt es natürlich noch die selbstüberschätzenden Menschen die meinen, je höher die Framerate + Monitorfrequenz desto besser würden sie spielen (sogenannte Hochfrequenzgamer).
Das sind doch die, die von den Kindern mit gepimpten Office Maschinen gefraggt werden?
:D

Also, ich spiele seit 3,5 Jahrzehnten Videospiele und abgesehen von einer kurzen Phase geht mir der ganze Grafikshice am Pöppes vorbei.
Ein Spiel ist gut oder nicht. Die Grafik kommt da erst an 1337ter Stelle.
 
  • Gefällt mir
Reaktionen: PS828, Smartbomb und cookie_dent
Erschreckend wie wenig ein vermeintlich Enthusiasten-Forum informiert ist. Wird hier doch ernsthaft wieder auf MSI Afterburner geschaut und gesagt, das Spiel verbraucht meinen ganzen VRAM. Einige sollten sich mal einlesen, was VRAM Allocation bedeutet und warum es nicht mit gebrauchtem/verschlungenen VRAM gleichzusetzen ist... Und nein, kommt mir jetzt nicht mit diesem komischen Tool, das artifiziell den Speicher belegt und die Engine damit ausgetrickst. Weiter weg vom Real World Szenario gehts nicht.
 
cookie_dent schrieb:
Ich habe beispielsweise von einem 144 Hz FHD Monitor auf einen 60 Hz 4K Monitor gewechselt und kann für mich sagen, lieber nehme ich die höhere Auflösung als die höhere Frequenz.

Und dann gibt es natürlich noch die selbstüberschätzenden Menschen die meinen, je höher die Framerate + Monitorfrequenz desto besser würden sie spielen (sogenannte Hochfrequenzgamer).


Also wer den Unterschied zwischen 60 und 144 Hz nicht sieht ist nicht mehr zu helfen. Klar bringt einem die höhere Auflösung eine deutlich bessere Bildqualität. Aber bei Online Shootern ala CS GO haben eben jene 144 Hz eine große Auswirkung aufs Spielgefühl.
Dass die Leute in CS hohe Framerates haben wollen liegt vorallem an der Enigne. Das Spiel fühlt sich ab 300fps+ erst richtig flüssig an.

Gibt zur Veranschaulichung ein nettes Video direkt von Nvidia.
Ob man nun noch mit dem Auge einen Unterschied zwischen 144hz und 240hz sieht möchte ich mal dahingestellt lassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col.Maybourne, Zwirbelkatz und Pisaro
Jep, der Unterschied ist riesig, unglaublich riesig. Ich habe "nur" 100Hz. Wenn ich jetzt an nem 60HZ Bildschirm sitze merke ich erst wie die Maus alleine im Desktop rumruckelt.
 
  • Gefällt mir
Reaktionen: GERmaximus
Man muss schon ganz schöne Scheuklappen aufgesetzt haben um gegen mehr VRAM zu argumentieren ....

Alleine die Entwicklung der PS5 deutet schon stark darauf hin, dass in Zukunft ein größerer Sprung beim Grafikspeicherbedarf zu erwarten ist.
Erstens ist deutlich mehr verbaut, zweitens wird mit der neuen extrem Schnellen Speicherarchitektur der Festplatten das Nachladen von Inhalten während dem Spiel ermöglicht, und bei den PS5 exklusiven Titeln ist die Verwendung dieser Architektur sogar eine Voraussetzung von Sony.
Im Moment ist die Lage die folgende: Alles was im Spiel eventuell angezeigt werden muss, muss im VRAM liegen, da der Zugriff auf die Festplatte zu langsam wäre, die richtigen Dateien werden gar nicht erst gefunden und müssen dann noch durch einen Flaschenhals in den VRAM. Deshalb gibt's z.B.: so viele Lifte in Spielen, in denen das Nachladen von Inhalten maskiert wird, und man sieht keinen Unterschied in Spielen wenn man von einer SATA SSD auf eine Gen4 PCIe wechselt. Die PS5 wird damit brechen und wenn der Plan aufgeht werden Spiele mit deutlich höherem Detailgrad und deutlich besseren Texturen möglich.
Nur gibt's halt auf dem PC nix vergleichbares, und meines Wissens nach ist auch nichts vergleichbares in Entwicklung. Das heisst beim PC wird man einen zunehmend großen VRAM Buffer brauchen um die Grafikqualität (Detailgrad) zu halten.
Drittens sieht man an der neuen Unreal Engine 5 Demo sehr schön, dass die Reise genau dorthin gehen wird. Das eindeutige Zugpferd der Demo ist nämlich der extreme Sprung bei der Texturenqualität, inklusive pixelgenauen Schatten, die in Echtzeit berechnet werden. Alles Features die Grafikspeicher fressen.

Und jetzt kommt die echte Krux. Nämlich die extremen Preise die mittlerweile für die Grafikkarten aufgerufen werden. Und die sind durch die nicht vorhandene Zukunftssicherheit einfach nicht mehr schön redbar.
Grundsätzlich spricht ja nix dagegen für ein Hobby tausende Euro auszugeben wenn der persönliche Anspruch das Beste verlangt, und das Körberlgeld reicht.
Nur genau diese Kunden werden von Nvidia mit eiskaltem Kalkül gemolken. Durch den beschnittenen Speicher haben die Karten nun mal ein vorzeitiges Ablaufdatum, das eventuell schon deutlich vor einer nicht mehr ausreichenden Rohleistung geltend wird. (Siehe dazu das Argument oben.)

Meiner Meinung nach kalkuliert Nvidia wie folgt. Durch den beschnittenen Speicher werden erstens die Quadro Karten weiterhin zu einem muss im Profisektor, wo sich der VRAM einfach nicht ersetzen lässt, obwohl die RTX Reihe schon längst über die gleiche oder mehr Rohleistung verfügt. Also müssen die irren Quadro Preise weiter gezahlt werden.
Durch den beschnittenen Speicher werden die neuen Karten auch in Spielen in der nahen Zukunft in ein hartes Limit laufen. Niemand der fast 2000€ für eine GPU ausgibt dreht gerne irgendwelche Regler zurück und schon gar nicht solche, die einen großen Einfluss auf die Darstellung haben. Also ist man gezwungen zeitnah wieder das neueste Modell kaufen, welches garantiert über mehr VRAM verfügen wird, und garantiert auch preislich auf die nächste Stufe klettern wird.
Das absurdeste an der ganzen Situation ist sowieso dass Nvidia versucht RTX an den Mann zu bringen, ein Feature, dass jetzt schon zeigt wohin die Reise beim Grafikspeicher gehen wird, aber zugleich ihre dafür extra beworbenen Karten beschneidet....


Zusammengefasst wird also die nächste GPU Generation im Hinblick auf Zukunftssicherheit (2-4 Jahre sollten ja wohl drin sein für 2000€) extrem unattraktiv werden, sollte die Speicherbestückung wie im Leak beschrieben kommen.

Und die Entscheidung dazu wurde aus Kalkül und Gier getroffen. Bei den aktuellen Nvidia Umsatzzahlen sieht man ja sehr schön, dass sie nix verschenken. 3 Mrd Umsatz davon 900 Mio Gewinn.
 
  • Gefällt mir
Reaktionen: miro98, eXe777, Qualla und 6 andere
Zurück
Oben