News Nvidia Turing: GeForce RTX 2060 mit 1.920 Shadern und 6 GB Speicher

@xexex
Ich könnte dazu jetzt einiges schreiben, heute aber keine Lust mehr.
Aber so viel:
AMD verbaut selbst im Mid-Range schon 8 GB und nächstes Jahr kommt Navi.
Da hast du schon deine Veränderung bei VRAM.
Und ob du es glaubst oder nicht, was du sonst geschrieben hast wird auch eintreffen.
Als ob das jetzt eine Verschwörungstheorie wäre das die Next-Gen deutlich mehr Speicher hat, auch bei Sony.
Ja die Verkaufszahlen bei Nvidia sind gut, aber drei mal darfst raten warum.
Jeden den ich kenne die die von dir genannten Karten hatte, hat relativ schnell wieder ein Upgrade gekauft. Wenn die Karten so toll sind, warum nur!? Ach -> ist ja nur die Mittelklasse bei Nvidia, die fängt demnächst nur dummerweise bei 400€ an. Wir werden sehen.
 
navi. schrieb:
AMD verbaut selbst im Mid-Range schon 8 GB und nächstes Jahr kommt Navi.

AMD kann derzeit in Low Range 16GB verbauen, das ändert aber nichts daran, dass AMD so gut wie keine Bedeutung am Gesamtmarkt hat.
1544659459139.png


Selbst wenn Navi ein Verkaufsschlager werden sollte, woran vermutlich nicht mal die größten AMD Fans glauben, wird sich deshalb in 1-2 Jahren an diesem Wert gar nichts ändern, allen voran weil man Navi vermutlich erst in einem Jahr überhaupt zu kaufen bekommt.

Der treibende Faktor sind aber noch immer die Konsolen und hier können die Entwickler eben auf keine 8GB zurückgreifen. Was übrig bleibt sind spezielle PC Versionen mit High-Res Texturen, von denen es zwar einige gibt, die aber noch lange nicht Standard sind.

Zu behaupten 6GB VRAM sind in 1-2 Jahren zu wenig ist also Schwachsinn. Sie waren schon vor zwei Jahren zu wenig wenn man bei einigen Spielen High-Res Texturen aktiviert hat, die für Oberklassekarten gedacht sind. An diesem Stand wird sich in den kommenden Jahren wenig ändern, nur das macht 6GB nicht für die Masse "zu wenig". Wer alle Regler "nach rechts" drehen will, ist bei solchen Karten schlichtweg falsch.
 
  • Gefällt mir
Reaktionen: Xidus und kisser
xexex schrieb:
Der treibende Faktor sind aber noch immer die Konsolen

Danke das du vorweg nimmst, was ich dir jetzt eh geantwortet hätte. Wenn du dir diesen Satz nochmal durch den Kopf gehen lässt und dann deine tolle Statistik nochmal anschaust und was du sonst dazu geschrieben hast, geht dir vielleicht ein Licht auf. Es ist genau andersrum wie du das behauptest. Nvidia könnte auch 30 GB raus bringen, wäre egal. Denn die Musik spielt bei Sony und Microsoft und die werden wohl wieder auf AMD setzen mit wohl deutlich mehr als 8 GB VRAM. Und anscheinend bist du auch Hellseher, denn woher willst du jetzt schon die Marktanteile von Navi nächstes Jahr wissen? Was hat der aktuelle Marktanteil mit den nächsten 1-2 Jahren zu tun? Merkst du eigentlich, wie krum du argumentierst? In diesem Zeitraum wird genau das eintreten, was ich und andere hier gesagt haben. Das ändert auch nix daran, wenn du den jetzigen Marktanteil von Nvidia nennst, den kenne ich nämlich auch. Der VRAM Verbrauch wird trotzdem steigen, nicht sinken. Ist nun mal so.

xexex schrieb:
Zu behaupten 6GB VRAM sind in 1-2 Jahren zu wenig ist also Schwachsinn.

Ich werde dich in 2 Jahren zitieren. :)
Übrigens, ich habe diesbezüglich eigentlich bisher immer Recht gehabt.
Bei CPU Cores war und ist es ja auch immer die selbe Diskussion.
Mich wundert ja immer noch, dass die Intel Fans dann doch mal mehr Cores gekauft haben, waren die doch immer so unnötig und braucht angeblich kein Mensch.
Selbst Nvidia hat bei den Top-Modellen schon 12 GB VRAM. Jetzt. Nicht in 2 Jahren.
 
navi. schrieb:
Denn die Musik spielt bei Sony und Microsoft und die werden wohl wieder auf AMD setzen mit wohl deutlich mehr als 8 GB VRAM. Und anscheinend bist du auch Hellseher, denn woher willst du jetzt schon die Marktanteile von Navi nächstes Jahr wissen? Was hat der aktuelle Marktanteil mit den nächsten 1-2 Jahren zu tun?

Du behauptest 6GB VRAM wären in 1-2 Jahren zu wenig. Ich behaupte es ist Bullshit weil in 1-2 Jahren weder neue Konsolen eine weite Verbreitung finden werden, noch Navi relevante Marktanteile erobern wird. Die Spiele werden teils Jahre im Voraus für bestimmte Zielplattformen hergestellt und da wird in zwei Jahren die Welt noch genauso aussehen, wie sie jetzt aussieht.

Sollten in 1-2 Jahren wirklich Konsolen mit 12GB oder 16GB Grafikspeicher auf den Markt kommen (was ich für unwahrscheinlich halte) und sollte Navi relevante Marktanteile erobern (was ich noch unwahrscheinlicher halte), wird es bestenfalls in 3-4 Jahren Auswirkungen auf den Markt haben und selbst dann wird man nicht 70-80% des Marktes außer acht lassen, weil AMD ein paar Mittelklassegrafikkarten auf den Markt hat die etwas mehr Speicher haben.

Als "Hellseher" betätigst du dich die ganze Zeit, ich sehe die Sache recht pragmatisch und schaue mir die Fakten an. Selbst eine Xbox One X hat für Grafikdaten derzeit maximal 9GB zur Verfügung, in Anbetracht des Preises der für eine Konsole schon recht hoch angesetzt ist und der Preisentwicklung beim Speicher, ist deine Behauptung die nächsten Konsolen würden mit "signifikant" mehr Speicher auf den Markt kommen schlichtweg lächerlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ITMaster und USB-Kabeljau
xexex schrieb:
...Bedeutung am Gesamtmarkt hat.
[IMG]https://www.computerbase.de/forum/attachments/1544659459139-png.733406/[/IMG]

Die Grafik zeigt aber nicht den Grafikkartenmarkt sondern höchstens - wenn die Zahlen stimmen (Quelle?) - mit welchen Karten die Leute spielen ö.ä.
Sonst hätte vor Allem Intel mit ihern iGpus in fast jedem verkauften Prozessor einen deutlich höheren Anteil (und AMD schätze ich auch; sorry, ist mir jetzt zu spät zum googeln)
 
dalaidrama schrieb:
Die Grafik zeigt aber nicht den Grafikkartenmarkt sondern höchstens - wenn die Zahlen stimmen (Quelle?) - mit welchen Karten die Leute spielen ö.ä.

Die Quelle ist natürlich Steam.
https://store.steampowered.com/hwsurvey

Intels iGPUs haben zwar eine breite Verwendung in Büro-PCs, deren Verwendbarkeit zum Spielen ist jedoch derzeit eher dürftig. Intel hatte früher durchaus einen wesentlich höheren Marktanteil, da man den GPU Teil der CPUs aber jahrelang nicht weiter aufgebohrt hat, ist dieser stark gesunken.
 
Zuletzt bearbeitet:
Lisa-Simpson schrieb:
Die RTX Leistung wird nicht nochmal unterhalb der RTX 2070 liegen und damit ziemlich uninteressant.
Du hast da einen Logikfehler drin.
Eine 2060 mit der RT-Leistung einer 2070 wäre höchst interessant. ;)
 
Tiu schrieb:
Somit ist jede Grafikkarte die kein RTX beherrscht schon nicht mehr zukunftsfähig. Egal wie sie heißt.

Nee klar, weil man ja nVidias momentan noch relativ popelig ausgereiztes/in BF V bewusst herunter geschraubtes (um eine RTX 2070 damit einigermassen fluessig in Full HD laufen lassen zu koennen) RT-Raytracing auch unbedingt braucht (jetzt und in der Zukunft), um Spielspass zu haben, oder was :rolleyes:?

Wenn der Speicher gar nicht mehr reicht, dann ist wirklich Ende im Gelaende, RT-Raytracing braucht man nicht notwendiger Weise zum spielen, sondern es ist bisher nur ein Grafikeffekt-Gimmick fuer gerade einmal ein Spiel (BF V) und zukuenftig vielleicht ein weiteres atmosphaerisches Grafikeffekt-Feature, mehr aber auch nicht.

Wer kauft denn wissend so eine 6 GB arme "Bauerfaenger" RTX 2060 Grafikkarte in 2019, wenn man mit der (vermutlich dann unwesentlich teureren) GTX 1070Ti, ganz zu schweigen von einer guenstigeren RX Vega 56, (da beide mit 8GB kommen) was die Langlebigkeit angeht die vermutlich deutlich besseren Karten bekommt?

Wer auf AMDs/RTGs nahende in 7nm gefertigten Navi (10) Mittelklasse-GPU (ob nun als RX 3070 oder RX 3080) etwas spaeter in 2019 warten kann und nicht nVidia-markengeblendet ist, hat eindeutig einen Vorteil, und dann kraeht vermutlich kein Hahn mehr nach einer von vornherein unterdimensionierten/RT-Raytracing-beschnittenen RTX 2060.

Die RTX 2060 Karte ist mit Erscheinen in 2019 schon speichermengentechnisch veraltet und nur eines, preis-leistungstechnisch ein totaler Reinfall (genauso wie die vorherige "Bauernfaenger" GTX 1060 mit 3 GB zum Marktstart), auf den aber leider - wie der Name schon andeutet - wieder einige hereinfallen werden.

Naja, notfalls wird nVidia - wenn der Absatz wie bei den anderen Turing Modellen aehnlich wenig rosig verlaufen wird - die Chips als Mobilvarianten in diversen Notebooks verkloppen, los werden sie die Chips allemal.

Und von der Compute-Leistung der beschnittenen nVidia-CPUs brauchen wir auch nicht zu reden (nicht jeder spielt nur mit der Grafikkarte), wenn Du Dich schon anschickst wegen des Verbrauchs trollen zu wollen (da Du wahrscheinlich zu den GPU-Kaeufern gehoerst, die beim Kauf hauptsaechlich Strom sparen wollen oder Dir nur alles gerne passend/"schoen" schreibst) und Undervolting wohl an Dir vorbei gegangen sein duerfte.

Natuerlich hat sich AMD/RTG im GPU-Bereich nicht unbedingt mit Ruhm bekleckert in den letzten Jahren, aber nVidia in Sachen Kundenpolitik und Preisgestaltung noch deutlich weniger und die RTX 2060 wird mit Sicherheit kein lohnendes Modell werden (aber wie schon zuvor trefend erwaehnt, werden evt. lupenreine/beinharte nVidia-Fans mit begrenztem Budget wohl unterhalb von 400 Euro evt. keine andere Wahl als die RTX 2060 haben, um Ihr Geld bei nVidia in 2019 anzulegen :p).
Ergänzung ()

pietcux schrieb:
... hat ein Kollege die GTX 1060 Gaming X angeschleppt. Die hab ich zum Testen behalten und dann übernommen. Die war dann wieder fast lautlos und den RX Karten ebenbürtig bezüglich der Spiele Leistung.

Wovon traeumst Du nachts (?), eine GTX 1060 Mittelklasse-GPU ebenbuertig irgendeiner RX Vega GPU (der (unteren) Oberklasse), da liegen Welten dazwischen (selbst eine GTX 1070 - die leistungstechnisch leicht schwaecher als eine RX Vega 56 ist - ist um Welten jeder GTX 1060 ueberlegen, die gerade noch eben so WQHD in einigen Spielen packt, aber mit Sicherheit nicht auf dem (teilweise fluessigen) Level der o.g. hoeher-klassigen Oberklasse-Karten.

Die nVidia Maerchenstunde ist damit dann wohl endgueltig eroeffnet, wie es scheint :lol: ...
 
Zuletzt bearbeitet:
Die 290X war ein Eigendesign von Sapphire, aber das kann ich wohl noch 3 mal schreiben. Das war von Amd nicht so geplant sieht man auch daran das keine weiterer Partner sowas anbietet.

Die von dir genannten 600er und 700er Serie hatten wenig Ram, aber genug für die damalige Zeit. Die Karten sind mittlerweile Uralt und selbst mir doppelten Speicher nutzlos. Aber redet euch nur eine eure Amd Karten sind zukunftsfähig.

Un deinen Gamestar Test nehme ich eh nicht erst. im PCGH Leistungsindex ist die 980 mit 1,17 GHz 2% hinter der RX580 die schon max OC ist. Mit realistischen 1,5 Ghz auf der 980 sieht die tolle Mittelklasse von AMD kein Land.

Mordors Schatten ist 4 Jahre alt und damals gab es keine einzige Karte die mehr als 6GB hatte. Und für Star Citizen so eine Karte zu nutzen halte ich für sehr gewagt.

In der Preisklasse machen 8 GB einfach keinen Unterschied und selbst wenn Reden wir hier von 3 oder 5 FPS mehr.

Am Ende wird sich die 2060 sowieso mehr verkaufen als alle Vegas zusammen. AMD/ATI hat seinen guten Ruf in den letzten Jahren einfach kaputt gemacht. Wo die 5870 oder 7970 noch Maßstäbe gesetzt haben, glänzen Sie heute nur noch mit Brechstangen Design. Eure tolle Vega 64 verballert mehr Strom als meine fast doppelt so schnelle 2080Ti.

AMDs Grafikabteilung ist doch einfach nur noch ein Witz. Und dann feiern die Leute ein RX 590. Ein technisch 2,5 Jahre altes Design mit 250 Mhz mehr Takt. In der Zeit hat Nvidia 2 Generation gebracht.
 
USB-Kabeljau schrieb:
Erklär doch bitte mal, wie du zu deiner Meinung kommst, daß eine RTX 2060 unter ihren 6GB ganz fürchterlich leiden wird. Nenne doch mal ein paar Beispiele, die den kolportierten VRAM-Hunger aktueller Spiele darstellen.
https://www.computerbase.de/2018-10...seite_fuer__meist__durchschnittliche_texturen

Call of Duty: Black Ops 4 hat immer noch einen ordentlichen Grafikspeicherverbrauch. Allerdings ist er nicht mehr ganz so hoch wie im Vorgänger COD: WWII. Eine Grafikkarte mit acht Gigabyte reicht auch für die maximale Detailstufe in 3.840 × 2.160. Hat die Grafikkarte 6 GB, ist das für zum Beispiel Full HD immer noch ausreichend.
Eine RTX2060 für ~350€ (meine Preisschätzung) hat dann für FullHD genugend VRAM. Wow.

Auch weiß ich nicht was ihr immer mit euren tollen Steam Statistiken wollt. Auf diesem Planten spielen mehr Leute auf GPU Chips von AMD als auf Nvidia Chips. (Und wahrscheinlich spielen am allermeisten auf Chips von Apple...nein, keine Ahnung.)
 
RichieMc85 schrieb:
Mit realistischen 1,5 Ghz auf der 980 sieht die tolle Mittelklasse von AMD kein Land.

Aber die tolle Mittelklasse von nvidia ist natürlich schneller oder wie? Wenn für dich Mittelklasse-GPUs überflüssig sind, fein. Dann brauchst du aber auch keine 2060 in Schutz zu nehmen, die doch gegen die 2,5 Jahre alte 1080 kein Land sehen wird

RichieMc85 schrieb:
Am Ende wird sich die 2060 sowieso mehr verkaufen als alle Vegas zusammen.

Vermutlich sogar, wenn diese langsamer als eine Vega56 ist, zum gleichen Preis und 2 GB VRam weniger hat. Aber dann ist natürlich alles über 50 W weniger Verbrauch gerechtfertigt ;)
 
@Begu

Ok. In einem Spiel, das wie im verlinkten Test beschrieben, ohnehin hässliche Texturen verwendet, die vermutlich (wie bei Bethesda) für die höchsten Einstellungen einfach hoch skaliert werden, und dementsprechend nur mehr Platz brauchen, jedoch nicht besser aussehen, reichen 6GB mit Max Settings also nur für FullHD.

Na wenn das mal kein Grund für mehr VRAM ist, weiß ich auch nicht.



Außerdem beantwortet das meine Frage irgendwie nicht.
Es wäre sinnvoll, sich mal einen breit gefächerten Überblick zu verschaffen.
Wenn die meisten Grafikperlen (zu denen CoD ohnehin nicht zählt) mit weniger RAM auskommen, werden Spiele wie CoD eher zu mies optimierten Ausreißern, statt zu Vorzeige-Objekten, wohin die Reise geht.

Davon abgesehen, wiederhole ich mich:
4K und HiRes-Texturen haben ein Mehr an VRAM nötig gemacht.
Viel höher als aktuell müssen Texturen aber gar nicht aufgelöst werden, um gut auszusehen. Und 4K wird auch erstmal einige Jahre der HighEnd-Standard bleiben.
Es ist also nicht davon auszugehen, daß der VRAM-Hunger in den kommenden Jahren so stark zunehmen wird wie in den letzten 5.
 
navi. schrieb:
@pietcux
Also ich will hier jetzt nicht despektierlich werden, allerdings argumentierst du hier mit Lautstärke und bei AMD gibt es sehr wohl auch leise Karten. In meinem Bekanntenkreis beschwert sich da keiner, die haben aber auch keine MSI oder die auch nicht gelungene Asus im Rechner stecken. Es dürfte hinreichend bekannt sein, dass Sapphire die mit Abstand besten AMD Karten hat.
Das dir der VRAM bei deiner Nvidia reicht hast du sicher auch mit Afterburner getestet und besitzt alle Games wo das potentiell am Limit ist, stimmts? Genau genommen gibst du hier nur deinen subjektiven Eindruck wider. 6 GB sind in 1-2 Jahren schon schwierig, aber da kaufst du dir sicher wieder eine neue Nvidia, weil du ja so zufrieden bist... oder ne, du hast ja schon die große Variante xD
Und warum die Nvidia weniger Strom verbraucht, ist auch hinreichend bekannt. Das hat technische Gründe. Zugegeben, wenn man wirklich nur Gaming macht ist man diesbezüglich bei Nvidia besser aufgehoben, da will ich nix gesagt haben. Nur hat AMD nicht das Geld parallel zu entwickeln und viele Serien sind eben auch die Computing Karten, sprich eigentlich gar nicht so gut für Gaming.
Wenn du dir eine 2080 leisten kannst, wundert mich ehrlich gesagt eher warum du dann kein Budget für G-Sync aufwendest, oder hat das dann nicht mehr gereicht!?
Nvidia will vor allem dein Geld, AMD natürlich auch. Können tun die viel, vor allem Features verkaufen. Die Kundschaft zieht da wie man an deinem Kommentar sieht auch sehr gut mit.
Ich schreibe hier meine Meinung und meine Erfahrung. Mir ist es übrigens egal was Nvidia AMD oder Intel will. Mir ist ausschließlich wichtig was ich will. Wenn Nvidia mir das liefert, dann kaufe ich das Produkt. Hab den Vega Launch sehr genau verfolgt. War nach meiner Meinung nicht sonderlich gelungen, kann aber ja in Zukunft gerne gefixt werden. Dann sicher auch mit ARX (AMD Raytracing Extension). Wenn 3Dfx kaufmännisch besser aufgestellt gewesen wäre, oder Matrox in diese Richtung entwickelt hätte, wäre es mir auch recht. Momentan gibt es halt nur AMD und Nvidia zur Auswahl. Und die Bosse sind auch noch nahe Verwandte, LOL. Da kaufe ich was mir paßt, da mußt du nicht despektierlich werden, wo du es doch eigentlich auch gar nicht willst. Alles gut hier.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
USB-Kabeljau schrieb:
Na wenn das mal kein Grund für mehr VRAM ist, weiß ich auch nicht.
glückwunsch. Erst willst du beispiele, dann liefert man beispiele und dann doch unzufrieden. Aber egal, war abzusehen.

USB-Kabeljau schrieb:
Und 4K wird auch erstmal einige Jahre der HighEnd-Standard bleiben.
Nachdem 4k TV mittlerweile der Standard sind und keine Randerscheinung mehr, wird der Anteil an 4K Anzeigegeräten in den nächsten Jahren massiv ansteigen. Was könnte nur die Folge sein?! Als Tipp für zwischendurch: Es soll das ein oder andere Spiele geben, das für Konsole entwickelt und auf den PC nur portiert wurde.

Meine Glaskugel sagt, eine Folge wird sein, dass Raytracing lange noch eine Randerscheinung bleibt oder sogar wieder komplett verschwindet. Erst wenn man auf Konsolen in 4K mit überschaubarem Aufwand (Kosten/Chipgröße) Raytracing flüssig darstellen kann, dann hat es die Chance sich durchzusetzen. Bis wir da sind, haben sich aber schon die 8K TV zum Standard entwickelt. Oh wait
 
  • Gefällt mir
Reaktionen: navi.
Keine Ahnung, was Raytracing damit jetzt zu tun hat.

Und ich finde es nach wie vor sehr komisch, wenn man auf Basis eines optisch mäßigen CoD mit Gammeltexturen den VRAM-Hunger aktueller und kommender Games bewerten möchte.

Zumal hier gesagt wurde, daß 6GB für FullHD auf Max Settings reichen.
Ob man mit einer GTX 2060 höhere Settings überhaupt fahren kann, hast du hier noch gar nicht belegt.
Ist also ein weiteres Beispiel aus der Kategorie "doch kein Beispiel".
 
man man man USB-Kabeljau. Sieh es doch einfach mal ein, dass es genügend Leute gibt, für die eine 2060 eine Enttäuschung wird und dass diese gegen Dein so heiß geliebtes nvidia reden werden.

Und wenn Du der Meinung bist, dass 6 GB immer reichen werden, dann behalte Deine Meinung doch einfach mal für Dich, überzeugen wirst Du mich jedenfalls nicht, der bestimmte Spiele nicht mehr starten kann, nur weil der VRAM zu klein ist. Wenn eine GraKa nun mal länger genutzt wird, wird es immer Spiele geben, die man leistungstechnisch mit heruntergeregelten Details spielen könnte, wenn es mit dem wenigen Speicher überhaupt starten würde.

Da Du das anscheinend aber nicht einsehen willst, verschone doch einfach mal alle anderen. Oder schreib wenigstens, dass Du auch einer der bezahlten nvidia-Forenhyper bist, denn anders ist das langsam nicht mehr erklärbar..
 
  • Gefällt mir
Reaktionen: navi.
xexex schrieb:
Als "Hellseher" betätigst du dich die ganze Zeit, ich sehe die Sache recht pragmatisch und schaue mir die Fakten an.

Komisch, du bestreitest etwas für das es Fakten gibt. Wer ist hier Hellseher? Und nach was urteilst du eigentlich? Nach deinem Gefühl oder verletzter Fanboy-Seele!? Wie kommst du darauf dass in 2 Jahren 6 GB VRAM garantiert reichen!? Wer hat dir das gesagt?
Ich versteh nach wie vor nicht was du hier eigentlich bezweckst, das ist wie gesagt das gleiche wie mit der CPU Core Diskussion, etc... es gibt leider immer ewig gestrige die nichts mit Fortschritt anfangen können und das alles abstreiten oder sogar verleumden als sei es Blödsinn.
 
Wieso darf man hier nicht einfach mal über die RTX 2060 reden? Einfach mal entspannt und freundlich über deren Features und Vorteile. Ist nämlich ein Thread zu dieser Karte mit höchstwahrscheinlich genau der Menge RAM, die sie braucht. Nochmal RTX 2060. Die wichtigste Turing Karte für die Kunden. Und höchstwahrscheinlich auch die meistverkaufte. Der PCGH thread zu dem Thema ist schon total am Ende, hier ist es auch bald soweit. Bravo an alle Beteiligten macht nur weiter so. Da kann man sich das Forum auch gleich komplett schenken.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
navi. schrieb:
Komisch, du bestreitest etwas für das es Fakten gibt

Für was gibt es denn Fakten? Welche Fakten hast du genannt um deine Behauptung in 1-2 Jahren seien 6GB VRAM plötzlich zu wenig zu untermauern?

Ich höre nur, wenn Navi kommt, wenn die neuen Konsolen, wenn AMD..... Wenn, vielleicht und möglichwerweise sind keine Fakten sondern bestenfalls Wunschdenken.
 
  • Gefällt mir
Reaktionen: Xidus, kisser und USB-Kabeljau
Zurück
Oben