Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

t3chn0 schrieb:
Hier steht auf einmal, dass BigNavi vermutlich nur mit der 3070 konkurrieren kann, ich bin gespannt.

https://www.pcgameshardware.de/AMD-...Big-Navi-Konkurenz-RTX-3070-275-Watt-1357576/
Als Historiker bin ich ja immer ein sehr großer Fan davon mal die Quelle reinzuschauen und sich selbst ein Blid zu machen:daumen:
PCGH scheint da etwas selektiv bei der Informationsaufnahme zu sein ;)
Quelle hier im Video ab Minute 13 ca: https://www.igorslab.de/wird-die-ge...enze-anzahl-der-founders-edition-spurensuche/
Ist sicher nicht ohne Grund mit viel Spekulatius gekennzeichnet.
 
pietcux schrieb:
Wo genau stellst du denn 72 FPS ein, im Spiel oder im Treiber
Wenn es das Spiel anbietet, im Spiel, ansonsten noch per Treiber. ;)

KlaraElfer schrieb:
Dann kann ich auch sofort hergehen und nichts mehr testen, das kommt dann auf das gleiche heraus.
Wolltest du mich nicht ignorieren, wäre in dem Fall für mich jetzt die bessere Entscheidung gewesen, dann müsste ich nämlich jetzt nicht schreiben, dass du meinen Beitrag sehr genau lesen solltest, bevor du meinst mich zu belehren. …

KlaraElfer schrieb:
Wenn das so sein sollte, müsste es einen relevanten Einfluss anderer Komponenten wie die CPU mit dem spezifizierten RAM auf die FPS Leistung geben - was in x Tests schon widerlegt wurde.
Hier versuchst du meine Aussage ins Lächerliche zuziehen, vergisst dabei aber wesentliche Bestandteile, die ich erwähnt habe.

Ich sprach von der (1.) CPU, der (2.) Infrastruktur der Hardware - dazu gehört der RAM*, (3.) die Infrastruktur der Software - dazu gehört das Betriebssystem, dessen Version, Treiber, dessen Version sowie die verwendeten APIs und (4.) das Spiel.

* Selbst das Mainboard kann hier einen Einfluss haben, wenn die CPU - wie bei Intel - mehr Freiheiten bei der Stromaufnahme gegeben wird. Beim RAM können neben Takt auch die Timings mitspielen, die ggf. auch durch das Board limitiert werden, weil die Stromversorgung nicht optimal ist oder die Topologie mit spielt.

Und natürlich gibt es bei allen da mal mehr oder mal weniger wichtige Komponenten, die das Ergebnis beeinflussen können. Testet man ein Spiel bei 720p im CPU-Limit, ist das nun mal eben kein reiner Test des Spieles, sondern ein Test mehrere Faktoren auf der Hardware und all diese Faktoren spielen damit rein.

Betriebssystem, Treiber, APIs als auch die Architektur des Spieles haben hier oft genau so einen Einfluss auf die Ergebnisse wie die verwendete CPU oder der RAM.

KlaraElfer schrieb:
Deine Argumentation ist diesem Punkt total anti wissenschaftlich, das kann ich im Kontrast zu deinen sonstigen Posts nicht verstehen. .Sentinel. liegt also komplett richtig.
Du hältst sie nur für anti-wissenschaftlich, weil du hier selektiv liest und wichtige Aussagen vermischt und du selbst vermutlich nicht mal im Ansatz verstehst, was wirklich wissenschaftliches Arbeiten bedeutet.

Ich habe hier vereinfacht dargelegt, was mit 720p Tests alles zur gleichen Zeit getestet wird und über was man alles gleichzeitig eine Aussage treffen kann. CPU, Infrastruktur und die Software selbst.

Darauf aufbauend habe ich das generelle Problem mit den 720p Tests genannt: Man wirft dann die Tests zusammen und versucht dann ein generelles Fazit für die Zukunft zu ziehen. Und letzteres wird genau hier immer wieder von vielen Mitgliedern gemacht - nicht von der Redaktion.

Und genau hier liegt dann das Problem: Unwissenschaftlich ist es aus Tests mit Grafikkarte X, Software Y, RAM Z sowie CPU A eine Aussage für eine mögliche Konfiguration in der Zukunft mit Grafikkarte X2, Software Y.2 RAM ZZ sowie CPU A zu treffen, denn wenn Grafikkarte X2 auf den Markt kommt, hat sich bei der Software einiges ändern können, was dann Probleme beseitigt, die zum Zeitpunkt des Tests der 1. Konfiguration zu einem schlechteren Ergebnis geführt hat.

Tests sind immer Momentaufnahmen und hier gibt es sehr viele Variablen, die das Resultat beeinflussen.

Aus den meisten 720P Tests kann man zum Zeitpunkt, wenn dieses Tests durchgeführt werden nur eine Aussage zuverlässig treffen: Spiel X in Version Y zum Zeitpunkt N läuft mit der CPU A, mit RAM B mit dem OS C in Version Y zum Zeitpunkt N, mit Treiber D in Version Y zum Zeitpunkt N und der API-Bibliothek in Revision Y zum Zeitpunkt N gut, eher so naja oder schlecht.

Man kann also vereinfacht sagen: Ich kann mit einem 720p testen, ob einer CPU die Engine/das Spiel liegt oder eben ob das Spiel die Ressourcen der CPU nutzt oder nicht.

Alles Weitere, was dann folgt, ist eine Interpretation der Aussagen und eine darauf aufbauend Hypothese, die in der Regel - was dann UNWISSENSCHAFTLICH IST - wichtige Faktoren ausblendet, die ggf. zu dem Zeitpunkt ein gutes oder schlechtes Ergebniss bedingt haben. … Denn es reicht schon, wenn im Spiel X die Algorithemn eventuell angepasst werden und die Version Z plötzlich wesentlich besser auf der CPU A läuft.

Oder um es klar zu stellen: Wer aus dem 720p Test - wie hier oft von einigen Pappenheimer gerne gemacht wird - eine generelle Aussage für die Zukunft trifft und denkt, dass diese Aussage absolut ist, wie es auch hier all zu oft vorkommt, handelt genau nicht wissenschaftlich!

KlaraElfer schrieb:
Also bevor du mich und andere belehrst, sollte man schon in der Lage sein ganz einfache Benchmark-Basics zu verstehen, das ist nämlich alles andere als kompliziert.
Bevor du meinst mich hier versuchen vorführen zu müssen, würde ich dir empfehlen an deinen Wissen sowie Grundlagenwissen zu arbeiten, wobei, du hast ja schon angedeutet, dass du das ja nicht machst, weil du ja keine Zeit hast, was man an den meisten Beiträgen von dir merkt.

Und damit landest du nun auf meiner Ignore.
 
Zuletzt bearbeitet von einem Moderator:
t3chn0 schrieb:
Hier steht auf einmal, dass BigNavi vermutlich nur mit der 3070 konkurrieren kann, ich bin gespannt.

Naja, hier wird auch nur der Spekulatius einer dritten (zugegebenermaßen sehr gut vernetzten) Person wiedergekäut.

Zu den Börsenkursen: der gesamte Nasdaq 100 Index ist abgerutscht - der Börsenwert von Apple bspw. ist um 350 Milliarden Dollar gesunken innerhalb weniger Tage.
Aktienkurse sind selten unkorreliert, da hätte Nvidia auch 2080ti Performance mal 3 bei 200 Watt vorstellen können, die Kurse wären wahrscheinlich trotzdem runter gegangen.
 
  • Gefällt mir
Reaktionen: Teralios
Kopite7kimi und Igor beschreiben es doch ähnlich, und die Leaks von Kopite7kimi haben bisher gestimmt.
Big Navi ist stärker als GA 104, aber schwächer als GA 102.
Zwischen den beiden Chips ist von der Leistung her auch viel Platz.

Für mich ist da eher die 3060 interessant, die ja auch angeblich den GA 104 nutzen soll.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo und Teralios
Kacha schrieb:
Und ganz ehrlich, dafuer, dass Teams auf der letzten Gurke laeuft und Nvidias Loesung nicht, ist Nvidias Loesung ziemlich schwach.

Was ich nicht verstehe ist, warum man sich nicht freut, dass es endlich Lösungen gibt die wirklich solide funktionieren (wo auch sicher andere Hersteller nachziehen werden), anstatt es wieder vom Hersteller abhängig zu machen, ob es gefällt oder nicht.

Ich habe mir Teams und RTX ausführlich angesehen und wenn ich nebenbei eine Tüte zerknitter, hört sich die Stimme bei Teams erheblich dumpfer und hölzener an als mit RTX Voice.
Also insgesamt sind beide Lösungen vielversprechend, aber RTX Voice hat meiner Meinung nach besser abgeschnitten, aber zu behaupten RTX Voice sei schwach, obwohl es ja auch auf jeder Kartoffel Pascal GPU läuft, ist doch keine neutrale Bewertung, sondern eindeutig tendenziös.

Kacha schrieb:
Kann man so sehen, muss man aber nicht.

Für mich ist das kein Argument.

Kacha schrieb:
Bist du dir da sicher? Was erst einmal haengen bleibt ist der erste Eindruck und den wieder rauszubekommen dauert. Bis es zu einem Image- oder Glaubwuerdigkeitsschaden kommt muss einiges passieren. Zumal, was interessiert es wenn fuenf Hansel ihre Meinung aendern?

Glücklicherweise lässt sich anhand der bisherigen Benchmarks und Videobeiträge der bekannten Reviewer schon sicher sagen, dass deine Befürchtung, die Zahlen könnten völlig anders aussehen, ungerechtfertigt ist.
Es kommt in etwa hin +-5%, eher -.
Also auch hier bewertest du die Geschichte tendenziös.

Kacha schrieb:
Oder jetzt der Verbrauch ueber 300W, wen interessiert es gross? Das wurde bei AMD ueber Jahre angekreidet, jetzt ist es ok.

Es ist ja der große Chip, die lagen immer schon zwischen 250 und 300 Watt und relevant ist nicht die Höhe des Verbrauches, sondern stets folgende Punkte:

  • Kann es leise gekühlt werden
  • Steigt die Effizienz
  • Wie ist die Hitzeentwicklung
  • Gibt es Produkte vom Konkurrenten am Markt die effizienter sind womit sich Geld und Kühlaufwand (Material) einsparen lässt

GPUs können von mir aus auch 400 Watt Strom verballern. Solange die Effizienz steigt und das wird sie vor allem in RTRT workloads auch deutlich tun - sehe ich da kein Problem, schließlich kann man ja auch eine RTX 3070 kaufen, wenn einem der Strombedarf zu hoch ist.

AMD wurde kritisiert, weil deren Vega 64 300 Watt für eine Leistung zwischen GTX 1070 und 1080 zum Launch verballerte und dabei noch sehr laut war und auch nicht günstiger.

Kacha schrieb:
Intel mit Meltdown und Spectre, was war der grosse Schaden? Die "informierten" Gamer kaufen froehlich weiter weil Intel ist ja der beste in Spielen. Sicherheit? Was ist das.

Die Sicherheit hat sich ja für den Privatanwender gar nicht groß verändert, die Hauptprobleme sind nicht die schwer zu nutzenden Sicherheitslücken, sondern alltägliche Probleme wie Fishing Mails, Trojaner und Co, die durch unsachgemäßen Gebrauch entstehen.

Also an den goldenen Regeln sich ein backup anzulegen, Sicherheitsupdates zu installieren, Sicherheitsuiten zu aktivieren, sichere Passwörter zu verwenden, eingeschränkte Plugins und Scripte zu nutzen, usw.. usf.
Die reale Gefahr durch Intels Sicherheitslücken ist gegenüber Anfängerfehlern von Laien die es schaffen sich jedwede Schadsoftware auf den PC zu ziehen, extrem gering.

Und richtig, die Mist-Aktion mit der GTX 970 hatte kaum Auswirkungen, weil die Karte auch mit dem Makel wesentlich besser war als die Karten der Konkurrenz. Deal with it.
 
Zuletzt bearbeitet von einem Moderator:
matty2580 schrieb:
Kopite7kimi und Igor beschreiben es doch ähnlich, und die Leaks von Kopite7kimi haben bisher bestimmt.
Big Navi ist stärker als GA 104, aber schwächer als GA 102.

ga102 sind zwei SKU. 3080 ist also scho realistisch vor allem nach dem Tweet hier:
GA102 Kopite Tweet
 
  • Gefällt mir
Reaktionen: Teralios
Kopite7kimi schrieb:
Thanks, I'll try to describe it, GA104 cannot beat BIG NAVI.

Er hätte jetzt noch dazu schreiben können, but GA 102 can beat BIG NAVI.
Aber so weit wollte er sich nicht aus dem Fenster lehnen.
 
  • Gefällt mir
Reaktionen: Teralios
Wadenbeisser schrieb:
Nichts für ungut aber DX12 ist inzwischen 5 Jahre alt und erst jetzt wo nvidia darauf für die RTX Geschichte angewiesen ist kommt es so langsam in Schwung, davor scherte man sich recht wenig darum.

Du kannst eben schlecht über die bessere Lastverteilung des Nvidiatreibers sprechen, wenn das eigentliche Thema die CPU Performance ist. Das hat ja mit der absoluten CPU Leistung die AMD momentan noch fehlt nichts zu tun, denn eingesetzt wird da es ja sowieso, da es momentan nur die schnellere Nvidia GPU gibt, bzw in ein paar Tagen.

Wadenbeisser schrieb:
Des weiteren, wie kann ein Ryzen 9 3950X (schließt deine verallgemeinerte Aussage schließlich mit ein) ein Bottleneck wenn es 1. noch keine Tests zu der Karte gibt...

Wieso brauche ich einen Test zur Karte? Ich weiß ja schon heute wie die CPUs untereinander abschneiden.

Wadenbeisser schrieb:
Um es nochmal konkreter zu auszudrücken, es ist vollkommen egal ob ein Prozessor 6, 8, 10 oder 64 Kerne besitzut wenn das Spiel z.B. nur 4 davon nutzen kann.

Da bin ich ganz bei dir, deshalb ist der 3950x ja genauso ein Bottleneck mit der alten wie mit der neuen GPU. ;)
 
Zuletzt bearbeitet von einem Moderator:
xexex schrieb:
Mit solchen "Spielereien" wie du sie nennst, gewinnt man und hält man Kunden! Der eine braucht NVENC, der andere nutzt RTX Voice und der dritte nutzt die Broadcast App. Alle drei haben eines gemeinsam, wie lang der Balken am Ende bei den AMD Karten sein wird, interessiert sie nicht.

Wenn man meint man braucht es, ok. Fuer mich ist es alles andere als beeindruckend und unerheblich. Aber gut, Gamern kann man eh alles verkaufen.

Colindo schrieb:
Don't feed the troll.

Ah, wusste nicht, dass er ein Troll ist. Dachte er waere nur uninformiert wie andere.

t3chn0 schrieb:
Hier steht auf einmal, dass BigNavi vermutlich nur mit der 3070 konkurrieren kann, ich bin gespannt.

https://www.pcgameshardware.de/AMD-...Big-Navi-Konkurenz-RTX-3070-275-Watt-1357576/

Wie du schon anderweitig hingewiesen wurdest, aus Spekulation werden hier irgendwelche "Fakten" kreiert. Wenn selbst Igor meint, das ist Spekulation ohne Informationen von Quellen, dann ist es eben genau das.

KlaraElfer schrieb:
Ich habe mir Teams und RTX ausführlich angesehen
-Zitat gekürzt-
Wie es richtig geht, ist hier nachzulesen.

Der Unterschied ist, dass Teams auch auf Rechnern ohne diskrete Grafikkarte funktioniert. Bzw. hatten wir es hier nicht von Voice, es ging hier um die Erkennung des Menschen und dann ausblenden des Hintergrunds. Zumindest im Vergleich zu Teams. Und der Unterschied ist halt schlichtweg, selbst bei RTX Voice, dass es eine dedizierte Grafikkarte fuer ein paar Hundert braucht. Und gerade Voice wurde ja auch fuer den professionellen Markt angepriesen, deswegen auch der Vergleich mit Teams. Und das mehr an Qualitaet fuer den monetaeren Aufwand ist halt, naja, nicht ueberzeugend. Der Vergleich kam auch eher daher, dass es eben als heiliger Grahl angepriesen wurde, aber es genau fuer das Problem schon Loesungen gibt, die weitaus weniger Anforderungen haben. Das ist nicht wirklich abhaengig vom Hersteller, wobei, gerade bei Nvidias Loesung ist man sehr abhaengig vom Hersteller. ;)

KlaraElfer schrieb:
Für mich sind das kein Argument.

Ok. Fuer mich sind seine auch keine.

KlaraElfer schrieb:
Glücklicherweise lässt sich anhand der bisherigen Benchmarks und Videobeiträge der bekannten Reviewer schon sicher sagen, dass deine Befürchtung, die Zahlen könnten völlig anders aussehen, ungerechtfertigt ist.
Es kommt in etwa hin +-5%, eher -.
Also auch hier bewertest du die Geschichte tendenziös.

Es ging hier um moegliche Imageschaeden, falls das Produkt als zu hoch angepriesen wurde. Ich habe dagegen argumentiert, dass ein Ersteindruck nur schwer wieder herauszubekommen ist und man das durchaus riskieren kann.

Was du jetzt machst ist mich eigentlich bestaetigen. Der Ersteindruck ist bei dir angekommen, denn du beziehst dich sicher auf die "unabhaengigen Tests" von Digital Foundry, oder? Oder ist noch jemand bei der Nvidia Marketingkampagne dabei und durfte vor dem NDA etwas veroeffentlichen?

KlaraElfer schrieb:
AMD wurde kritisiert, weil deren Vega 64 300 Watt für eine Leistung zwischen GTX 1070 und 1080 zum Launch verballerte und dabei noch sehr laut war und auch nicht günstiger.
-Zitat gekürzt-
Wie es richtig geht, ist hier nachzulesen.

Gut, dass du die Karten vor Vega auslaesst, weil seit Generationen war AMDs Verbrauch immer zu hoch laut einiger. Da wurde Nvidia gross hochgehalten wie effizient die doch sind und wie wenig Strom die ja verbrauchen. Und jetzt gehen die hoch, da wird die Argumentation natuerlich umgedreht. Ironischerweise 1:1 die selbe Argumentation die bei Intel kam.

KlaraElfer schrieb:
Die Sicherheit hat sich ja für den Privatanwender gar nicht groß verändert, die Hauptprobleme sind nicht die schwer zu nutzenden Sicherheitslücken, sondern alltägliche Probleme wie Fishing Mails, Trojaner und Co, die durch unsachgemäßen Gebrauch entstehen.

Das war ein Beispiel um zu zeigen wie wenig so etwas am Image kratzt, wie du ja vortrefflich zeigst. Von dem her, danke fuer die Bestaetigung.

KlaraElfer schrieb:
Und richtig, die Mist-Aktion mit der GTX 970 hatte kaum Auswirkungen, weil die Karte auch mit dem Makel wesentlich besser war als die Karten der Konkurrenz. Deal with it.

Und nochmal, danke fuer die Bestaetigung wie wichtig der Ersteindruck ist und wie wenig es ausmacht wenn ein Unternehmen irgendetwas tut, was moeglicherweise das Image beschaedigen koennte.

Ich denke nicht, dass du mich so sehr bestaetigen wolltest, aber wirklich vielen Dank dafuer. Es zeigt wie einfach man von Marketing beeinflussbar ist und wenig solche Sachen eine Wirkung auf das Image der Firma haben. Von dem her, ja, Nvidia koennte alles moegliche behaupten, der Ersteindruck zaehlt gewaltig.

@matty2580 Kopite7kimi zwitschert aber auch, dass GA102 sich vorsehen muss: " And GA102 will also pay a huge price. Wait for November. " Nicht das auslassen was einem nicht gefaellt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Teralios
Ich lasse gar nichts aus.
Kopite7kimi geht gar nicht auf die 3080 ein, sondern vergleicht hier nur mit der 3090.

Unterm Strich hält er sich damit genau an die Spekulationen aus den Foren.
 
  • Gefällt mir
Reaktionen: Teralios
xexex schrieb:
Ich entscheide mich für ein gutes Produkt und wenn ich in zwei Wochen eines bekomme und ein anderer nichts von sich hören lässt, dann hat der andere halt Pech gehabt

Ja aber ohne echte unabhängige Tests würde ich es nicht kaufen deswegen abwarten und Tee trinken. Auch wegen der Preise die am Anfang mit Sicherheit übertrieben werden sein sollte man etwas warten.

Ich auf jeden Fall warte sowieso auf dass ganze Lineup, da bei mir als nächstes erstmal CPU und Board ansteht.

Weil ein alter i5 limitiert sowieso alles ab RTX3060
 
  • Gefällt mir
Reaktionen: Teralios
@matty2580
Häh? Die 3090 wird doch ebenfalls nicht erwähnt. Oder meinst du die 3070?
 
  • Gefällt mir
Reaktionen: Mcr-King und Teralios
Mcr-King schrieb:
Ja aber ohne echte unabhängige Tests würde ich es nicht kaufen deswegen abwarten und Tee trinken.

Die kommen ja am 14.09 aber was sollen sie mir sagen? Die Karte ist 30, 40, 50, 60% schneller als eine 2080Ti? Für 700€ nehme ist sie auch wenn sie nur 20% schneller ist und über die 3070 für 500€ brauchen wir gar nicht erst zu reden, selbst wenn sie die Leistung einer 2080Ti nicht immer erreichen kann.

Nvidia hat die meisten mit der Leistung und der Preisgestaltung positiv überrascht, in den ersten Monaten wird die Karte sowieso ausverkauft sein, wer lange warten möchte sollte sich drauf einstellen dieses Jahr keine Karte mehr abzubekommen.

Wir erinnern uns mal schnell an den Launch der 2080Ti und die Karte kam für 1260€ hierzulande auf den Markt.
https://www.pc-magazin.de/news/gefo...nicht-lieferbar-release-probleme-3199995.html
 
Zuletzt bearbeitet:
"huge price" bezieht sich bestimmt auf die 3090.
Warum soll er damit die 3080 gemeint haben, die alle als relativ günstig ansehen von der Leistung her.

Aber seine Einschätzungen sind schwammig, mit viel Spielraum nach Unten und Oben.
Igor lehnt sich da deutlich weiter aus dem Fenster.
 
  • Gefällt mir
Reaktionen: Teralios
Ratterkiste schrieb:
Häh? Die 3090 wird doch ebenfalls nicht erwähnt. Oder meinst du die 3070?
Wenn ich die jetzt gelesen habe, spricht er doch nur von Codenamen. Aus den Codenamen kann man dann auch nur heraus interpretieren.

GA104 ist der Chip bis einschließlich 3070. Durch die Aussage wissen wir also: Vollausbau Navi21 kann auf jeden Fall 3070 schlagen. Und ebenso sagt er, dass sich GA102 vorsehen muss, was man als: Navi21 liegt zwischen GA104 und GA102 udn dass auch eher Richtung GA102.

Daraus kann man jetzt schließen: Navi knackt die 3070 und 3080 ist ein realistisches Ziel.
 
" And GA102 will also pay a huge price. Wait for November. "

imho geht es hier nicht um den tatsächlichen Geld-Preis sondern, dass GA102 es auch schwer hat. 3080 ist realistisch und die 3090 ist schneller muss aber hohe TDP (350W) fahren. Aber wie gesagt ist natürlich Spekulation.
Noch haben wir weder mehr Infos zu Big Navi, noch haben wir Benchmarks zu den Ampere Karten
 
  • Gefällt mir
Reaktionen: voalirus, gr1nd und Teralios
matty2580 schrieb:
Igor lehnt sich da deutlich weiter aus dem Fenster.
Ich lehne mich jetzt mal richtig weit aus dem Fenster und verwurste die Tweets, was Igor schreibt als auch im Video brachte, und was mein Wissen über GA100 - CUDA-Spielreien mit einem Freund - sowie eben nun GA102/104 sowie meine Kenntnisse über GCN, RDNA und was da für ein paar nette Funktionen schlummern:

BigNavi wird die 3070 in den meisten Fällen im Griff haben, natürlich wird es einige Vorzeigespiele für die 3070 geben, bei der die 3070 mit BigNavi durchaus den Boden wischt. Es bleibt eben Tatsache, dass NVIDIA sehr viele Ressourcen aufwendet um Engines auf ihre GPUs zu optimieren.

BigNavi wird sich in ausgewählten Spielen mit der 3080 prügeln können, im Schnitt aber sich zwischen die 3070 und 3080 schieben, aber wieder bei Vorzeigespielen von Nvidia ordentlich abstinken. ;)
 
So würde ich das auch einschätzen.
Aber wir müssen uns halt bis November gedulden, was Kopite7kimi auch selbst schreibt.
 
  • Gefällt mir
Reaktionen: sifusanders
Zurück
Oben