News GPU-Gerüchte: RTX 4090 und RX 7900 sollen (fast) 100 TFLOPs erreichen

Wenns blöd läuft, dauert es eh wieder ewig, bis man sie zur UVP sieht. Die Hersteller können das besser einschätzen und werden dann sicher von vorneherein wieder die Preise anziehen, wenn sie damit rechnen.
 
  • Gefällt mir
Reaktionen: Firstdim
Endlich kommen CPU und GPU`s gleichzeitig raus. Dann wird komplett umgesattelt vom alten 9900K und 2080ti 😅
 
CPU kannste weiter nutzen weil 9900K@5Ghz mit DDR4-4000Mhz = 12900K ohne E-Cores mit DDR4-3200Mhz.
 
Die Leistung ist schon erstaunlich, aber muss da nicht langsam was passieren ?
Ich meine wo ist dann die 5090 bei 800 oder 1000W.

Das erinnert irgendwie an Pentium 4 Zeiten.
 
Hier was von PCGH, so als Ergänzung:

https://www.pcgameshardware.de/Gefo...RN_ui7_kFzdg6625fh_ZsId5oE#Echobox=1652266100

ChipSMGPCTPCShaderCacheSpeicherbusSpeicherTGP
AD102144127218.43296 MiB384 Bit24 GiB≤ 600 W
AD1038474810.75264 MiB256 Bit16 GiB~ 350 W
AD104605307.68048 MiB192 Bit12 GiB≤ 300 W
AD106363184.60832 MiB128 Bit8 GiB-
AD107243123.07232 MiB128 Bit8 GiB-

Da werde ich dann mal auch wieder zulangen. Da tut es denn der kastrierte AD103 und wenn TGP tatsächlich ,,nur" bei 350W sind, frisst mein Netzteil diese Karte vielleicht noch. Vorausgesetzt, die Karte lässt sich mit 2x8-Pin besaften, ggf. mit beiliegendem Adapter. Hoffentlich dann keine 1500€+ für die Karte, 800-1000€ wären schon teuer genug. Falls das Netzteil nicht reicht, sind da auch nochmal 100-150€ fällig und ich wäre drauf angewiesen, dass dieses auch den alten Standard für Stecker unterstützt. Denn die 1070 werde ich weiter als Notkarte behalten und und die 2080S verkaufen. Das ist dann die Subventionierung hinterher. Eigentlich bin ich bereits 640€ ,,im Plus", da nach RMA der 2080 820€ zurück und ,,nur" 1070 für 180 gekauft und 2080S gewonnen. Eventuell gar 2080S als Notkarte behalten und 1070 weg, mal gucken.

Bei GTA5 wird sie zwar dann Overkill, aber für die ganz harten Shader für Minecraft gäbe es dann schöne FPS-Steigerungen, denn was derzeit bei Seus HRR 3 und Konsorten rauskommt, ist doch dann dünn mit irgendwas um 30-40 auf der Oberwelt. Und 0,75% Auflösung rendern lassen ermöglicht mehr FPS, sieht aber schei*e aus. Da sieht die mittlere DLSS-Einstellung in Titanic - Honor & Glory besser aus (derzeit nur als Demo erhältlich, aber damit kann ich Raytracing und DLSS testen).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: calippo
Ich kann es doch auch nicht ändern. :rolleyes: Hätte ich auch gerne gehabt, wenn AD102 mit 250W auskommt und AD103 mit 220W. Bei ~313W im Test mit der 2080S ist das Netzteil nicht ausgestiegen.
 
Banger schrieb:
Vorausgesetzt, die Karte lässt sich mit 2x8-Pin besaften,
Also meine Ultimate ist für drei Stecker ausgelegt und kauft trotzdem mit zwei "(Y") und das beste...mit einem 600W NT, also es gibt Hoffnung für dich 😉
Wenn du deine beiden Karten gut verkaufst, dann kann es sein, dass deine künftige dich sehr wenig kosten wird.
Ergänzung ()

Ich betreibe meine Karte zwar mit 260W Powerlimit, aber auch mit 350W hat Time Spy bestanden.
 
Firstdim schrieb:
Also meine Ultimate ist für drei Stecker ausgelegt und kauft trotzdem mit zwei "(Y") und das beste...mit einem 600W NT, also es gibt Hoffnung für dich 😉

Diesen Y-Kabel-Quark will ich gar nicht verwenden, schon gar nicht die Molex-Adapter. Das Netzteil hat 2x8-Pin, die auch als 2x6-Pin nutzbar sind. Und damit müsste die Karte auskommen. Und falls die Karte den neuen Standard hat, bräuchte es einen Adapter von 2x8-Pin und den neuen Stecker da. Bei der Referenz von 3080 etc. gab es den Adapter ja auch. Reißen alle Stricke, wird dann das Netzteil gleich mitgekauft.

Firstdim schrieb:
Wenn du deine beiden Karten gut verkaufst, dann kann es sein, dass deine künftige dich sehr wenig kosten wird.

Eine behalte ich, für den Fall, falls mal was ist. Wo mir die 2080 hops ging, konnte ich leider nur auf eine 650TI zurückgreifen und die war schon knapp, die hatte ich besorgt, wo ich nur 1920x1080 hatte und noch nicht 2560x1440. 1070 kam erst später, weil ich mit ihr dann gleich das halbe Jahr bis Ampere warten wollte. Habe ich dann letztlich mit dem Gewinn der 2080S und mit dem Scalping auch übersprungen.

Firstdim schrieb:
Ich betreibe meine Karte zwar mit 260W Powerlimit, aber auch mit 350W hat Time Spy bestanden.

Ich habe mit Minecraft mit Shader getestet, da ging die Karte konstant auf 300W+ mit hochgedrehtem TDP-Limit, Timespy nicht. Für gewöhnlich lasse ich Standard 250W an.
 
Firstdim schrieb:
Also meine Ultimate ist für drei Stecker ausgelegt und kauft trotzdem mit zwei "(Y")
Bloß nicht, ich würde Y-Kabel vermeiden, da sind Probleme vorprogrammiert.
 
@PHuV ,
Die Karte hat alle mögliche 3D Mark tausendfach bestanden, tagelang als ich UV Optimierungen vornahm. Jetzt läuft sie mit 260W, aber auch mit 350W ging's ebenso und das mit 600W Netzteil.
Ja, es ist ein Y Kabel, aber es gibt einige User, die nur zwei Stecker zu Verfügung hatten. Es dient der Stabilität, wenn aber schon zwei Monate stabil läuft 🤷‍♂️
Nicht desto trotz, sobald in paar Monate die neue Netzteile auf'm Markt kommen, so kaufe mir einen gebrauchten 850W, die dann massenhaft einen neuen Besitzer suchen werden.
Die Karte habe ich entsprechend Empfehlungen in Forum angeschlossen, dh welche der beiden Kabels an stärkeren NT Anschluss.
Nebenbei, wie krank muss man sein, um über 200€ mehr für eine 6950 als für gleich starke 6900 Ultimate auszugehen ?
 

Anhänge

  • Screenshot_20220512-164230.jpg
    Screenshot_20220512-164230.jpg
    342,6 KB · Aufrufe: 183
Zuletzt bearbeitet:
Firstdim schrieb:
Nebenbei, wie krank muss man sein, um über 200€ mehr für eine 6950 als für gleich starke 6900 Ultimate auszugehen ?

Selbst 1000 Öcken sind heftig für die größte Spielekarte.

2011 rum war die Welt noch in Ordnung, die größte Einzel-GPU-Karte, jetzt bei Nvidia, die 580 für 500€.

Naja, muss ich dann durch, da die 4080 mehr als 500€ kosten wird, vermutlich auch mehr als 700€.
 
  • Gefällt mir
Reaktionen: Firstdim
Ja, da stimme ich zu. Mich hat meine, abzüglich alte Vega 800€ gekostet, daher...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banger
Zurück
Oben