News GPU-Gerüchte: Die GeForce RTX 4090 kommt vor RTX 4080 und RTX 4070

ob es nun 25% oder 50% mehr leistung im vergleich zu 3090 werden ist mir komplett egal.
Bezahlbar, mind. 16gb und ohne exorbitanten stromverbrauch (und Wärmeentwicklung) lauten meine Kaufkriterien.
Die Leistung einer 3080ti, zum Straßenpreis <500€, bei einer TDP von <250W wäre meine Wunschkarte, aber das wird nicht produziert werden. ob die Karte dann 4060s, 4070, 4070ti heißt, ist mir rille – einen schw***vergleich brauch ich nicht.
entweder werden in zeiten von produktionsengpässen die nerds bedient, die kaufen ohne die Preisleistung zu prüfen, oder die Full-HD Kids, die zu Hause wohnen und ihre Ferienjob-Kohle in Pixel umsetzen.

Für 0815-Konsumenten, die professionell mit der Graka arbeiten (4k) und ab und zu gerne in größtmöglicher Auflösung mit 60-100 frames zocken, dafür aber preisbewusst kaufen, gibt es gefühlt seit der 2060S keine passende Karten mehr. und ja ich spiele dank DLSS in 4k mit meiner 2060s .
 
  • Gefällt mir
Reaktionen: b|ank0r und Blackland
Ich nutze sogar die 2060 ohne S und spiele 4k. ;)

Grundsätzlich halte ich das ökologisch und keine Karte mit mehr als 200W TDP. Daher bliebe es bei max. bis 3060, selbst die 3070 hat mir da 20 W zuviel. :D

Diese Stromverschwendung geht mir gehörig auf den Zeiger, da es das gesamte System negativ belastet und immer mehr Leistung mit immer mehr Verbrauch zu erreichen, ist leider der falsche Weg. :(
 
  • Gefällt mir
Reaktionen: baizer, Alex1966, danyundsahne und 2 andere
Intruder schrieb:
Was wäre denn eine "gesunde Menge" an VRAM, "genug" RAM?
Hab weder schnelles PCIe 4/5 sondern dümpel aktuell noch auf 3 herum 🤣 und Windows 11 mag meine Hardware nicht haben da diese "zu unsicher" für so einn "sicheres" System ist.
Naja, allgemein gefragt ? Mehr als das Spiel braucht. Muss aber nicht enorm viel mehr sein. :D


Intruder schrieb:
Beim prefessionellen Nutzen bin ich voll und ganz bei dir. Nur wer weiß wie sich der VRAM Bedarf die nächsten Jahre weiter entwickeln wird?
Als Gradmesser ist da immer die aktuelle Konsolengeneration dienlich. Mehr als 8-12 GB werden das wohl kaum werden (ausser evtl. der eine Sondertitel a la Crysis damals).

Es wird ja auch parallel immer neue Technologie eingeführt, von schnellerem PCIe zu Upscaling a la DLSS und FSR sowie Inline Kompression die eben jenen Memory Verbrauch senken soll. Ist also schwer genau zu sagen "in drei Jahren braucht man 20GB VRAM". Es passiert ja auch noch viel drumrum.

Intruder schrieb:
Wenn die Hardware es zur Verfügung stellt, wird früher oder später irgend jemand was für diese Hardware programmieren, die es auch wirklich gebrauchen kann.
Das auf jeden Fall, aber schau jetzt mal her, selbst vier Jahre nach der Einführung von RT ist die Anzahl an Titeln die das (gut) supporten sehr, sehr überschaubar.

Und es hängt ja auch noch zum Teil von deiner Auflösung ab, wer Entry-Level GPUs kauft wird kaum diese an einem 4K165er Monitor betreiben wollen, meist steht da ein 1080p oder 1440p Gerät rum und das braucht dann speziell mit RT nicht so exorbitant viel VRAM wie in UHD.

Intruder schrieb:
ja genau. Habe diese Info mittlerweile auch im Netz so im Netz gefunden. Sobald VRAM da ist, wird sich genommen und das unabhängig davon ob es auch wirklich nötig wäre oder nicht. Naja schaden kanns nicht. So gibts keinen Grund zum Nachladen und herum ruckeln 😊

Mehr schadet nie. Ausser dem eigenen Geldbeutel. Zuviel haben und nicht brauchen als brauchen und nicht haben.:daumen:
Ergänzung ()

Blackland schrieb:
Grundsätzlich halte ich das ökologisch und keine Karte mit mehr als 200W TDP. Daher bliebe es bei max. bis 3060, selbst die 3070 hat mir da 20 W zuviel. :D
Stimmt, das Powerlimit mit dem Slider manuell auf 90% zu setzen wäre auch krass viel Arbeitsaufwand. Das kann man niemandem zumuten. Zwei Mausklicks. Weltuntergang. 😂

Besser nicht von der Mehrleistung profitieren und fadenscheinige Ausreden präsentieren.:daumen:
 
  • Gefällt mir
Reaktionen: Pulsar77, bad_sign, b|ank0r und eine weitere Person
Chismon schrieb:
Ich denke, dass Lisa bzw. AMD/RTG da Jen-Hsun/nVidia ziemlich auf den Leim gegangen sein dürfte und vielleicht kostete nicht nur der Sprung auf 4N/5nm TSMC Fertigung ein mächtiges Sümmchen sondern beinhaltet das auch eine Rush Order um dem größten Konkurrenten im HighEnd Monate voraus zu sein (das Geld spielt sich locker ein für nVidia - die nach dem schief gegangenen ARM-Deal eh massiv in Geld schwimmen - wie man bei Pascal sah und aller Voraussicht nach ist das die Blaupause für Lovelace).

Für AMD/RTG wird allerfrühestens im September mit einer Navi31-Ankündigung gerechnet (Marktstart dann frühestens im Oktober?) und ob man das Risiko einer Ankündigung für einen noch größeren Paperlaunch als nVidia (der dort deutlich mehr Schaden als bei nVidia anrichten dürfte angesichts der relativ mickirgen Marktanteile) eingeht, wage ich zu bezweifeln ... lasse mich aber gerne (im Interesse der Kund
Ich schätze die Chancen besser für AMD ein. Bis zu dem Zeitpunkt der verfügbaren Nvidia Tests dürfte es ein relativ gutes Bild über AMD geben und einen Fahrplan.
Ich teile deine Meinung für Nvidia und den early availability price - ob sie das am Ende auf die Laufzeit der neuen Generation wirklich in Gewinn umwandeln können? Wenn ich mir die Verfügbarkeit der Playstation 5 anschaue bezweifle ich das :)
 
  • Gefällt mir
Reaktionen: Pulsar77
Intruder schrieb:
Ne 4070 zum Einstiegspreis einer 3090Ti 😈

Hier kommt dann den Hardwarejunkies die aktuelle Situation sogar zugute.

Klingt total bescheuert, ist aber so.

Wir reden hier über Luxus. So ehrlich muss man sein.

Die Hersteller haben die Kapazitäten gebucht, müssen sie bezahlen und müssen ihr Zeug auch verkaufen. Wenn es Butter oder Brot wäre, würden alle über gestiegene Kosten schwafeln und den Preis erhöhen, bis der Arzt kommt.

Butter und Brot muss man kaufen.

Bei dieser Hardware, kann man es aber einfach lassen und die Händler hocken auf ihren Karten, bis der Preis soweit runter gegangen ist, bis man ihn bezahlen will.

Gerade in Zeiten, wo ALLES teurer wird, spart man an Dingen, die nicht nötig sind.

Die dicke Frau von den Grünen könnte z.B. locker ein wenig Inflationsfasten machen. Würde ihr und dem Gesundheitssystem des deutschen Staates echt gut tun. :evillol:

Eine GPU für 1k Euro, muss nicht sein. Bei Butter für 3 Euro, muss man in den sauren Apfel beißen.

mfg
 
  • Gefällt mir
Reaktionen: Vitec, Pulsar77, Chismon und 4 andere
ThirdLife schrieb:
Stimmt, das Powerlimit mit dem Slider manuell auf 90% zu setzen wäre auch krass viel Arbeitsaufwand. Das kann man niemandem zumuten. Zwei Mausklicks. Weltuntergang. 😂

Besser nicht von der Mehrleistung profitieren und fadenscheinige Ausreden präsentieren.:daumen:
Absoluter Blödsinn, hat mit der ökologischen Einstellung absolut nichts zu tun! :(

Genau das Gegenteil ist der Fall und solche Ignoranten wie Du zeigen schön als Verbraucher, dass man jeden Mist mitmacht und den Trend zum Mehrverbrauch absolut top findet! Ergo: Grafikkarten Hersteller machen so weiter und (sh. nächste Generation) setzen noch einen oben drauf. Der Verbraucher will es doch ... :freak::kotz:
 
  • Gefällt mir
Reaktionen: han123
Ganz ehrlich es muss doch keiner eine 4090 kaufen (soll mich recht sein um so besser die Chance das ich eine bekomme :))

wenn jemand einen Grünen Daumen hat kann er doch eine 4060 kaufen und glücklich sein

Aber immer die Leute belehren wollen und alles Schlecht Reden weil Verbrauch Verbrauch Verbrauch ist so nervig aber so ist der Deutsche eben 8k 240FPS haben wollen bei 75 watt verbrauch am besten noch ohne Stromanschluss auf der GPU und passiv gekühlt

Mich juckt der Verbrauch null meine 3090 habe ich extra auf ein 520 watt Bios geflashed damit sie Endlich ihre Leistung entfallten kann

Und gottseidank hat Nvidia bei der 4090 ein 600 watt Powerlimit damit sie ihre Leitung schön zeigen kann und ich in 4k die 144fps hoffentlich besser Konstant halten als bis jetzt mit der 3090 bei Ultra einstellungen
Ergänzung ()

Blackland schrieb:
(sh. nächste Generation) setzen noch einen oben drauf. Der Verbraucher will es doch ... :freak::kotz:
Aber zu 100% ich will 3 stellige FPS in 4k haben bei Ultra Einstellungen daher sollen sie 1000Watt powerlimit haben mir nur recht

Ist das selbe wenn ich 400 fahren will muss ich mir auch einen Bugatti kaufen und darf nicht Heulen wenn er dabei aber 50L Verbraucht wer High End will muss mit High End Verbrauch leben war schon immer so und wird immer so Bleiben
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pulsar77 und GT200b
Benni1990 schrieb:
Aber zu 100% ich will 3 stellige FPS in 4k haben bei Ultra Einstellungen daher sollen sie 1000Watt powerlimit haben mir nur recht
Aber mindestens:D
 
  • Gefällt mir
Reaktionen: Pulsar77 und Benni1990
Na aber sicher Mindestens sonst brauch ich mir auch keine 4090 kaufen geschweige den in 4k spielen :D
 
  • Gefällt mir
Reaktionen: Pulsar77
Blackland schrieb:
Absoluter Blödsinn, hat mit der ökologischen Einstellung absolut nichts zu tun! :(

Genau das Gegenteil ist der Fall und solche Ignoranten wie Du zeigen schön als Verbraucher, dass man jeden Mist mitmacht und den Trend zum Mehrverbrauch absolut top findet! Ergo: Grafikkarten Hersteller machen so weiter und (sh. nächste Generation) setzen noch einen oben drauf. Der Verbraucher will es doch ... :freak::kotz:
Wieso Mehrverbrauch ? Du kannst die Karte ja nach belieben betreiben. Keiner zwingt dich eine GPU immer am oberen Limit zu fahren.

Deine Argumentation ist einfach an den Haaren herbeigezogen. Keine 3070 kaufen wollen weil sie 20W "zuviel" verbraucht. Der grössere Chip ist effizienter weil er mehr Leistung bei weniger Takt und Verbrauch bringt in den meisten Fällen.

Ergo lieber ne 3080 kaufen und mit 200W betreiben als eine 3060 mit 200W im Limit betreiben.
 
  • Gefällt mir
Reaktionen: iceshield, shaboo, JohnnyTexas und eine weitere Person
SirSilent schrieb:
Mal schauen ob im Herbst überhaupt noch jemand Geld für ne Grafikkarte übrig hat.
Wie meinst Du das?

Bei 7,9% Inflation nur gegenüber dem Vorjahr und 0% Lohnsteigerung seit 2019 wegen Corona (rate doch mal, welche Zahl der AG in 2022 festsetzt?), ist das "Invest" in eine richtig teure Graka besser, als dass das Gesparte auf dem Konto immer weniger wert ist.

Mein Kaufkraftverlust dieses Jahr durch Inflation ist fünfstellig! Zum Glück ist das Haus bezahlt. Von einer 4090 im Rechner hab ich da einfach mehr bzw. überhaupt was. Spielt doch keine Rolle, wenn das Teil ein Jahr später nichts mehr wert ist, das ist mit dem Geld auf der hohen Kante aktuell genauso.

Von daher: kaufen, kaufen, kaufen ...
 
  • Gefällt mir
Reaktionen: Pulsar77 und Benni1990
stbufraba schrieb:
Mein Kaufkraftverlust dieses Jahr durch Inflation ist fünfstellig!

Dito.

stbufraba schrieb:
Zum Glück ist das Haus bezahlt.

Dito. Seit 1930. Ein schickes Mietshaus im Jugendstil von 1904 mit 6 Wohnungen. :evillol:

stbufraba schrieb:
Von daher: kaufen, kaufen, kaufen ...

Das sieht man bei Mercedes, Porsche oder BMW genauso und die gehen mir echt auf den Sack, ich soll meine Kohle zum Fenster raus schmeißen für Dinge, die 25% Wertverlust an dem Tag haben, an dem ich mit der Karre vom Hof fahre.

Möglicher Weise, kann man sich bei Hardware einbilden, das wäre eine "Investition". mMn ist das aber nicht so.

Sollte ich deine Ironie nicht gefunden haben, liegt es an mir. :heilig:

mfg

p.s.

Wenn die bekloppten Nazis nicht gekommen wären und die doofen Kommunisten danach nicht regiert hätten, würde mir die Sonne noch viel mehr aus dem Arsch scheinen.

Der aktuelle Staat ist schon wieder dabei, sich (bei mir) massiv unbeliebt zu machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pulsar77
zivilist schrieb:
RTX 4070 mit 300 W… Ich warte dann mal auf die RTX 4060 oder RTX 4050 oder was auch immer kommt mit deutlich unter 200 W.
Müsste dann hoffentlich in WQHD deutlich flotter sein, als derzeit mit meiner GTX 1650 super.
Find ich persönlich auch etwas viel. Bei der (zumindest in der Tabelle) vermuteten Leistung einer 3090, die 350W verbraucht, finde ich dann aber den technologischen Fortschritt eher mau, wenn die 4070 300+ Watt verbraucht.
Neues Fertigungsverfahren und höherer Takt sollten dann eigentlich die 4070 noch etwas schneller machen.
 
ThirdLife schrieb:
Wieso Mehrverbrauch ? Du kannst die Karte ja nach belieben betreiben. Keiner zwingt dich eine GPU immer am oberen Limit zu fahren.
Darum geht es immer noch nicht! Es geht um die Signale, welche die Käufer an die Hersteller senden! So lange nicht auf den Verbrauch geachtet wird, werden immer mehr Watt in neue Entwicklungen gepumpt. Das ist schlicht und einfach falsch! Weniger Verbrauch bei höherer GPU-Leistung muss das Ziel sein!

Und es geht nicht darum, was man sich selber leisten oder einstellen kann!
 
  • Gefällt mir
Reaktionen: baizer, Kalsarikännit, Alex1966 und 2 andere
Sollten Preis, Leistungsaufnahme und Verfügbarkeit wirklich so schlecht werden wie überall gemunkelt wird, wird frühestens in 2-3 Jahren wieder in den PC investiert.
 
  • Gefällt mir
Reaktionen: b|ank0r
Blackland schrieb:
Weniger Verbrauch bei höherer GPU-Leistung muss das Ziel sein!
Ok, und wo genau findet das nicht statt ? Nenne mir doch eine halbwegs schnelle Karte aus den letzten Generationen wo der Nachfolger nicht schneller war als der Vorgänger bei weniger Verbrauch.

Blackland schrieb:
Und es geht nicht darum, was man sich selber leisten oder einstellen kann!
Doch, genau darum gehts. Eigenverantwortung und gesunder Menschenverstand.

Mal davon abgesehen regelt der Preis einer Ultra-Highend Karte ohnehin die Nachfrage. Wenn also 0,05% aller Käufer der 4000er Serie eine 600W Karte nutzen, welches "Signal" sendet das denn dem Hersteller, der ja ohnehin schon weiss dass das ein Nischenprodukt für Extrem-Nutzer ist ?

Und welchen globalen Impact hat das wohl ggü. all den Käufern einer Entry-Level und Mittelklasse Karte ? Genau. Exakt gar keinen.
 
  • Gefällt mir
Reaktionen: Pulsar77 und Bright0001
@ThirdLife
Mich würden mal die echten Zahlen interessieren. Also wieviel Prozent 3090 wieviel Prozent 3080 usw. wurden verkauft.
 
  • Gefällt mir
Reaktionen: Pulsar77
CR4NK schrieb:
@ThirdLife
Mich würden mal die echten Zahlen interessieren. Also wieviel Prozent 3090 wieviel Prozent 3080 usw. wurden verkauft.
Ich denke mal ein guter Indikator wären (auf Gaming bezogen) die Steam Hardware Survey Charts.

Krypto, Semi-Pro User und Co. sind da natürlich nicht einbezogen.
 
  • Gefällt mir
Reaktionen: Pulsar77
Blackland schrieb:
Ich nutze sogar die 2060 ohne S und spiele 4k. ;)

Grundsätzlich halte ich das ökologisch und keine Karte mit mehr als 200W TDP. Daher bliebe es bei max. bis 3060, selbst die 3070 hat mir da 20 W zuviel. :D

Diese Stromverschwendung geht mir gehörig auf den Zeiger, da es das gesamte System negativ belastet und immer mehr Leistung mit immer mehr Verbrauch zu erreichen, ist leider der falsche Weg. :(
Ich schaue auch immer auf die Effizienz und da muss man der 3070, oder auch der Radeon 6800 (und gar der 6900 XT), sehr gute Werte zusprechen.

https://www.computerbase.de/artikel...-3#abschnitt_energieeffizienz_in_fps_pro_watt

Ist zwar Spekulativ, aber es kann dann schon dazu führen, ob eine schnellere Karte dann schon dafür sorgt, dass erst eine Generation später aufrüsten muss.

Edit:
Natürlich muss man auch auf den Preis schauen und man muss den Hersteller zeigen, dass man nicht bereit ist jeden Preis zu zahlen. Aber jetzt mal nur von der Effizienz betrachtet
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pulsar77
Momentan macht es echt keinen Spaß den PC aufzurüsten oder sich was neues zu kaufen.
Zu den aktuellen GPU Preisen der top Karten habe ich vor 10-12 Jahren einen kompletten PC mit top Graka bekommen. Wer nen vierstelligen Preis für ne Graka ausgibt dem ist nicht mehr zu helfen. Selbst bei 500€ würde ich mich fragen was das soll. Aber zum Glück wird man älter und zocken steht bei mir nicht mehr an den ersten Stellen. Das kommt gaaaanz weit hinten. Und nein, es liegt nicht am Geld, verdiene sehr sehr gut aber ich schaue trotzdem auf die Kohle und gebe Sie dann (für mich) sinnvoller aus. Ich trauere noch den Preisen der Radeon 5000er und 6000er Serie hinterher. Da gab es die top Karten noch für um die 350 - 500€.
 
  • Gefällt mir
Reaktionen: DaCrazyP
Zurück
Oben