News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

mTw|Marco schrieb:
Reell wird die Karte nicht mal annähernd so viel verbrauchen - wie immer. Vermutlich wird die Karte sogar wieder in der Top 5 der effizientesten Karten liegen, so wie es auch bei der 4090 war.

Mit Undervolting vermutlich eher Top 3.
Lüg dir doch nicht so in den Sack.
Cyberpunk und die andere Ray/pathtracing Games nuckeln in 4K die volle Leistung auch aus einer 4090. Und die Effizienz kannst du vergessen, effizient ist sie bei 450W auch, das tut aber nichts zur Sache. Es geht dabei nur um den Maximalverbrauch und die zugehörige Abwärme.
 
  • Gefällt mir
Reaktionen: iron_monkey
Laphonso schrieb:
Dieses FOTO ist...ja, falsch! Frechheit!!!
Nasse Fußböden sind super.
Nur dass die in letzter Zeit in den Games so inflationär auftreten ist halt etwas ......albern.
 
CrustiCroc schrieb:
Es muss wirklich schmerzen.
Langsam wird es langweilig.
Fanboytum ist auf beiden Seiten und generell schlicht Unsinn. Dass es möglichst für jeden ein passendes Produkt gibt, ist das einzige relevante Kriterium.
Der "Abstieg" AMDs, wie du es nennst, muss daher auch niemandem leid tun. Das passiert eben, wenn eine Firma in Entwicklung und Fokus falsche Entscheidungen trifft und zusätzlich dank kleineren Budgets in Sachen Features und Software dauerhaft hinterherhinkt.
Allerdings liegst du m.E. falsch, wenn du diese Entwicklung als eine kürzliche betrachtest. Im Prinzip fährt AMD seit den ersten DX10-Grafikkarten ein ständiges Auf und Ab und bekommt einfach keinen Fuß auf den Boden, der dort für mehr als 1-2 Generationen bleibt.
Die logische Konsequenz war und ist über Zeit schwindendes Kundenvertrauen und ein sich entsprechend entwickelnder Marktanteil, zumal Nvidia sich vergleichbare Aussetzer eigentlich nie geleistet hat. Ich meine, schauen wir doch mal auf den genannten Zeitraum zurück:

2007: Radeon HD 2000-Generation, absolut nicht konkurrenzfähig gegen Geforce 8, Ehrenrunde mit HD 3000 folgte. Daher keine Konkurrenz im High-End. Aufholjagd mit HD 4000, dann wohl eine der besten Radeon-Generationen mit HD 5000 in 2009. Auch dort allerdings konnte man die absolute Leistungsspitze nie erobern, die blieb bei Nvidia, die demnach auch synonym mit den schnellsten Grafikkarten blieben. Also: Keine Konkurrenz im absoluten High-End.
2011: Mit GCN in Gestalt der HD 7970 verpasste man den Sprung auf den "Big GPU"-Zug. Nvidia hielt daraufhin sein Flaggschiff zurück, brachte eine Mittelklasse-Karte als High-End (GTX 680) und molk das eigentliche Flaggschiff (Titan) über die GTX 700-Serie hinweg als erste 1000 €-GPU kräftig. AMDs Antwort (Hawaii, R9 290X) kam mit sehr starker Verzögerung, wodurch man im High-End monatelang die zweite Geige spielte.
2015: Nachdem man über sehr lange Zeit nichts anderes getan hatte als die alten GCN-Chips in verschiedenen Refreshes zu melken, kam mit den Fury-Karten endlich wieder etwas Neues - allerdings wieder sehr spät und mit wenig Speicher. Daher keine wirkliche Konkurrenz im High-End.
2017: Das legendär schlechte Vega-Marketing ist ja nicht ohne Grund ein Meme. Auch kamen Vega 64 und 56, obwohl ganz allgemein nicht schlecht, wieder sehr spät. Keine Konkurrenz im High-End.
2019: Erneuter Reboot mit RDNA, begleitet von Blackscreen-Berichten und co. Keine Konkurrenz im High-End.
2021: RDNA2 war die beste Radeon-Generation seit langem, aber extrem schlecht verfügbar. Diesmal war man an der Leistungsspitze zumindest nahe dran, aber trotzdem war Nvidia letztlich Leistungsführer.
2023: Mit RDNA3 stolperte man erneut und konnte in Sachen Effizienz und Leistung nur unzureichend an RDNA2 anknüpfen. Außerdem - oh Wunder, bot man erneut keine Konkurrenz am absolut oberen Ende an.
2025: RDNA4 liefert den nächsten Reboot ...

Diese unvollständige Darstellung zeichnet ja trotz Lücken ein recht eindeutiges Bild: Die Leistungsführerschaft hat man Nvidia im Prinzip seit bald zwei Jahrzehnten nicht mehr abringen können. Das hinterlässt Spuren bei der Kundschaft, die dadurch eben nicht selten von "Geforce" als Synonym für die schnellsten Grafikkarten hört. Das Effizienzrennen konnte man hin und wieder für sich entscheiden, aber eben auch nicht durchgängig - außerdem ist die Marketing-Zugkraft dieses Argumentes häufig viel kleiner.

Hinzu kommen häufig späte Releases (bei Hardware und Treibern im Übrigen, wobei letzteres sich in jüngerer Zeit zumindest verbessert hat), ein seit G-Sync stetig wachsender Feature-Rückstand, furchtbar inkonsistente Produktbezeichnungen (Radeon HD, R9, Fury, Vega, RX - 2900 XT, 3870, 56, 64, 5700 XT, nun 9070) und teils schwankende Qualität (und damit meine ich Dinge wie Rückschritte im Idle- und Multi-Screen-Verbrauch von RDNA2 auf RDNA3, lange ungefixte Treiberprobleme wie die Blackscreens bei RDNA und so weiter und so weiter ...).

Ich kann mich auf den Kopf stellen, aber mir fiele nicht ein, dass Nvidia mit vergleichbaren Inkonsistenzen gekämpft hätte (möglicherweise abgesehen von Thermi Generation eins). Viel von dem, was AMD da fabriziert hat, schreit schlechte Leadership, Konzeptlosigkeit und mangelnde Ressourcen / Investitionsstau. Nun waren die 2010er für AMD natürlich auch nicht die beste Zeit, weswegen mindestens letzteres aus Unternehmenssicht verständlich ist. Den Kunden interessiert das aber eben weniger. Der möchte sich beim Kauf eines Produktes auf gewisse Eigenschaften verlassen können. Und Nvidia ist hier eben der Anbieter, bei dem das eigentlich immer möglich war.
Ich sehe für AMD kein kurzfristiges Comeback oder einen Zen-Moment im GPU-Bereich kommen. Wenn überhaupt, müssen sie sich über ein Jahrzehnt hinweg hart zurück kämpfen. Aber dann müssen eben auch vier oder fünf Generationen hintereinander einfach mal passen. Und das ist die eigentliche Herausforderung, denn ich weiß ganz ehrlich nicht, ob das überhaupt schon mal geklappt hat, seit des Radeon-Grafikkarten gibt ...

daknoll schrieb:
Lüg dir doch nicht so in den Sack.
Cyberpunk und die andere Ray/pathtracing Games nuckeln in 4K die volle Leistung auch aus einer 4090. Und die Effizienz kannst du vergessen, effizient ist sie bei 450W auch, das tut aber nichts zur Sache. Es geht dabei nur um den Maximalverbrauch und die zugehörige Abwärme.
Der Gehäusemarkt hat sich nicht ohne Grund in Richtung verstärktem Fokus auf die GPU-Kühlung entwickelt. Auch diese Verlustleistung wird wegzukühlen sein. Wer sich eine High-End-Grafikkarte leistet, wird wohl auch für deren ausreichende Belüftung sorgen können, so dass das auch effizient geschehen kann. Wer das nicht tut ... nunja, selber schuld.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Timesless, MoD23, Apocalypse und 2 andere
5070 250Watt, 12GB VRAM?

Nee Leute, lasst stecken. Da reicht die 4070 immer noch. DLSS 4 hin oder her.

250W enttäuschen mich. 12GB VRAM auch.
 
  • Gefällt mir
Reaktionen: unspektakulaer, unich, Cratter13 und 2 andere
Ich warte entspannt ab. Die 4090 kriegt alles selbst 2x MFG. Nur 4x nicht.
 
Myki schrieb:
Die werden in den Low End Markt abgedrängt, wo man keine Kohle mehr verdient. Bitter. AMD muss wohl voll auf CPU und APU gehen.
Mit den HPC Instinct Beschleunigern sind die garnicht so schlecht aufgestellt.
Und da ist die richtige Kohle drinn.
Zudem sind auch die Customdesigns für die Konsolen immer gutes Geld.
Gab mal eine Zeit da hatte man Nvidia keine Chance gegeben ohne x86 Lizenz,
und ist noch nicht solange her da hat man AMD in den Konkurs geredet in den Foren.
Erstens kommt es anders und zweitens als man denkt.
Das Internet hieß früher mal "AOL & Myspace"
Kennt heute auch kaum noch jemand der nicht jenseit der 40 ist..
 
  • Gefällt mir
Reaktionen: Holgmann75 und MoD23
Simanova schrieb:
Was mir bei den Leistungsangaben aufgefallen ist: A Plaque Tale: Requiem unterstützt kein DLSS4 - ergo sind die Balken ein Performancevergleich zwischen den jeweiligen Modellen unter DLSS 3 Bedingungen.

Anhang anzeigen 1566451

Nimmt man diese Balken als Grundlage, (ich hab die Pixel nachgemessen),
so hat z.b die 5070ti zur 4070ti einen 41% Leistungsvorsprung.

Anhang anzeigen 1566450
Aber nur unter annahme das Nvidia hier von Nulll anfängt, was sie nicht immer getan haben, damit der Vorsprung größere aussieht als er ist. ;-)
 
NoPCFreak schrieb:
Weiß nicht woher immer das Denken kommt, dass man unter einer 5080 überhaupt nicht spielen kann.
Screenshot 2025-01-07 191040.png


Das ist halt die Wahrheit. Grob geschätzt die Hälfte aller Teilnehmer an der Steam Umfrage haben eine 50er, 60er oder 70er Karte. Überwiegend im Bereich der 60er.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NoPCFreak, Tr8or, Kraeuterbutter und 2 andere
Rockbreak schrieb:
Was ein sinnloser Vergleich. Wenn du einen sinnvollen Vergleich mit dem Auto machen willst wäre das wie Chiptuning, rein Software basierte Leistungssteigerung ohne dass an der Hardware was geändert wird, wenn du dann Pech hast fliegt dir der Motor um die Ohren weil die Hardware für die Leistung eben nicht ausgelegt war.
und DAS findest du einen sinnvollen Vergleich ?





Rockbreak schrieb:
Zumal drei falsche Frames auf einen echten Frame eine Latenzsteigerung von 300% im Gegensatz zu echten Hardware basierten Frames bedeuten.
falsch gerechnet..
weil: du KRIEGST ja keine 300% Steigerung bei den echten Frames

warum wird eigentlich gejammert.. du hast ja auch eine Steigerung bei RAW-Leistung
sind halt deutlich weniger... wenn dir das reicht passts doch eh.. man zwingt ja niemanden DLSS und co einzusetzen


Rockbreak schrieb:
.... Gimmick gegenüber Hardwarerender und ist praktisch absolut nutzlos für deine 5000er "Leistungssteigerung"
naja..
dann is doch eh alles klar.. warte noch weitere ~6 Jahre, dann hast du deine 300% Leistungssteigerung "Bruteforce" in Raw...
(vielleicht)
 
  • Gefällt mir
Reaktionen: Fallout667
Wer hier auf Rohleistung pocht, hat bereits die Artikel mit Implemtierung von DLSS 1 nicht richtig gelesen.
Die Entwicklung wurde so hervorhesagt, da bringt es nichts bei jeder Generation aufs neue zu weinen. Leider...

Ich für meinen Teil werde weiterhin geizig bleiben. Mit ner 5080 wären Spiele wie Wukong, The Last of Us Part 1 und Ghost of Tsushima interessant aber Witcher 3 Remastered, Dragons Dogma II, Jedi Survivor würden mit dem 5800X im absolut ätzenden CPU Limit landen. Bis zu 2k€ für 5080 + 9800X3D samt Board und Ram hab ich kein Bock.

CiV7 wird schon laufen, mit Ragnarök, Baldurs Gate sind noch andere Titel bei mir offen. Kingdom Come spiele ich erst als Complete Edition wie beim ersten Teil.
Probleme hätte ich, wenn Starfield, SW: Outlaws, Cities Skylines 2 gute Spiele geworden wären oder Stalker 2 bugfrei wäre.

Es ist aber wahrscheinlich der letzte Release bei dem ich anner Seitenlinie bleibe...
 
Naja, was die generellen Kosten für Gaming am PC angeht, finde ich die Entwicklung schon irgendwo kritisch.

Es sind ja nicht nur die Grafikkarten. Bei den Mainboards ist die Preisentwicklung in den letzten Jahren ja auch heftig. Was vor wenigen Jahren preislich noch HighEnd Kategorie war, ist heute Mittelklasse Einstiegspreis.

Ich mache mir da so ein bisschen Sorgen um den Nachwuchs. Ich meine ich habe schon öfter gedacht, dass es mal interessant wäre mal das Durchschnittsalter in Foren wie CB zu wissen. Da wird wohl bei der Mehrzahl der User eine 3 oder vielleicht sogar 4 vorstehen.

Bei den Kosten von heute weiß ich zum Beispiel nicht, ob ich jemals beim PC als Gaming Plattform gelandet wäre. Das war eigentlich nur dem Umstand geschuldet, dass meine Mutter schon zu DDR Zeiten mit den guten Robotrons zu tun hatte und deshalb sofort nach der Wende umgeschult wurde und auch ein, ich glaube 286er, mit nach Hause bekommen hatte. Seit dem hatten wir halt immer Rechner zu Hause, weil sie auch selber ein PC Nerd war. 🤣 Ansonsten wäre ich wohl heute Konsolero (welch grauenhafter Gedanke 😧😄).
 
  • Gefällt mir
Reaktionen: Strahltriebwerk und Teropet
Mrbrill schrieb:
5070 250Watt, 12GB VRAM?

Nee Leute, lasst stecken. Da reicht die 4070 immer noch. DLSS 4 hin oder her.

250W enttäuschen mich. 12GB VRAM auch.
DLSS 4 kann deine Karte auch, geht nur um das neue MFG was die 50er Serie kann und damit Softwaremäßig so viel rausholt sonst wäre der abstand Wahrscheinlich wie früher 20-30% !
Ergänzung ()

ShaleX schrieb:
Ich warte entspannt ab. Die 4090 kriegt alles selbst 2x MFG. Nur 4x nicht.
Echt wo hast du das gelesen ? meiner Info nach gibt es das MFG erst ab der 50er Serie ?
 
  • Gefällt mir
Reaktionen: Cinquedea
HiSpange schrieb:
DLSS 4 kann deine Karte auch
Wie ich das verstanden habe ist nicht DLSS 4 das wichtige der neuen RTX5000 Karten sondern die Tatsache, dass die Shader auch alle "KI programmierbar" sind samt "KI co processor", womit die gezeigten neuen realistischen Texturen usw möglich wären, das ist viel interessanter als fake frames von FG.
 
@MoD23 PC gaming war noch nie so günstig wie heute und Hardware hält länger als je zuvor. Wer sagt denn, dass man immer das neuste vom neuen braucht. Eine Kombi aus 5600/RX6600/16Gb/512Gb kostet gebraucht um 500€ und spielt 98% von allem was es auf Steam zu kaufen gibt in FHD. Vielleicht nicht in höchsten Einstellungen und auf 144 FPS aber geht.
 
  • Gefällt mir
Reaktionen: TheHille, Kraeuterbutter, coral81 und 4 andere
Laphonso schrieb:
Ja, voll doof, das Grafik realistisch wird!
Dieses FOTO ist...ja, falsch! Frechheit!!!
Anhang anzeigen 1566498

Lieber 90er pre baked Raster Technik! Wird sind die ComputerBase wir hassen Grafik Feature Pioniere im Gaming!

;-)

Wow ein gelbes Dreieck mit Bokeh.
Sogar ein iphone SE kann fake-bokeh.
 
Da brauch man einen sehr guten Costum Design AI Cooler :) bei über 500Watt
Auf den Lautstärkentest bin ich gespannt .
 
HiSpange schrieb:
Echt wo hast du das gelesen ? meiner Info nach gibt es das MFG erst ab der 50er Serie ?
Gemeint ist wahrscheinlich einfaches FG (2x), während MFG halt auf 4x hochgeht.
 
  • Gefällt mir
Reaktionen: HiSpange
Wenn das sich so bei allen Titeln bewahrheitet, dass MFG nur ganz unwesentlich mehr Latency hat als FG, FSR4 kein Ray Reconstruction kann und die AMD 9070XT mit der 5070 konkurrieren will, dann muss AMD den Preis aber sehr sehr viel niederiger ansetzen um mithalten zu können.
 
  • Gefällt mir
Reaktionen: iron_monkey und MacMuffin
bei der Übersicht der Eckdaten hat sich ein kleiner schreib fehler eingeschliechten bei der 5070 Taktraten Boost/Basis steht 2.510/21.160 ^^
 
Zurück
Oben