News Erster Blender Benchmark: GeForce RTX 5080 schlägt Vorgänger nur um 9 Prozent

@Erzwodezwookie Das wird praktisch nicht mehr passieren. DLSS gehört mittlerweile zum Standard. Die neue Generation kann man noch nicht einmal kaufen und schon sind diverse Titel gepatcht oder werden es in Kürze. Und für die älteren Spiele, wo eventuell kein DlSS möglich ist, reicht die Leistung allemal.
Das Einzige was mich stört ist der Preis für dieses Software Upgrade…
 
  • Gefällt mir
Reaktionen: Shad82, Nekkepenn und -MK
Chismon schrieb:
wohl das MFG Marketing bemüht werden
Mehrheitlich war in der Community die Stimmung, dass Nvidia noch weiter enteilt. Auf mich macht es den Eindruck, dass eher die Brechstange gezogen wurde. Da wirken die KI gemalten Frames und die Sprüche von Nvidia fast schon wie ein Akt der Verzweiflung.
 
  • Gefällt mir
Reaktionen: Holgmann75 und Chismon
JogDive schrieb:
Das einzige was aktuell für Neusysteme wirklich im Bereich XX80 sinnvoll ist, ist die Gigabyte RTX 4080 Super Gaming OC. Unter 1200€, die letzte Batch auf 975mV lauffähig. Kosten und Effizienz lassen die 5080 alt aussehen und Gigabyte ist bezüglich der geringen Coil-Whine Lautstärke führend.

Ich verbaue die im Nebenjob wie am Fliessband, daher weiß ich das.
Eine 5080FE wird mindestens 8% schneller sein und kostet das gleiche, deine Empfehlung ist nicht sinnvoll.
 
Alesis schrieb:
Auf mich macht es den Eindruck, dass eher die Brechstange gezogen wurde. Da wirken die KI gemalten Frames und die Sprüche von Nvidia fast schon wie ein Akt der Verzweiflung.
Ich glaube fast, dass nVidia bzgl. MFG keine andere Wahl hatte (um krampfhaft irgendein neues Vorzeige-/Upgrade-Feature zu suggerieren, zumal der Laden viel mehr auf K.I. als auf Gaming mittlerweile fokussiert ist), weil die Chip-Fertigung (mit TSMC als maßgeblichen, quasi-monopolistischen Taktgeber, da Intel und Samsung schon eine Weile nicht auf Augenhöhe sind und eigene Forschungs- und Entwicklungsimpulse einbringen) nicht mehr hinterher kommt (was lohnende Leistungssprünge zu noch akzeptablen Kosten bzw. nVidia Profitmargen angeht) .

Es gab ja sogar Gerüchte und einhergehend anlaufendem Hype, dass nVidia den Veröffentlichungszeitrraum zumindest bei professionellen K.I. Karten auf einen 1-Jahresveröffentlichungszeitraum verkürzen wollte mit Rubin (um die Überbleibsel an Konkurrenz noch mehr zu düpieren und abzuhängen ... "es lebe das Monopol"), aber scheinbar lief schon bei Blackwell die Entwicklung doch nicht so optimal dort wie erhofft.

Tja, die Gesetze der Physik kann auch nicht der "selbstdarstellende Marvel-ähnliche Superheld" nVidia CEO Jen-Hsun Huang aushebeln und kocht auch nur mit Wasser und ich finde es durchaus positiv, dass AMD mit weniger Aufwand und stimmigeren/runderen Produkten jetzt scheinbar mit gerade einmal einer dGPU-Halbgeneration aufholen kann auf nVidia was Leistung und Effizienz angeht.

Das sind sicherlich gute Nachrichten für die Verbraucher und es bleibt die Hoffnung, dass weiterer Fortschritt für nVidia nur sehr teuer und wenig nachhaltig zu erreichen sein wird (nein, die davon betroffenen Early Adopter und Hobby-Enthusiasten tun mir da gar nicht leid, denn die haben selber die Wahl mitzugehen oder sich anderweitig zu besinnen) - weil man zu sehr an der Chipfertigung hängt und deren Marketing-/Software-Features wie MFG einfach nicht so viele wie erhofft ansprechen (auch wenn nicht wenige nVidia Fans das gerne schön reden wollen) und die Konkurrenz zunehmend aufschließen kann.

Schauen wir 'mal, wie sich das ganze weiter entwickeln wird; die Neuralkompressionstechniken sind sicherlich interessant, aber nVidia typisch zur Ankündigung eine unausgereifte Vorausschau und vermutlich erst in einigen Jahren sinnvoll implementiert in nicht mehr als wenigen gesponsorten Vorzeige-Spielen (RealTime-PathTracing lässt aktuell dahingehend grüßen mit erst 4 nVidia gesponsorten AAA Spielen), so dass man besser auf die nächste, dahingehend besser ausgereifte dGPU-Generation warten sollte als jetzt bei RTX 5000 dGPUs deswegen zu zu greifen (welche dann schon veraltet sein dürften, wenn Neuralkompression zum tragen kommt).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holgmann75, Alesis und Baron v. BullT
Leak
Bildschirmfoto_25-1-2025_19392_videocardz.com.jpeg
 
  • Gefällt mir
Reaktionen: Simanova
Chismon schrieb:
Ich glaube fast, dass nVidia bzgl. MLP keine andere Wahl hatte (um krampfhaft irgendein neues Vorzeige-/Upgrade-Feature zu suggerieren, zumal der Laden viel mehr auf K.I. als auf Gaming mittlerweile fokussiert ist), weil die Chip-Fertigung (mit TSMC als maßgeblichen, quasi-monopolistischen Taktgeber, da Intel und Samsung schon eine Weile nicht auf Augenhöhe sind und eigene Forschungs- und Entwicklungsimpulse einbringen) nicht mehr hinterher kommt (was lohnende Leistungssprünge zu noch akzeptablen Kosten bzw. nVidia Profitmargen angeht) .

Es gab ja sogar Gerüchte und einhergehned anlaufendem Hype, dass nVidia den Veröffentlichungszeitrraum zumindest bei professionellen K.I. Karten auf einen 1-Jahresveröffentlichungszeitraum verkürzen wollte mit Rubin (um die Überbleibsel and Konkurrenz noch mehr zu düpieren und abzuhängen ... "es lebe das Monopol"), aber scheinbar lief schon bei Blackwell die Entwicklung doch nicht so optimal dort wie erhofft.

Tja, die Gesetze der Physik kann auch nicht der "selbstdarstellende Marvel-ähnliche Superheld" nVidia CEO Jen-Hsun Huang nicht aushebeln und kocht auch nur mit Wasser und ich finde es durchaus positriv, dass AMD mit weniger Aufwand und stimmigeren/runderen Produkten jetzt scheinbar mit gerade einmal einer dGPU-Halbgeneration aufholen kann auf nVidia was Leistung und Effizienz angeht.

Das sind sicherlich gute Nachrichten für die Verbraucher und es bleibt die Hoffnung, dass weiterer Fortschritt für nVidia nur sehr teuer und wenig nachhaltig zu erreichen sein wird (nein, die davon betreoffenen Early Adopter und Hobby-Enthusiasten tun mir da gar nicht leid, denn die haben selber die Wahl mitzugehen oder sich anderweitig zu besinnen) - weil man zu sehr an der Chipfertigung hängt und deren Marketing-/Software-Features wie MLP einfach nicht so viele wie erhofft ansprechen (auch wenn nicht wenige nVidia Fans das gerne schön reden wollen) und die Konkurrenz zunehmend aufschließen kann.

Schauen wir 'mal, wie sich das ganze weiter entwickeln wird; die Neuralkompressionstechniken sind sicherlich interessant, aber nVidia typisch zur Ankündigung eine unausgereifte Vorausschau und vermutlich erst in einigen Jahren sinnvoll implementiert in nicht mehr als wenigen gesponsorten Vorzeige-Spielen (RealTime-PathTracing lässt aktuell dahingehend grüßen mit erst 4 nVidia gesponsorten AAA Spielen), so dass man besser auf die nächste, dahingehend besser ausgereifte dGPU-Generation warten sollte als jetzt bei RTX 5000 dGPUs deswegen zu zu greifen (welche dann schon veraltet sein dürften, wenn Neuralkompression zum tragen kommt).
Absolut Richtig!
Und Gaming hat auch daher nicht mehr die allergrößte aufmerksamkeit im Vorstand, den leicht Optimiert auf Kosten der Gaimingleistung wird die Karte so LKW Weise Verkauft, auf der anderen Seite. ...., statt vorher Palettenweise voll in den Endverbrauchermarkt. Der Markt hat sich gewandelt bei Nvidia.... Nichtsdestotrotz ist es auch die Karte die ich gerne Kaufen würde wegen den Features, aber nicht mehr zu diesen Preisen.
 
  • Gefällt mir
Reaktionen: Chismon
Darkwater schrieb:
Der einzige Bereich wo sie foul spielen ist dass sie die 4090 aus der Produktion nehmen und damit eine (vermutlich temporäre) künstliche Lücke zwischen der 5080 und der 5090/4090TI schaffen die für die 4K Enthusiast:innen unangenehm ist, was aber weniger an der 500er-Genration an sich liegt (und hier wird vermutlich in einem Jahr oder so auch nochmal eine zwischenkarte in form einer als 5080TI umgelabelten 4090 mit DDR7 und MFG kommen)
Darauf würde ich mich nicht verlassen. Nvidia hat ja bereits gezeigt, dass sie mit riesigen Abständen zwischen ihren Karten keine Probleme haben. Und diesmal gibt es ja nicht mal Konkurrenzkarten, die potenziell in diese Lücke stoßen könnten. Stattdessen wird selbst eine RTX 5080 konkurrenzlos bleiben.

Mein Tipp: Keine 5080 Ti, so wie es auch keine 4080 Ti gab. Da müsste man seine GB202-Chips ja schließlich mit geringerer Marge verkaufen - und die können genauso gut als 5090D nach China gehen, wenn sie denn so teildefekt sein sollten, dass sie für eine 5090 nicht taugen.
Eine 5080 Super kriegen wir mit Sicherheit, dann eben mit 24 GB Speicher und etwas höheren Taktraten sowie ggf. angepasstem Pricing - und das wird's dann gewesen sein. Die 5090 wird brav in ihrer Performanceblase am Enthusiasten-Himmel schweben dürfen. Konkurrenz aus dem eigenen Haus? Ausgeschlossen. Warum auch?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Holgmann75, nurfbold, DaCrazyP und 3 andere
heroesgaming schrieb:
Mein Tipp: Keine 5080 Ti, so wie es auch keine 4080 Ti gab. Da müsste man seine GB202-Chips ja schließlich mit geringerer Marge verkaufen - und die können genauso gut als 5090D nach China gehen.
Eine 5080 Super kriegen wir mit Sicherheit, dann eben mit 24 GB Speicher und etwas höheren Taktraten sowie ggf. angepasstem Pricing - und das wird's dann gewesen sein. Die 5090 wird brav in ihrer Performanceblase am Enthusiasten-Himmel schweben dürfen. Konkurrenz aus dem eigenen Haus? Ausgeschlossen. Warum auch?
Sehe ich exakt genau so. Die 4080 Super hat den Hauptkritikpunkt der 4080 - den hohen Preis - beseitigt, blieb aber ansonsten nahezu unverändert. Eine analoge 5080 Super, die den Hauptkritikpunkt der 5080 - die 16 GB VRAM - beseitigt, ansonsten aber wenig ändert, wäre da nur folgerichtig.
 
  • Gefällt mir
Reaktionen: nurfbold, heroesgaming und -MK
Alesis schrieb:
Weil man nach einem Jahr irgendetwas bringen muss.
"Irgendwas" trifft es halt. Im Zweifel ist es eine 5080 Super mit 24 GB aber immer noch denselben Chip. Vielleicht gibt es dann ein bisschen mehr Takt oder man geht doch auf auf TSMCs N3-Prozess, wo man dann doch etwas mehr rausgequetscht bekommt. Sprich: Über die Fertigung einfach.

Ich glaube noch nicht so wirklich, dass uns NV eine 5080 Super oder wie auch immer sie heißen soll auf Basis von GB202 spendieren wird. Und wenn, dann vermutlich immer noch derart kastriert, dass es auch für eine 5080 Super nicht für eine 4090 reicht.

Das ist aber auch einfach nur noch Spekulatius.

Aber ich bin da eher bei @heroesgaming: Mehr Takt für eine mögliche 5080 Super in etwa einem Jahr und halt 3 GB RAM Bausteine um 24 GB hinzubasteln.
 
Pff ja gut das ist jetzt schon mager, NV hab ich abgehakt, das selbe spiel wie vor 2 Jahren mit PT, jetzt ist es benutzbar geworden, die 2 Jahre braucht MF bestimmt auch noch. Ich bin erstmal DLSS 4 auf meiner 4000er testen, zumindest bis es mit FSR4 wieder interessanten Lesestoff gibt. Bin da echt zu weit von weg, was den Nutzen angeht.
 
Simanova schrieb:
Die Bandbreite der Ergebnisse ist noch relativ hoch.
Vielleicht wird die 5080 ja ein OC Wunder ?? Power frei für 600W und den schnellsten GDDR7 onboard :hammer_alt:
 
Quidproquo77 schrieb:
Das Fazit von ihm ist relativ neutral. Artefakte steigen mit DLSS4, die meiste Zeit des Gameplays sind die aber nicht sichtbar. Solange sich die Artefakte bei Lampen, Taschenlampen und um die Haare, feinen Gräsern usw. nicht verbessern, ist FG nur ein Ausweichmittel.

Er misst ja extra mit 30 FPS Input um die Artefakte zeigen zu können. So würde halt auch fast niemand spielen.
Klar, er muss neutral bleiben und die Artefakte irgendwie in einem YouTube Video sichtbar machen.

Aber Artefakte bleiben Artefakte, schönreden bringt hier wenig.
 
Ist den nur die 90er von der schlechten Verfügbarkeit betroffen? Hat sich zumindest letztens so gelesen…
 
Habe mir heute im Abverkauf vor Ort im Laden um die Ecke eine Zotac RTX 4080 Super für 1.069€ gekauft. Glaube damit kann ich leben.

Insgesamt bin ich bisher enttäuscht von der 50er Serie.
 
  • Gefällt mir
Reaktionen: shaboo
geplant
 
BDR529 schrieb:
Jup, ihr bestätigt mal wieder genau das was ich immer wieder sage.

Wenn AMD ne Karte mit 16GB auf den Markt bringt, dann ist das völlig in Ordnung und sie wird bis in alle Himmel hoch gelobt.

Wenn Nvidia ne Karte mit 16GB auf den Markt bringt, dann werden sie verteufelt und nieder gemacht und es wird darüber hergezogen ohne Ende.

Ohne Worte...
Es kommt logischerweise auf den Preis- und den Leistungsbereich der Karte an. Sollte die 9070 XT das Niveau einer 7900 XTX im Rasterisieren erreichen können, sie mit RT überbieten und dabei deutlich günstiger (als die genannte Karte und die direkte Konkurrenz) sein, ist das ein Fortschritt und die 16 GB ein Kompromiss, der nicht allzu ärgerlich ist.

Stand heute ist aber auch denkbar, dass sich AMD ein weiteres Mal in Nvidias Windschatten lehnt, wenn es um das Pricing geht. Wäre das der Fall und Custom-Designs der 9070 XT greifen dadurch teilweise die 1000 €-Marke an - wie es von 5070 Ti-Designs sicherlich zu erwarten ist - verwandelt sich das Ganze in einen Kritikpunkt. Die noch zu beantwortende Frage ist demnach also, ob AMDs Behauptung, Marktanteile erobern zu wollen, aus leeren Worten besteht oder nicht.

Die kolportierte Verschiebung des Kartenreleases in den März spricht hier leider eher für das Windschatten-Szenario, wodurch die Eroberung von mehr Marktanteil am Ende sehr unwahrscheinlich werden würde. Eine Resthoffnung verbleibt aber, dass AMD so dämlich nicht ist - und aus dieser Perspektive sind die Kommentare geschrieben, die du zitiert hast. 16 GB GDDR6 wären für eine AMD-Karte für 1000 € dagegen genauso inakzeptabel.

Was du behauptest, stimmt also nicht - 16 GB sind für eine AMD-Karte nicht per se in Ordnung, während Nvidia dafür gebasht wird. Die Speicherkritik bezog und bezieht sich ganz konkret auf Karten wie die RTX 4070 Ti in der Ada-Generation sowie jetzt auf die RTX 5080, die in Anbetracht ihrer Features und Leistungsfähigkeit von mehr RAM profitieren könnten, aber eben recht knapp bestückt (für den Preis) auf den Markt kamen bzw. kommen. Und immerhin hat Nvidia diese Perspektive selbst bestätigt, als sie ihre Super-Adas auf den Markt brauchten und die 4070 Ti vom Markt warfen. Die RTX 5080 wird ähnliches vorhersehbar wiederholen, die Super-Variante kommt bereits jetzt für Laptops ^_^
 
Berlinrider schrieb:
Habe mir heute im Abverkauf vor Ort im Laden um die Ecke eine Zotac RTX 4080 Super für 1.069€ gekauft. Glaube damit kann ich leben.

Insgesamt bin ich bisher enttäuscht von der 50er Serie.
Wieso nicht am Donnerstag für 100 Euro mehr die 5080?
 
  • Gefällt mir
Reaktionen: Nekkepenn und -MK
Zurück
Oben