News ROP-Defekt bei Gaming-Blackwell: Neben RTX 5090 & 5070 Ti ist auch die RTX 5080 betroffen

@catch 22
Das Video ist Gold. Wie jedes mal gesagt wird, dass der Preis nur für eine nicht existierende Karte gilt und er einfach 1000mal wiederholen muss, dass es diese Karte nicht gibt. Wenn selbst die Stelle so antwortet, wohin Customer Support Anfragen eskaliert werden, läuft aber einiges schief da. So viel Inkompetenz kann es doch gar nicht geben.
 
  • Gefällt mir
Reaktionen: malvan, catch 22 und Simonte
LuciusFerrum schrieb:
Eine 9070 mit etwas mehr RT Leistung (immer noch hinter Nvidia zurück), die womöglich aber nicht ganz an die 7900XTX ran kommt zum fast identischen Preis.
Ich glaube nicht das die 9070xt über 900€ kommen wird wie die XTX.
Aber alles Spekulatius.

Ich bin momentan auch von keinem überzeugt und einfach froh, dass ich mich entspannt auf der Xbox durch den Gamepass spielen kann^^
 
  • Gefällt mir
Reaktionen: Patrick030 und aklaa
Die Leute kaufen die Karten trotzdem, wenn welche verfügbar sind.
Grund ist einfach. Von den Leuten die sich die Karten kaufen, ist nur ein ganz kleiner Teil davon in Foren wie diesen hier unterwegs.
Das da Karten im Umlauf sind welche zu wenig ROPs haben oder gar defekte Karte ab Werk weiß somit fast keiner.

Image Schaden für Nvidia wie hier schon paar mal erwähnt, nein.
Wenn sich die Situation in ein paar Monaten gebessert hat, juckt es niemanden mehr wie der Launch war.
 
  • Gefällt mir
Reaktionen: Kaufmannsladen und Baal Netbeck
Das ist der übliche Kreislauf der enshittyfication. Nach Jahren der immer leistungsfähigeren Hardware und dem dementsprechenden Ruf, unterstützt durch Konkurrenz, die nicht in allen Bereichen mithalten kann, versucht man nun, weniger Leistung für mehr Geld am Markt zu platzieren, bei gleichzeitigen Einsparungen in der Qualitätskontrolle. Gewinnmaximierung halt. Irgendwann wird der Bogen dann überspannt (Hüstel Boeing) und das scheint bei NVIDIA nun der Fall zu sein.
Schade, dass AMD den High-End-Markt nicht bedienen will. Andernfalls könnten sie NVIDIA in dieser Generation verdientermaßen richtig weh tun. Wenigstens im gehobenen Mittelklassesegment könnte es aber klappen und der ist ja in der Masse wichtiger als High-End.
 
Simonte schrieb:
AAAABER AMD ist viel schlimmer. Guckt mal hier!
ElliotAlderson schrieb:
..dass für mich Nvidia nicht besser/schlechter ist als AMD...
Der deutschen Sprache bist du schon mächtig?
Die nehmen sich beide nichts, aber das kann man als AMD Fanboy in einem Hetzthread gegen Nvidia natürlich nicht stehen lassen :D
 
ElliotAlderson schrieb:
Der deutschen Sprache bist du schon mächtig?
Jetzt wurde brav Falsch zitiert.
Die Posts gehören nicht zusammen :schaf: 😋
Vom Thema ja aber nicht wie du es darstellst :)
 
Quidproquo77 schrieb:
Wir haben das mal intern getestet. Man muss die Pins schon malträtieren oder teilweise beschichten um ein solches Szenario auszulösen. Also ohne Gewalteinwirkung keine Chance.

Nein, das ist nicht nötig! Hier kann man sehen was einmal den Stecker neu stecken für Unterschiede machen kann. Deswegen kaufen die Leute nun Stromzangen oder Infrarot Thermometer um zu prüfen ob sie Glück hatten beim einstecken.

Dein Fingerzeig Richtung "User ist zu doof" kannst du dir also sparen, ich glaube die Tester wissen schon halbwegs wie man den Stecker einstecken sollte.

Such uns mal die Berichte zu den schmelzenden Steckern bei der 3090Ti raus... (die hatte noch eine Lastverteilung).
 
  • Gefällt mir
Reaktionen: Sennox
iron_monkey schrieb:
Nein, das ist nicht nötig! Hier kann man sehen was einmal den Stecker neu stecken für Unterschiede machen kann.
0,5 A über der Spezifikation. Das sind nun keine Messungen die das irgendwie bestätigen würden.
iron_monkey schrieb:
Deswegen kaufen die Leute nun Stromzangen oder Infrarot Thermometer um zu prüfen ob sie Glück hatten beim einstecken.
Dafür braucht man keine Stromzange, dafür braucht man lediglich seine Hand um zu schauen ob da was warm wird. Wir haben nie über 10A im Höchstfall gemessen, bei 100en 5090. Ob es daran bei den bisherigen Fällen lag, ist reine Spekulation. Mehr nicht. Defektes Kabel Ende der Geschichte.
iron_monkey schrieb:
Dein Fingerzeig Richtung "User ist zu doof" kannst du dir also sparen, ich glaube die Tester wissen schon halbwegs wie man den Stecker einstecken sollte.
Wer nimmt bitte eine Verlängerung oder ein Modify Kabel der letzten Generation für eine 3000 Euro Karte? So ganz aus der Rechnung ist der Anwender nun einmal nicht.
iron_monkey schrieb:
Such uns mal die Berichte zu den schmelzenden Steckern bei der 3090Ti raus... (die hatte noch eine Lastverteilung).
Such mir mal die Fälle auf der 4090 mit nativen Netzteilkabeln raus ( Kein ASUS) ohne Adapter. Die sind quasi null. Du hast überhaupt keine Belege für das was du behauptest.
 
Zuletzt bearbeitet:
Artikel-Update: Nvidia hat bestätigt, dass auch die GeForce RTX 5080 von dem Fehler betroffen ist. Es soll sich um eine früh produzierte Charge entsprechender GPUs handeln. Eine Angabe zum Anteil an den bisher ausgelieferten Grafikkarten dieser Klasse macht Nvidia dieses Mal nicht.

Ben Berraondo schrieb:
Upon further investigation, we’ve identified that an early production build of GeForce RTX 5080 GPUs were also affected by the same issue. Affected consumers can contact the board manufacturer for a replacement.
 
  • Gefällt mir
Reaktionen: DJMadMax, Patrick030, bad_sign und 7 andere
Simsalartist schrieb:
Schade, dass AMD den High-End-Markt nicht bedienen will. Andernfalls könnten sie NVIDIA in dieser Generation verdientermaßen richtig weh tun. Wenigstens im gehobenen Mittelklassesegment könnte es aber klappen und der ist ja in der Masse wichtiger als High-End.
Wenn der Preis wirklich gut ist, kann die RX 9070 XT ein Erfolg werden.

Aber ich verstehe, dass AMD sich gar nicht am high end versucht, da es vergebene Liebesmüh ist.
Wer das Geld für "high end" ausgibt, der möchte auch ein möglichst perfektes Ergebnis und das kann AMD nicht liefern...auch wenn die Rohleistung stimmt.

Wenn ich mir angucke, wie viel besser DLSS4 upscaling aussieht gegenüber dem CNN Model, dann beneide ich AMD nicht, damit verglichen zu werden.

Selbst wenn sie mit viel weniger Entwicklungszeit/Geld an das CNN Model herankommen, was Nvidia über Jahre optimiert hat, ist da noch ein enormer Abstand zu Nvidias Transformer Model.

Und bei Nvidia wird es einfach sein, das Transformer Model in diverse ältere Spiele zu übertragen indem die DLL ausgetauscht wird. Bei AMD geht das erst ab FSR 3.1, was nur wenig Verbreitung hat und so bleiben viele Spiele auf AMD Karten mir schlechtem Upscaling...egal ob das neue FSR gut wird oder nicht.

Dann ist da die Optimierung seitens der Spieleentwickler...Nvidia ist die Nr.1 auf die optimiert wurde und es gibt natürlich viele Spiele, wo AMD GPUs trotzdem gut laufen, aber eben auch eine Reihe Spiele, wo sie ihre Rohleistung nicht "auf den Bildschirm bringen".

Ich kenne das aus eigener Erfahrung mit AMD GPUs und es stört mich so sehr, dass ich eigentlich wieder zu Nvidia wechseln wollte.

Gerne unterstütze ich den Underdog und strafe das grauenhafte Verhalten von Nvidia mit meiner Kaufentscheidung ab, aber es muss sich irgendwie rechtfertigen lassen.

Als ich mir eine Vega64 und später eine Radeon VII gekauft habe, gab es noch kein RT und kein DLSS/FSR. Da habe ich gerne die überteuerte Radeon VII gekauft und mich mit etwas weniger Leistung in einigen Spielen abgefunden.

Jetzt sind neue Spiele(vor allem Unreal Engiene) zwangsweise unscharf oder unruhig im Bild.
Das ärgert mich enorm und DLSS ist die einzige Alternative, die ein relativ scharfes Bild ermöglicht...und das ist jetzt nochmal verbessert mit dem Transformer Model.

Im niedrigpreis Segment mag AMD ganz ok sein, solange genug Rohleistung da ist.
Wenn der Käufer eh nur einen 1080p Monitor hat und dann FSR native AA nutzen kann, kann er/sie auch AMD kaufen.

Aber bei 1440p/4K will ich dann auch ein scharfes Bild.

Und ja...ich weiß, dass hier Fans von TAA existieren, die das schöner finden..schön für euch, da werdet ihr mit AMD glücklich....das bin halt nicht ich und wenn ich mir die Testberiche zur Grafikqualität angucke, sich die fast ausschließlich auf meiner Seite.

Also Fazit:
Ich denke nicht, dass AMD die High end Kunden ansprechen kann, da diese dann auch einen höheren Anspruch an die Bildqualität habe und AMD das nicht liefern kann(Eventuell ja doch, wenn KI-FSR super wird und alle Spiele updates bekommen).
Zumindest ist das Erlebnis stark vom Spiel abhängig und es gibt viele faule Eier.

Nvidia nutzt das natürlich aus und betreibt absolute Gewinnmaximierung, ohne Rücksicht auf ihren Ruf. Das ist abstoßend, aber sie können es sich leisten.
AMD kann weiter langsam sterben, oder sich mit agressiven Preisen in der Mittelklasse wieder ein Standbein aufbauen...High end sehe ich für viele Jahre nicht als Option.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Jan schrieb:
Es soll sich um eine früh produzierte Charge entsprechender GPUs handeln.
Wie schafft es so eine Charge in den Handel? Und warum fällt das niemandem auf? Ich checks nicht.
 
  • Gefällt mir
Reaktionen: cma_i, iron_monkey, Alphanerd und 7 andere
Quidproquo77 schrieb:
Wer nimmt bitte eine Verlängerung oder ein Modify Kabel der letzten Generation für eine 3000 Euro Karte? So ganz aus der Rechnung ist der Anwender nun einmal nicht.
Haette ich ne 5090, wuerde ich definitiv das Kabel nehmen, mit dem ich die 4090 betreibe.
Ist ein Kabel direkt von bequiet, das ich nachtraeglich zum Netzteil nachgekauft hatte.
Ob das mit der 5090 einwandfrei funktioniert? Who knows!

Aber macht ja nix, wenn nvidia meint so mit Kunden umgehen zu koennen, koennen sie mich mal!
 
  • Gefällt mir
Reaktionen: iron_monkey, Zarlak, the_IT_Guy und 3 andere
Ich bin ja doch etwas verwundert, dass die Karten "selbst" merken, dass da ein ROP defekt ist und diesen einfach deaktivieren. Ist denn 100%ig sicher, dass diese nicht im Werk bereits deaktiviert [oder gar via laser cut getrennt] wurden (also wissentlich)?

Ich hätte ja ansonsten eigentlich erwartet, dass alle ROPs da sind aber die Karte entsprechend durch den fehlerhaften ROP Fehler/Probleme verursachen.
 
  • Gefällt mir
Reaktionen: Zarlak
Wie geil muss das Leben gerade für Tech-Youtuber sein. Die können quasi jeden Tag ein neues Video über Nvidias 50er Debakel veröffentlichen :evillol:
 
  • Gefällt mir
Reaktionen: Wowka_24, Patrick030 und SweetOhm
Quidproquo77 schrieb:
Wer nimmt bitte eine Verlängerung oder ein Modify Kabel der letzten Generation für eine 3000 Euro Karte? So ganz aus der Rechnung ist der Anwender nun einmal nicht.
Unabhängig wie es im konkreten Fall des Abrauchens aussieht ist diese Aussage halt Murks, weil man sich genau dafür auf Standards einigt und davon ausgehen darf, dass diese zwischen Generationen, Herstellern und unterschiedlichen Geräten greifen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wowka_24, iron_monkey, Zarlak und 11 andere
Ich hab das Grafikkartenthema schon lange nicht mehr verfolgt, aber kann es sein, dass die ürsprünglichen 70er/80er/90er mit diesen geringeren ROPs auf dem Markt geplant waren in einer frühren Phase um dann mit dem gleichen Chip noch mehr Puffer für eine spätere Ausbaustufe zu haben?
Ggf würde dann der Plan verworfen weil sie sich nicht weit genug abgesetzt haben von den alten 4000er Modellen am Markt?
 
  • Gefällt mir
Reaktionen: Wowka_24 und KingL
Ich finde GN hat da völlig recht. Nividia und ihre Partner haben hier wissentlich beschnittene Hardware im Umlauf gebracht. Das grenzt meiner Meinung nach schon fast an Betrug.
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: Teropet, Wowka_24, Patrick030 und 7 andere
Zurück
Oben