News ROP-Defekt bei Gaming-Blackwell: Neben RTX 5090 & 5070 Ti ist auch die RTX 5080 betroffen

Gamefaq schrieb:
Wo wäre das Problem gewesen das per Treiber weiterhin explizit für PhysX zu ermöglichen.
Das Problem dabei ist, dass das nichts ändern würde. Bei Blackwell hat Nvidia in der Architektur schlicht die Abwärtskompatibilität zu 32 Bit CUDA ausgedünnt bzw. ganz entfernt. Und da PhysX nun mal auf CUDA aufsetzt, funktioniert 32 Bit PhysX schlicht nicht mehr mit der Blackwell-Architektur. Da kann man im Treiber erlauben, was man will, Blackwell führt das trotzdem nicht aus.

Deswegen ist davon sind davon ja auch nur die RTX 5000er betroffen, während auf den älteren Karten bis einschließlich der RTX 4000er weiterhin 32 Bit PhysX nutzbar ist.
 
  • Gefällt mir
Reaktionen: catch 22, Baal Netbeck und ElliotAlderson
@Weyoun ich dachte es ging um den HBM?
ruthi91 schrieb:
Offensichtlich wird das bei Team Grün nicht gemacht. Die kamen ja auch erst letzte Woche mit der Maßnahme um die Ecke ihre HBM Bausteine kontrollieren zu wollen weil die Fehlerrate zu hoch ist.
Denn genau darauf hast du reagiert und ich anschließend ebenfalls.
Die ROP Geschichte ist klarer Fehler von Nvidia, aber die defekten HBMs sind intern aufgefallen, bevor sie den Kunden erreichten.
 
kachiri schrieb:
Habe ich was verpasst, oder sind 8-PIN-Stecker nicht mit bis maximal 150 Watt spezifizi
Molex (hier beispielhaft für einen Markenhersteller) gibt für seine Minifit-Verbinder, die kompatibel mit der PCIe-Spec sind, eigene Belastbarkeiten an. Daher kommen die höheren Werte. Diese müssen aber auf den jeweiligen Anwendungsfall angepasst werden.

Quelle: http://jongerow.com/PCIe/index.html


kachiri schrieb:
Wurden Reserven eingeplant oder haben die sich einfach ergeben
Teils, teils. PCIe-SIG hat mit den damals üblichen dünnen Kablen und einfachen Steckern gerechnet. So kam man auf die 150W als Mindestanforderung. Die Hersteller haben sich für höherwertige Komponenten entschieden um eine Reserve zu haben. Beim 12-Pin ist genau das nicht mehr möglich. Die Spec ist schon an der Obergrenze der Belastbarkeit.

kachiri schrieb:
nur weil NV den Stecker seit einigen Generationen forciert
Nvidia hat zusammen mit Dell die Spezifikation zu verantworten und zwingt nun den Boardpartnern und damit auch Kunden diesen praxisuntauglichen Stecker auf. Wo siehst du denn die Verantwortung?

kachiri schrieb:
Dann erkläre mir mal das:
Das überlasse ich dem Reddit-User selbst:
One of the pins on the cable was receded, causing an arc due to improper contact.
Ein Qualtiätsproblem beim Kabel also. Kann man nie völlig ausschließen.
 
  • Gefällt mir
Reaktionen: Sennox, Baal Netbeck und SweetOhm
Atnam schrieb:
Versuchs mal mit einem anderen Ton.
istockphoto-1149317024-612x612.jpg
 
  • Gefällt mir
Reaktionen: SweetOhm
Simon#G schrieb:
Ein Qualtiätsproblem beim Kabel also. Kann man nie völlig ausschließen.
Und was anderes ist es hier auch nicht: Qualitätsprobleme bei den Kabeln.
 
mibbio schrieb:
Dass der 32-Bit Support weggefallen ist, liegt schlicht daran, dass Blackwell keinen 32-Bit Support mehr für den nötigen CUDA Code hat.
Aber das es NVidia nicht schafft einen 64-Bit Wrapper/Emulationslayer zu schreiben, oder wenigstens eine Mehrkern SSE-Variante ist echt eine Enttäuschung für ein Milliardenunternehmen.
 
  • Gefällt mir
Reaktionen: catch 22, Patrick030, Sennox und 3 andere
Meine kam eben an. Alles ok :daumen:
 

Anhänge

  • GPU_Z.jpg
    GPU_Z.jpg
    113,2 KB · Aufrufe: 72
  • Gefällt mir
Reaktionen: Patrick030 und Wan900
kachiri schrieb:
Und was anderes ist es hier auch nicht: Qualitätsprobleme bei den Kabeln.
Ich seh das anders. Hier gehts nicht um China-Billig Produkte von Temu, sondern um das obeste Ende was Preis und Leistung von Consumer Grafikkarten angeht.
Für mich gibts was den Stecker angeht nur zwei Szenarien, beide sind schlecht für Nvidia. Entweder sie haben bewusst (fahrlässig) gehandelt oder schlampig. Diesen Stecker kann man nicht in der Art und Weise wie des Nvidia bei der FE getan hat verbauen, also ohne Absicherung der einzelnen Adern.
Wenn eine Leitung maximal 10A verträgt, kann ich nicht einfach 6 parallel ziehen und 60A drüber jagen. Das funktioniert nicht.
Das Video mit meinem elektrotechnischen Background lässt mir die Haare zu Berge stehen.
 
  • Gefällt mir
Reaktionen: Simon#G, Sennox, badcompany4life und 5 andere
Und auch dann wären das Problem die Kabel/Stecker immer noch vorhanden. Mit dem Unterschied, dass die Karte dann natürlich nicht abfackelt, sondern im Zweifel einfach nicht funktioniert. Wobei. Wie ist das dann bei den 3x 8-PIN einer 7900 XTX zu erklären? Eine Lastverteilung ist keine Lösung.

Die Problemlösung sind qualitätsgesicherte Kabel :)
 
ElliotAlderson schrieb:
Ein Lagerdenker, der bei der Liste sogar zugibt was vergessen zu haben. Passt irgendwie nicht zusammen?
Im Gegenteil zu allen anderen die mich hier kritisieren, war ich dazu in der Lage Fehler zuzugeben.
Ein gewisses Lagerdenken gestehe ich auch jedem zu. Wäre ja auch seltsam, den eigenen Konsum vor sich selbst nicht rechtfertigen zu wollen. Insofern gibt es bei deiner Argumentation auch einige valide Punkte. Und die bestreite ich auch keineswegs.

Wenn du dich aber selbst als irgendwie neutral darstellen willst, dann kann ich dem nicht zustimmen. Deine Fehler gibst du ja auch nur sukzessive in dem nicht abstreitbaren Maß zu. Nochmal zurück zur angesprochenen Liste. Da hast du nicht nur den wichtigsten Nvidiafail vergessen. In deiner Liste gab es auch den Punkt, AMD ist gierig, weil 9070 usw. Wie angedeutet halte ich das für rein spekulativ, will den Punkt, AMD sei 'gierig' aber nicht abstreiten. Warum auch. Auf der Seite Nvidia hast du die Gier aber weggelassen und das, obwohl Nvidia uns Gamer spätestens seit der 3000er Serie gegenüber allen anderen Käufergruppen (Miner, Compute, AI) benachteiligt und maximal möglich ausnimmt.
Spätestens hier ist es vorbei mit deiner Neutralität.
 
  • Gefällt mir
Reaktionen: Simonte, Sennox, eXe777 und 2 andere
lynxx schrieb:
Aber das es NVidia nicht schafft einen 64-Bit Wrapper/Emulationslayer zu schreiben, oder wenigstens eine Mehrkern SSE-Variante ist echt eine Enttäuschung für ein Milliardenunternehmen.
Das könnten sie sicherlich, nur was hätte Nvidia davon? Das ist doch für den Absatz der neuen Karten völlig egal, ob ein paar Leute damit noch 10 Jahre alte Spiele mit PhysX spielen können oder nicht. Die Karten verkaufen sich durch Raytracing, DLSS und Co, aber nicht wegen der Kompatibilität mit 32 Bit PhysX.

Der Wegfall von 32 Bit PhysX bei Blackwell hat doch im Endeffekt null relevanz für den Umsatz - es werden doch eh mehr Karten nachgefragt, als Nvidia liefern kann. Warum also Geld in die Entwicklung einer Emulation für 32 Bit PhysX investieren, wenn sich dadurch eh keine Karte mehr verkauft.
 
  • Gefällt mir
Reaktionen: Zarlak
kachiri schrieb:
Die Problemlösung sind qualitätsgesicherte Kabel :)
Nein.

Der Stecker selbst hat offenbar ein Problem, da er falsch bedient werden kann und eine "nichtverbindung" möglich ist. Erstes Problem.
Das Kabel kann durch die Komponenten trotz korrekter Verbindung überlastet werden, da keine Lastverteilung bzw. Überwachunug erfolgt. Zweites Problem.

Jedes Kabel bzw. Steckverbindung hat Fertigungsschwankungen und an jeder einzelnen Verbindung Übergangswiderstände. Für die beiden Seiten, wo das Kabel eingesteckt wird, kannst du als Hersteller des Kabels keine Qualitätssicherung durchführen. Pins von Grafikkarte und/oder Netzteil können "verdreckt" sein, sodass sich höhere Übergangswiderstände einstellen und schon "brennt" es.

Aktive Lastverteilung würde das Problem übrigens tatsächlich lösen. Vermutlich sogar die Lösung der 3090Ti. Wenig überraschend weiß Nvidia wie es gehen würde, hat sich aber aus Gründen dafür entschieden, es nicht zu tun.

Die aktuelle technische Umsetzung der Stromversorgung der Blackwell FE (und einiger Partnerkarten, kenne nicht alle im detail) ist nicht geeignet und hat systematische Fehler.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Patrick030, Baal Netbeck und Zarlak
Stramma schrieb:
Wenn du dich aber selbst als irgendwie neutral darstellen willst, dann kann ich dem nicht zustimmen. Deine Fehler gibst du ja auch nur sukzessive in dem nicht abstreitbaren Maß zu.
Naja, ich werde auch nur kritisiert ohne jegliche Einsicht bei den anderen zu sehen. Wieso sollte ich also auch?

Stramma schrieb:
Nochmal zurück zur angesprochenen Liste. Da hast du nicht nur den wichtigsten Nvidiafail vergessen. In deiner Liste gab es auch den Punkt, AMD ist gierig, weil 9070 usw. Wie angedeutet halte ich das für rein spekulativ, will den Punkt, AMD sei 'gierig' aber nicht abstreiten. Warum auch. Auf der Seite Nvidia hast du die Gier aber weggelassen und das, obwohl Nvidia uns Gamer spätestens seit der 3000er Serie gegenüber allen anderen Käufergruppen (Miner, Compute, AI) benachteiligt und maximal möglich ausnimmt.
Spätestens hier ist es vorbei mit deiner Neutralität.
Nein, denn ich habe nicht gesagt, dass AMD gierig ist. Meine Aussage war, dass AMD die 9070 zurückhält um wieder 50€ unter Nvidia anzusetzen und den Kunden maximal zu melken. Das kann man als Gier deuten und ich habe den Punkt bewusst nicht bei Nvidia erwähnt, weil niemals irgendjemand behauptet hat, dass wir Gamer Nvidia am Herzen liegen würde. Genau das behaupten aber viele aus dem AMD Lager. AMD wird als Samariter dargestellt, der sie nicht sind und das beweist dieser Punkt.

Dass Nvidia gierig ist, muss glaube ich niemand explizit erwähnen. Das sollte klar sein.
 
  • Gefällt mir
Reaktionen: Patrick030
mibbio schrieb:
Deswegen ist davon sind davon ja auch nur die RTX 5000er betroffen, während auf den älteren Karten bis einschließlich der RTX 4000er weiterhin 32 Bit PhysX nutzbar ist.
Nur das dieses Detail vorher niemand wusste! Wer erwartet denn das seine alten Spiele die Problemlos laufen sollten mit der neusten Karte, mit dieser schlechter laufen weil nvidia unkommentiert Features streicht bzw. beschneidet?
 
  • Gefällt mir
Reaktionen: catch 22, Patrick030, Sennox und 3 andere
mibbio schrieb:
Das Problem dabei ist, dass das nichts ändern würde. Bei Blackwell hat Nvidia in der Architektur schlicht die Abwärtskompatibilität zu 32 Bit CUDA ausgedünnt bzw. ganz entfernt. Und da PhysX nun mal auf CUDA aufsetzt, funktioniert 32 Bit PhysX schlicht nicht mehr mit der Blackwell-Architektur. Da kann man im Treiber erlauben, was man will, Blackwell führt das trotzdem nicht aus.
Naja, gehen täte es bestimmt, Apple schafft es (mit Performance-Einbusse natürlich) on-the-fly x86 Code auf ARM auszuführen, dann wird die Portierung von 32 Bit auf 64 Bit Code für nVidia wohl nicht "DER BERG" sein...

Aber klar, vermutlich sagen sie, geht halt auf CPU, ist einfacher für die paar Hanseln die diese alten Games noch zocken.
 
Und es ist ja jetzt auch nicht so, dass die älteren Spiel nicht mehr auf Blackwell-Karten laufen. Man kann in den Spielen dann lediglich keine gpu-beschleunigtes PhysX für die Effekte mehr einschalten. Lästt man PhysX halt abgeschaltet, denn mir ist kein Spiel bekannt, bei dem PhysX zwangsaktiviert ist.
 
mibbio schrieb:
Lästt man PhysX halt abgeschaltet, denn mir ist kein Spiel bekannt, bei dem PhysX zwangsaktiviert ist.
Naja aber dann kannst auch das Game meist vergessen, weil es grottig aussieht.
PhysX ist ja nicht ohne Grund implementiert worden.

Naja aber es werden wohl eher wenige USer ältere Games spielen, die das noch nutzen. Sooo viele Games sind es ja nicht.
 
  • Gefällt mir
Reaktionen: catch 22
mibbio schrieb:
Lästt man PhysX halt abgeschaltet, denn mir ist kein Spiel bekannt, bei dem PhysX zwangsaktiviert ist.
Ist die Frage ob das rein für PhysX genutzt wurde, oder ob auch andere Gameworks Effekte darüber laufen.

Es gab ja schon einige Gameworks Spiele, die auf AMD extrem schlecht liefen(auch ohne aktives PhysX) und da könnte schon mal jemand nachprüfen, ob die nun auch auf RTX 5000 schlecht laufen.

Ich bin nicht grundsätzlich dagegen irgendwann mal den Support für veralteten Code zu streichen. Auch unsere CPUs könnten gerne einige Befehlssätze aus den 90ern weglassen und dafür effizienter werden, aber man muss es halt kommunizieren.
 
  • Gefällt mir
Reaktionen: Sennox, Hellyeah, badcompany4life und eine weitere Person
ElliotAlderson schrieb:
Naja, ich werde auch nur kritisiert ohne jegliche Einsicht bei den anderen zu sehen. Wieso sollte ich also auch?
Dann wiederhole ich mich. Du hast schon etliche valide Punkte. Man muss sich allerdings nicht als neutral verkaufen, wenn man es (offensichtlich) nicht ist. Und da hat mich deine Nvida-AMD-Fails Auflistung schon zum Lachen gebracht.
Meiner Ansicht nach ist ein offenes Bekenntnis zu einer Meinung aber auch nichts Schlimmes. Also weitermachen ;)
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Zurück
Oben