News ROP-Defekt bei Gaming-Blackwell: Neben RTX 5090 & 5070 Ti ist auch die RTX 5080 betroffen

Weyoun schrieb:
Wenn man sich mal überlegt, dass Nvidia auch im Automotive-Bereich unterwegs mit ihren "Supercomputern" bzgl. teilautonomen Fahrfunktionen, dann wird mir ganz anders bei dieser "Qualitätsoffensive". :heul:
Keine Sorge, für den Automobil-Bereich gibt es die IATF (IATF 16949).

Die Automobilbauer sind sehr an Qualitätskontrolle und Dokumentation interessiert, da kommt man mit solchem Schundluder nicht durch.
Quelle: Arbeite für einen Silikonhersteller, der an Automotive liefert
 
  • Gefällt mir
Reaktionen: Patrick030
kachiri schrieb:
Das bleibt abzuwarten. Und wenn, kann man davon ausgehen, dass auch die NV-Karten preislich nachgeben :)
Wer kauft für 1200-1400 Euro eine 5070 Ti, wenn er ähnliche Leistungswerte für 800-1000 Euro auch aus einer 9070 XT bekommt ;)
Naja da gibt es einige die in vergleichbaren Fällen zu Team Grün greifen.
Hat man doch bei den 6000 und 7000er AMD GPUs gut gesehen.
 
  • Gefällt mir
Reaktionen: Hellyeah und aklaa
Mit der RTX 5060 wird es besser‼️ Viel besser ‼️
 

Anhänge

  • IMG_0099.jpeg
    IMG_0099.jpeg
    126,4 KB · Aufrufe: 90
  • Gefällt mir
Reaktionen: -MK und aklaa
SweetOhm schrieb:
Meine R9 390X OC (8 GB / 512 Bit / 400 GB/s) rockt/e auf alle Fälle CS OHNE "Probleme" !! :cool_alt:
Hatte damals ne 280X und später ne 290 die ich auf "X" flashen konnte.
Hatte auch nirgends Auffälligkeiten.
Ergänzung ()

ruthi91 schrieb:
Erzähls den Leuten die sich bewusst gegen eine 290/390 entschieden haben aus oben genannten Gründen :freaky:
Flitzpiepen gibt's halt immer.
Beim Duell GTX 1060 vs. RX 480 haben auch ein paar versucht mit "höherem" Verbrauch die AMD schlecht zu reden.
Dass erst mal die 2 GB mehr RAM auch ein paar Watt brauchen und realistisch gerechnet der Mehrverbrauch im Jahr sich vielleicht auf 5€ beläuft wurde da gekonnt ignoriert.

Gute Kühler gab's zu der Zeit in beiden Lagern, gerade meine 290 war ein Traum bzgl. Lautstärke.
Ergänzung ()

Quidproquo77 schrieb:
Warum das ein ganz anderes Level sein soll, als eine verschmorte CPU im Sockel erschließt sich mir nicht. Die Messungen der fließenden Ströme zeigen ja eigentlich unisono, dass man das so machen kann, ohne dass es außer bei Einzelfällen mit defekten Kabeln dann zum Problem wird.

Sinnvoll wäre es bei allen solchen Defekten abzuwarten und zu schauen wie häufig sie auftreten.
Naja diese Probleme gab es ähnlich ja bereits mit der 40er Reihe also ist dass hier schon ein wenig anders als "normale" Einzelfälle wie sie bei jeder Hardware auftreten kann und jetzt nicht neu.
Und es ist noch mal ein anderes Level weil wir hier von einem 2.400+ € Produkt sprechen 😁
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und eXe777
Pesky_ schrieb:
Die 6700XT Red Evil ist echt eine tolle Karte. Nur leider nicht stark genug, um Capcoms schlechten Code in MH Wilds zu brute-forcen :freak:
Ich kann's nur immer wieder empfehlen erst mal Tests abzuwarten.
Der Beta Build soll über ein Jahr alt gewesen sein und Treiberupdates kommen da ja auch noch.
Gut möglich dass sich an der Performance noch was verbessert, ich denke in spätestens zwei Wochen kann man sich ein klares Bild davon machen.
Ergänzung ()

mibbio schrieb:
Und es ist ja jetzt auch nicht so, dass die älteren Spiel nicht mehr auf Blackwell-Karten laufen. Man kann in den Spielen dann lediglich keine gpu-beschleunigtes PhysX für die Effekte mehr einschalten.
Stimmt schon, bei über 2.000€ muss man halt mit Kompromissen rechnen, hätte man lieber High End kaufen sol.... Warte mal!

Kauft man sich nicht so ne Karte weil man den "längsten" haben und alle Regler auf "Ultra" stellen will?
Dann soll man bei 10+ Jahre alten Spielen PhysX abschalten 😂
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pesky_
lynxx schrieb:
Bei der Liste wäre ich vorsichtig.
NVIDIA hat den Support des "alten" 32 Bit PhysX / CUDA gestrichen, nicht des aktuelleren und nun verwendeten 64 Bit. Und dass aktuelle Titel wie Alan Wake 2 oder Black Myth Wukong, betroffen sein sollen, indem sie das PhysX in 32 Bit nutzen, würde ich erst mal nicht glauben.
Das scheint einfach nur eine Auflistung Spiele zu sein , die PhysX nutzen, ohne zu differenzieren in welcher Version
 
  • Gefällt mir
Reaktionen: N0Thing, Atnam, mibbio und 2 andere
Tja, 'mal schauen wie schnell das nVidia auf die Reihe bekommt mit dem fehlerhaften/degradierendem Silizium:

An important point to note here is that NVIDIA says that their upcoming "mid-range" GeForce RTX 5070 GPU won't be affected by the issue, indicating that Team Green might have resolved the silicon defect, or at least found a workaround.

Bei den sehr guten Boardpartner Karten (wie der schicken RTX 5090 Aorus Master scheinbar, siehe nachfolgendes Video) wäre es schon schade für Käufer, wenn die ROPs einem einen Strich durch die (hohe) Rechnung machen würden:

 
  • Gefällt mir
Reaktionen: Patrick030
Rockbreak schrieb:
Nvidia kriegt ja gar nichts mehr gebacken, können scheinbar nicht einmal mehr funktionsfähige Karten in anständiger Stückzahl fertigen.
Oh doch, das wichtigste bekommen sie gebacken: Sie bekommen allen Mist an ihre Kundschaft verkauft, es wird ihnen aus den Händen gerissen. Und das muss man erstmal schaffen!
 
  • Gefällt mir
Reaktionen: cma_i, the_IT_Guy, Sennox und eine weitere Person
catch 22 schrieb:
NVIDIA hat den Support des "alten" 32 Bit PhysX / CUDA gestrichen, nicht des aktuelleren und nun verwendeten 64 Bit.
Und auf Leute, die gar keine RTX 5xxx verwenden, sondern noch irgendeinen Vorgänger im PC haben, sind davon ja auch gar nicht betroffen. Auf den bisherigen Karten läuft ja PhysX auch weiterhin mit 32Bit. Nur bei Blackwell (und wahrscheinlich auch den darauf folgenden Architekturen) ist es nicht mehr nutzbar.

Sicherlich ist es für den Einzelnen eventuell blöd, wenn man sowohl aktuelle Spiele flüssig zocken will und irgendwann auf RTX 5xxx oder einen Nachfolger upgradet und gleichezeitig noch 10+ Jahre alte Spiele mit aktiviertem PhysX spielen möchte. Aber letztlich schneidet jeder Hersteller dann und wann mal alte Zöpfe ab, um seine Hardware besser auf neue Anforderungen hin optimieren zu können.

Bei x86 CPUs gibt es ja mittlerweile auch schon leise Stimmen, dass man den 32Bit-Support generell abschaffen könnte, weil das massig Transistoren einsparen und die CPUs auch ein Stück weit weniger komplex machen würde. Dadurch könnte man dann wiederum die Performance oder die Effizienz stärker steigern, wenn man nicht mehr die Bestandteile für den 32Bit-Support in der Architektur mitschleppen muss.
 
  • Gefällt mir
Reaktionen: cma_i und catch 22
@-MK bitte auf meine Wortwahl achten ;)
ich sagte extra "potentielle Kunden".
Auf Dauer werden davon (oder wollten zumindest) einige sicher irgendwann mal aufrüsten und ein großer Teil dann auf Nvidia.
 
  • Gefällt mir
Reaktionen: -MK
HAse_ONE schrieb:
ach... welcher Image Schaden? Meiner Meinung nach war das Thema bei der 970 noch deutlich größer und das hat auch keinen wirklichen Schaden angerichtet.

Es bekommt doch auch keiner mit, der nicht in irgendwelchen Reddits oder Foren aktiv ist. Viele kaufen sich so eine karte, ballern die in den Rechner rein und gut ist, oder kaufen gleich einen komplett PC. Wie viel Rops ihre Karte hat, interessiert die nicht und die wenigsten werden dann Benchmarks machen und dann online vergleichen, ob ihre Karte denn so performt die sie soll.

Wie auch Steve von GN gesagt hat, kann ich mir auch nicht vorstellen, dass in der gesamten Kette keiner gewusst hat, dass es solche Karten gibt. Jede GPU wird durchgetestet, dann wird die an die Boardpartner verschickt, welche daraus eine Grafikkarte machen und nochmal alles durchgecheckt. Also entweder haben sie es gewusst, oder sind alle inkompetent.
Ich gehe auch davon aus, daß irgendwelche (Un) Verantwortliche bei Nvidia es schon vor dem Launch gewusst haben. Die Chips werden schließlich nach dem Zerschneiden der Wafer getestet und gebinned. Meine Theorie (mehr ist es nicht) ist daher eher auch, daß irgendwo in der Datenbank geschludert oder nicht nachgeguckt wurde. Alternativ dazu ist beim Teil-Inaktivieren etwas schiefgelaufen, aber das wäre wirklich extrem fahrlässig (sowas wird normalerweise auch noch verifiziert, da wäre es aufgefallen).

Zum Thema Otto Normalverbraucher würde fehlende ROPs nicht merken: Otto Normalverbraucher wahrscheinlich nicht; aber, wer kauft sich denn so eine 5090? Das sind IMHO keine "Normalos", sondern eher Enthusiasten, die sich sehr für ihre Hardware interessieren. Und die (wir, auch ohne 5090 zähle ich mich dazu 😁) schauen schon genau hin, v.a. wenn das gute Stück auch noch deutlich mehr als € 2500 kostet, wenn man dafür überhaupt eine kriegen kann.
Eine Karte für € 200 (gibt's heute ja auch nicht mehr) kann bei Otto Normalverbraucher oder Lieschen Müller im billigen Fertig PC landen, und denen würden 5 % weniger FPS nicht weiter auffallen. Wer sich eine 5090 holt/holen konnte wird sich das ganze doch genau ansehen und durchtesten, egal ob selbst verbaut oder im (sauteuren) Komplett PC.
 
coxon schrieb:
Wie schafft es so eine Charge in den Handel? Und warum fällt das niemandem auf? Ich checks nicht.
Viel schlimmer ist die Frage, wieso Nvidia nicht VON SICH AUS aktiv wird - denn der Sachverhalt war doch jetzt schon lange genug öffentlich (und intern sicher noch viel länger) bekannt.

Es ist einfach traurig, dass in solchen Vertuschungsfällen nicht viel investigativer z.B. seitens einer Staatsanwaltschaft untersucht und im Schuldfall extrem empfindliche Strafen ausgesprochen werden.

Es kann einfach nicht sein, dass ich ein Produkt verkaufe, welches einem Serienfehler unterliegt und ich als Hersteller bewusstes Stillschweigen ausübe, in der Hoffnung, dass niemand etwas davon bemerkt.

In der KFZ-Branche hat dies schon Todesopfer gefordert (Ford in den 70er Jahren mit dem verkorksten Pinto), weshalb es dort seither klare Angaben für Rückrufaktionen sowie auch extrem empfindliche Strafmaße gibt.

Schade, dass immer erst Menschen (gesundheitlich) zu Schaden kommen müssen, denn rein finanziell darf man als (großes) Unternehmen scheinbar weiterhin sein Schindluder treiben, ohne dass es von irgend jemandem abgestraft würde (und die Käuferschaft ist leider zu blöde, da mal gemeinsam ein paar Jahre am selben Strang zu ziehen).
 
  • Gefällt mir
Reaktionen: Sennox, coxon und Baal Netbeck
catch 22 schrieb:
NVIDIA hat den Support des "alten" 32 Bit PhysX / CUDA gestrichen, nicht des aktuelleren und nun verwendeten 64 Bit. Und dass aktuelle Titel wie Alan Wake 2 oder Black Myth Wukong, betroffen sein sollen, indem sie das PhysX in 32 Bit nutzen, würde ich erst mal nicht glauben.
64bit PhysX bringt aber nix, wenn das Nvidia Control Center bei den PhysX-Einstellungen KEINE Blackwell GPU einstellen lässt.
Man sollte doch bei einem angeblichen 64Bit PhysX davon ausgehen können, wäre ein 64Bit PhysX tatsächlich vorhanden und nutzbar, dass die GPU hier einstellbar ist.
Da aber Nvidia diesen Code Cuda-Treiber entfernt hat (auch wenn es ein 32Bit Code war), fehlt die PhysX-Unterstützung bei Blackwell merkwürdigerweise nun komplett und daher ist ein angebliches 64Bit-PhysX in meinen Augen nicht vorhanden, weil eben im Control Panel keine Blackwell GPU erscheint bzw. auswählbar ist.

Auch in GPU_Z ist das Feld "PhysX" leer bei Blackwell.
Wäre ein 64bit PhysX tatsächlich vorhanden, müsste hier doch wieder ein Häckchen sein und eventuell auf 64bit veweisen.
Daher gehe ich davon aus, dass eben Titel wie Alan Wake 2 oder Black Myth Wukong "nur" das 32bit PhysX nutzen aber kein 64Bit (wenn das dann wirklich vorhanden und nutzbar ist).
Auch wenn es diverse PhysX-Dateien mit "64" im Namen gibt, zweifliche ich, dass es tatsächlich ein echtes 64Bit PhysX gibt.
Die Nutzbarkeit eines angeblichen 64Bit-PhysX ist ja nicht abhängig von installierten Games oder Apps, sondern sollte dann generell vorhanden sein im Control Panel, was es aber eben nicht ist.
 
  • Gefällt mir
Reaktionen: the_IT_Guy und Baal Netbeck
wern001 schrieb:
Früher ging das. Man konnte die Grafikkarte per zwangsmäßigen BIOS-Upgrade gelentlich auf eine bessere Grafikkarte "upgraden". Manchmal ging es auch per anderem "besseren" BIOS auflöten.
Inzwischen werden die Teile getestet und dann per Laser leiterbahnen durchtrennt.
Das mit dem per Laser leiterbahnen durchtrennt glaube ich nicht viel zu aufwendig, da müsste der Laser nm groß sein und genau fokussiert, das ist extrem teuer. Nein das ist 10000% über die vielen kleinen Chips gesteuert um den Chip herum. oder eine Art Microcode.
Ergänzung ()

-MK schrieb:
Was hat das mit Kondensatoren zu tun? Und wie willst du einen Kondensator "hacken"? Weißt du überhaupt, was ein Kondensator ist und was er macht?
ja klar weis ich das XD

 
inge70 schrieb:
Auch wenn es diverse PhysX-Dateien mit "64" im Namen gibt, zweifliche ich, dass es tatsächlich ein echtes 64Bit PhysX gibt
Zumindest gibt es aktuell kein Spiel das eine 64bit physX (Hardware Beschleunigung) verwendet, sollte diese existieren.

Zusätzlich, solange Nvidia es nicht offen legt ist es auch unmöglich einen 32 auf 64 bit Anpassung zu schreiben ohne deren Hilfe.

Im Prinzip hat Nvidia eine exklusive Technologie rausgenommen, die 32bit im Marketing voran gesetzt damit es nicht so schlimm klingt wie es ist aber trotzdem alle betrifft welche physX Hardware Beschleunigung verwendet haben, und vor allem für kleinere Hersteller welche nicht gesponsert werden stellt sich dann die Frage ob man in Zukunft noch auf sowas setzen sollte

Während andere ältere Titel wie Warframe physX wegen der Nvidia Abhängigkeit gegen was anderes getauscht haben, benutzen die meisten "neueren" Spiele nur die Software Variante über die CPU (zB Witcher 3) statt der Hardware Beschleunigung und die läuft auf 64bit.

PS: ist schon lange her aber ich glaube bei Witcher 3 waren die Haare über Hardware PhysX weswegen Radeon Karten eingebrochen sind wenn man diese aktiviert hatte
 
  • Gefällt mir
Reaktionen: Sennox und the_IT_Guy
@KodosDerHenker,

so wie ich das sehe gibt es keine 64bit Hardwarebeschleunigung, wie Du schon schreibst, sondern lediglich auf Softwareebene und somit über die CPU (wahrscheinlich Windows 64bit geschuldet), was das Ganze dann obsolet macht und es sieht so aus, als sei eben der ganze PhysX Code (der da wohl nur in 32bit vorlag) aus dem Cuda-Treiber verschwunden, weil es den nicht als 64bit gab.
Zumindest zeigt das sich ja so im Nvidia Control Panel und auch GPU_Z, dass eben diese Hardwareunterstützung nicht mehr existent ist, weil sie nur in 32bit vorhanden war.
Würde er als 64bit im Treiber vorliegen, müsste das Control Panel eigentlich die Hardwarebeschleunigung der GPU aufzeigen, was eben nicht der Fall ist bei Blackwell.

Ich glaube Nvidia hatte nie einen 64bit-Code für den Cuda-Treiber und der Hardwarebeschleunigung, wie Du selbst schon angemerkt hast.
Da hat Nvidia mal einen weiteren Bock geschossen denke ich, auch wenn PhysX heutzutage kaum bis keine noch eine Rolle mehr spielt in neueren Games.
Aber sie schießen damit die existierenden PhysX-Games ins Nirvana und das ohne Rücksicht auf Verluste.

Aber so haben Sie ihre GPU's denen von AMD bei PhysX zumindest gleich gestellt und sich dahingehend ein Alleinstellungsmerkmal genommen, auch wenn es eben "nur" ältere Games betrifft, die das nutzten.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben