News Radeon RX 7900 XTX: Temperaturprobleme zwingen AMD jetzt doch zum Handeln

Zer0Strat schrieb:
Meine Karte hatte 110°C Hotspot im vertikalen Aufbau.
Interessant wäre mal ob die möglichkeit hättest eine Funktionstüchtige Karte zu bekommen und dann einen Kühlerswap zu machen, damit könnte man dann ausschließen das es ein Kühler Problem ist od. es definitiv bestätigen.
 
Zuletzt bearbeitet:
MrHeisenberg schrieb:
Gut, dann waren es eben "nur" die Kondensatoren: https://videocardz.com/newz/manufacturers-respond-to-geforce-rtx-3080-3090-crash-to-desktop-issues

MrHeisenberg schrieb:
Jeder Stecker schmilzt bei schlechter Montage weg, wenn du Pech hast und die alten Stecker waren auch nur für 30 Zyklen konzipiert. Wie lange wird der Nonsense eigentlich noch verbreitet?
Und darum gibt es technologischen Fortschritt: Damit alles beim Alten bleibt?

MrHeisenberg schrieb:
Da schmilzt nichts weg. Bevor das passiert, throttelt sie ihre Leistung.
BGA-Lötpaste hat einen Schmelzpunkt ab 138°C, je nach Hotspot kann es zumindest zu gravierenden Problemen kommen.

MrHeisenberg schrieb:
Das waren Userfehler und Nvidia war so kulant und hat die Karten trotzdem ersetzt. AMD weigerte sich erst.
Nvidia hat auch erstmal nur die Karten in die RMA genommen, bei AMD geht es erst los. Bevor hier AMD verdammt wird, sollte man mehr als ein paar Tage zwischen den Jahren abwarten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Zocker1996 und Benji18
Ich habe wirklich ewig auf die 7900XTX gewartet, aber so einen vermurksten Launch habe ich dann doch nicht erwartet. Dass das Ding wieder gescalped wird und am Anfang kaum zu bekommen sein wird, ja klar.

Bei der ersten nicht monolithischen GPU bzw. beim ersten MCM-Design sind natürlich auch mal div. Probleme bei Treibern zu erwarten oder dass ggf. Spiele erst daraufhin optimiert werden müssen. Alles klar soweit...
Aber das was jetzt in Summe so passiert ist, kann man sich auch als AMD-Fan kaum noch schön reden.

Erst overhypen sie ihr eigenens Produkt in ihrer hauseigenen Pressekonferenz.
Faktor 1.7x wenn 6950XT vs. 7900XTX in Rasterizern... schafft die Karte nicht.
Faktor 1.6x wenn 6950XT vs. 7900XTX in Raytracing... schafft die Karte nicht.

Dann bei nVidia über die eventuelle Notwendigkeit lästern, dass man sich ggf. ein neues NT kaufen muss, dann aber am Ende in allen Lebenslagen den höheren Stromverbrauch haben, als der selbst-ernannte Gegenspieler in Form der RTX4080.

Dann möchte man dank MCM natürlich den deutlich niedrigeren Preis erzielen. Davon sehe ich nichts.
Die günstigste 7900XTX die ich aktuell verfügbar sehe ist ein MBA-Desing (dass ja keiner haben will) für 1349€.
Super. Bei der RTX4080 bekomme ich 3 unterschiedliche Custom-Modelle für weniger Kohle.

Dann der viel zu hohe Idle-Verbrauch... ja sicher kann man sowas nachträglich via Software lösen.
Aber wieso kommt die Karte in dieser Form überhaupt auf den Markt, nach der langen Entwicklungszeit?

Dann defekte Vapor-Chambers direkt vom Hersteller. Ja, danke.
Ist dass bei der Qualitäts-Kontrolle in dem MulitMilliarden-Konzern niemandem aufgefallen?

Man kann über die RTX4080 schimpfen soviel man will, aber es ist das deutlich rundere Produkt.
Rasterizer-Leistung ist ident. mit der 7900XTX. RT-Performance ist überhaupt kein Vergleich.

Der Stromverbrauch der 4080 ist in Lebenslagen geringer.
Die Temps sind allesamt besser. Selbst der eigentlich heissere GDDR6X bleibt kühler (72°C) als der GDDR6 bei AMD. Selbst das fehlerfreie Sample der 7900XTX im CB-Test kam auf 92°C.

Das Feature-Set bei nVidia ist besser (z.B. NVENC-Encoder, Reflex, DLSS2 sieht etwas besser aus als FSR usw.)
Der viel belächelte Preis der 4080 liegt unter dem Marktpreis des Heilsbringers 7900XTX.

Einzig der 12VHPWR-Stecker der 4080 kann als störend empfunden werden; wobei man das auch etwas in Relation setzen muss. Die 0,04% Fehlerquote der 4090 ist sicher nicht besonders toll und selbst wenn das Anwenderfehler waren, darf der Stecker nicht so entworfen sein, dass diese Fehler passieren können.
Bei der 4080 hat es aber keine solchen Fälle gegeben. Die Leistung die hier über den 12VHPWR gehen muss, ist ja auch viel geringer.

Welche Gründe sprechen jetzt noch dafür, die 7900XTX der RTX4080 vorzuziehen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gesperrter_User, Pro_Bro, Backfisch und 15 andere
tomgit schrieb:
Nein. Die Karten boosteten zu stark und das wurde durch ein Treiberupdate gefixt.
Auch hier lagen Igor und co. mal wieder falsch.

tomgit schrieb:
Und darum gibt es technologischen Fortschritt: Damit alles beim Alten bleibt?
Bei den alten Steckern hat sich niemals jemand darüber beschwert. Warum etwas verbessern, was kein Problem darstellt?

tomgit schrieb:
BGA-Lötpaste hat einen Schmelzpunkt ab 138°C, je nach Hotspot kann es zumindest zu gravierenden Problemen kommen.
Deswegen throttelt die Karte ab 110°C auch. 28°C Spielraum reichen locker aus. Das macht übrigens jede aktuelle GPU/CPU. Du könntest den Kühler im laufenden Betrieb bei einer Intel CPU entfernen und sie würde sich soweit runtertakten, dass sie nicht überhitzt.
Jemand wie du, sollte das wissen ;)

tomgit schrieb:
Nvidia hat auch erstmal nur die Karten in die RMA genommen...
Ja, sofort ohne Widerrede. Wie war das nochmal bei AMD? ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: !Whip, Sirhaubinger, Zocker1996 und 6 andere
Früher gab's durchaus mal Probleme mit Customs Designs. Falsch montierte Kühler, Wärmeleitpads etc. Auch bei der GTX 1070er Serie

Jetzt potenziell bei AMDs 7000 mit den ganzen Referenzkühlern, potenziell komplettes Fehldesign. Offenbar ist die Chefetage hier mittlerweile derselben Ansicht wie bei den Spieleentwicklerstudios.

Bugfest? Release im Beta-Stadium? Qualitätssicherung kaputt sparen? Egal wird eh am Markt weggekauft, fast egal zu welchem Preis, ganz egal in welchem Zustand wir das releasen. Besser früher als später, das spart Arbeitszeit und Kosten. Lieber im Nachhinein ggf. nachbessern, wenn der Zustand dem Markt eh erstmal egal ist...

Und das bei Karten die gut 1K +X kosten. Frechheit.
 
  • Gefällt mir
Reaktionen: LTCMike, Zitterrochen, Marko50 und eine weitere Person
Früher, vor vielen Jahren, gab es einfach eine (!) GPU-Termperatur und gut war. Vor nicht allzu langer Zeit, hatte man dann zusätzlich noch den Hotspot eingeführt. Warum eigentlich? Einfach, weil es Bereich innerhalb des Dies gibt, die besonders heiß werden? Welche sind das denn?
 
  • Gefällt mir
Reaktionen: Snoop7676, Onkel Föhn und Rockstar85
Nitschi66 schrieb:
Igors tests sind gut aber oftmals etwas reißerisch. Da muss man etwas vorsichtig sein. Igor lehnt sich gerne etwas weiter aus dem Fenster (was ja auch ok ist) aber als Leser muss man das gerne mal bei anderen nachchecken.
Wie gesagt, wie viele Probleme mit schmelzenden Ports hatte man mit PCIE 6 od. 8 Pin vs dem 16 Pin Design? Wird schon was dran sein und wenn die Fertigungstoleranz beim Stecker halt so groß ist das er bei manchen nicht ordentlich einrastet ist das auch primär ein Stecker Problem (Qualität) nicht des Users direkt.

Wie gesagt ich kann zu dem Stecker Typ nichts sagen, ich erwarte mir bei den Preisen zumindest einen Qualitativ gleichbleibenden Stecker und das die PCI-SIG die Hersteller auf nötige Qualitätssicherung hinweisen muss sagt auch einiges aus^^
 
  • Gefällt mir
Reaktionen: LTCMike und Zocker1996
AMD hat diese Gen einfach verkackt, Punkt. Die können jetzt nur noch über den Preis regeln. Die 4080 ist viel interessanter und gegen die 4090 haben sie überhaupt nichts. Schade, denn letzte Gen waren sie wenigstens auf Augenhöhe, Raytracing mal ausgenommen.
 
  • Gefällt mir
Reaktionen: LTCMike und CrustiCroc
Faust2011 schrieb:
Früher, vor vielen Jahren, gab es einfach eine (!) GPU-Termperatur und gut war. Vor nicht allzu langer Zeit, hatte man dann zusätzlich noch den Hotspot eingeführt. Warum eigentlich? Einfach, weil es Bereich innerhalb des Dies gibt, die besonders heiß werden? Welche sind das denn?
Also wenn ich die Aussage richtig verstehe ist das ein Spitzenwert von allen Sensoren

"Basically, on the GPU die there are hundreds of temperature sensors. What GPU hotspot temperature shows you, is the maximum measured temperature of all the sensors."
 
  • Gefällt mir
Reaktionen: Faust2011
Benji18 schrieb:
wo hat er den Kühler geöffnet? Das Video ist auch das was im Artikel referenziert wird.
Lesen hilft.
Im Artikel steht,, dass er es NICHT gemacht hat mangels Zeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: !Whip
Benji18 schrieb:
@MrFlip0815 betrifft aber ee nur das Referenzdesign, wenn du dir lieber eine custom Karte kaufen willst ist das Thema hinfällig.
Zumindest in Deutschland spielen die Customdesigns aber preislich bislang keine Rolle. Das gute P/L bietet die 7900 XTX ja schließlich bislang nur im Refdesign und zwar ausschließlich direkt von AMD bezogen.
 
Faust2011 schrieb:
Früher, vor vielen Jahren, gab es einfach eine (!) GPU-Termperatur und gut war. Vor nicht allzu langer Zeit, hatte man dann zusätzlich noch den Hotspot eingeführt. Warum eigentlich? Einfach, weil es Bereich innerhalb des Dies gibt, die besonders heiß werden? Welche sind das denn?

Es macht eben total Sinn, einen Hotspot zu erfassen, da der Kern für eine bestimmte Maximaltemperatur designt ist, bevor es zu thermischen Schäden kommt. Und da ist es eben entscheidend, dass diese Temp an allen beliebigen Punkten unterschritten wird und nicht nur das Gesamtpaket. Denn auch ein Schaden an einer kleinen Anzahl an Transistoren reicht ja aus, um zum kompletten Defekt zu führen.
 
  • Gefällt mir
Reaktionen: Faust2011
TenDance schrieb:
Was hat denn die GPU-Architektur mit dem Kühler zu tun?
Wenn du meinen Post gelesen hättest wüsstest du, dass die Problematik hier einfach ein weiterer Baustein vom verkorksten rdna 3 Release ist. Der Kühler wurde für rdna 3 entwickelt und ist genauso unfertig wie die eigentliche GPU
 
CDLABSRadonP... schrieb:
Zumindest in Deutschland spielen die Customdesigns aber preislich bislang keine Rolle. Das gute P/L bietet die 7900 XTX ja schließlich bislang nur im Refdesign und zwar ausschließlich direkt von AMD bezogen.
ich habe mir persönlich noch nie ein Ref Design gekauft ohne der absicht einen Wakükühler draufzuklatschen. Ansonsten waren es immer durchwegs customs, weil besserer Kühler, besseres Boardlayout, oft ein höherwertiges PCB. Das ist mir einen Aufpreis wert.
 
  • Gefällt mir
Reaktionen: Cyberbernd
Gerithos schrieb:
Wenn du meinen Post gelesen hättest wüsstest du, dass die Problematik hier einfach ein weiterer Baustein vom verkorksten rdna 3 Release ist. Der Kühler wurde für rdna 3 entwickelt und ist genauso unfertig wie die eigentliche GPU
würde ich nicht so behaupten .... Ansonsten hätten alle das Problem, da es aber nur einige haben, sehe ich das Thema eher in mangelnder Qualitätssicherung beim Hersteller der VC. Aber warten wir mal ab ob das wirklich das Thema ist, ggf. ist es ein fehlerhafter Temperatur sensor im DIE wer weiß
 
Bestärkt mich immer mehr, PC Hardware nicht gleich zum Release zu kaufen. Da lasse ich gerne die Versuchskarnickel vor. :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Zitterrochen, guzzisti und eine weitere Person
Zurück
Oben