Nein ist es eben nicht das eine GPU das andere RAM , eben andere Betriebs temps da werden Steine mit Apfel verglichenGERmaximus schrieb:110grad sind 110grad und einfach zu heiß. Nvidia hat es auch nicht gekümmert.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Radeon RX 7900 XTX wird heiß: Vapor-Chamber ist als Ursache offiziell bestätigt
Alleine hier im CB Forum sind es 100.DennisK. schrieb:Kleine Charge, aber scheinbar hunderte, wenn nicht tausende GPUs weltweit betroffen. Wie groß sind denn normale Chargen dann erst?
DocWindows
Vice Admiral
- Registriert
- Mai 2013
- Beiträge
- 6.812
Taurus104 schrieb:Als positiv sehe ich auch die Aussage zum Ende des Videos das AMD ... in Zukunft auf "Spitzen" und Abspielungen gegen Konkurrenzprodukte verzichten werde
Das glaube ich erst wenn ich es sehe, bzw. nicht mehr sehe. Man hatte schon mehrfach die Gelegenheit zu dieser Einsicht zu kommen, aber es nicht geschafft.
captaincapri
Lieutenant
- Registriert
- Dez. 2013
- Beiträge
- 678
Der Vergleich hinkt trotzdem meiner Meinung nach.GERmaximus schrieb:Ja ist mein Ernst und nein die Karte lief beim ganz normalen Gamer über 100grad vram.
Gibts threads etc zu
Beispiel:
https://www.hardwareluxx.de/community/threads/rtx-3090-fe-lüftersteuerung-temp-vram.1300757/
War selbst bis vor Kurzem auf einer 3090 FE und hatte beim Zocken VRAM-Temps im Bereich 90-100C. Die meiste Zeit in einem Define R6 wohlgemerkt, also nicht grade mit grandiosem Airflow. Aufgrund der ganzen Panikmache bei CB und HWluxx (in erster Linie wahrscheinlich tatsächlich von Minern) habe ich dann unter die Backplate passende WL-Pads gepackt, womit die VRAM-Junction Temperaturen ein paar Grad gesunken sind. Das ganze ist ohne Probleme auf den Urzustand zurück zubauen, falls ein Garantiefall eintritt.
Im Nachhinein denke ich mir: Hätte ich mir auch sparen können.
Die Karte hat 3 Jahr Garantie und wenn irgendwas mit dem GDDR6X passiert wäre, hätte ich sie eben eingeschickt. Die Performance eingeschränkt haben die beschriebenen Temperaturen jedenfalls in keiner Weise. Der OC-Headroom war nur etwas geringer als bei den einseitig bestückten 30XXer Modellen. Vielleicht hat eher das einige Leute gewurmt.
Wenn man ein Beispiel für einen kleinen Skandal bringen will, dann vielleicht eher das "New Worlds"-Debakel mit den 3090ern, wobei hier die RMAs extrem gut gelaufen sind, soweit ich das mitbekommen habe (war selbst nicht betroffen).
Capthowdy
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.965
Nochmal: es ist nicht nVidias Stecker! Der Stecker wurde von etlichen Firmen gemeinschaftlich entwickelt, u. A. auch von AMD: https://pcisig.com/membership/member-companiesLegalev schrieb:Nvidia Stecker - Zulieferer- nicht Nvidia
Wenn du jetzt nicht beweisen kannst dass AMDs Kühler ebenfalls ein Gemeinschaftsprojekt war, dann hörst du an dieser Stelle besser auf dich lächerlich zu machen.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.420
Wo hat das was mit bashing zu tun? Der Hersteller hat was ausprobiert, es wurde nicht angenommen. Nur hatte NV das halt schlecht an die User gebracht, nämlich nicht kommuniziert sondern 4GB auf die Verpackung geschrieben. Somit war das "Feature" tot. Wer ist schuld. NV selbst.Capthowdy schrieb:Ich hatte eine GTX 970 und es war mir in der Tat völlig egal, hatte keine Probleme mit der Karte. Warum man heute noch darüber jaulen muss, kannst du mir aber gern erklären. Außer bashing sehe ich da keinen Grund.
Wie gesagt, so hätten wir heute eventuell Karten mit mehr Speicher nur eben anders angebunden.
- Registriert
- Juni 2006
- Beiträge
- 44.444
Ich möchte dir zustimmen, dieses hier diskutierte Thema wird sich von alleine abkühlen.Capthowdy schrieb:die ach so schlimmen 3,5 GB VRAM der GTX 970 zu erwähnen.
Allerdings macht es für mich einen Unterschied, ob wir von einem Produktionsfehler bzw. einer Lücke in der Qualitätssicherung sprechen, oder ob wir uns darüber unterhalten, dass ein Hersteller eine technisch nicht korrekte Angabe über seine Hardware fällt.
Dieses Mal ist man hinsichtlich der RTX4080 Nomenklatur/Bepreisung zurück gerudert. Womöglich hätte NVidia sich zu Zeiten der GTX970 ebenfalls anders positionieren müssen, aber vor 8 Jahren war der Sturm im Social-Media-Wasserglas sicherlich noch beträchtlich kleiner, als er es heute häufig ist.
Auffällig ist für mich persönlich, dass die Querelen rund um Covid 19 insgesamt nicht gerade dazu beigetragen haben, dass wir Endkunden runde, sparsame, ausgereifte Produkte mit Augenmaß erhalten. Vieles aus dem Produktionszyklus der vergangenen Jahre scheint mit heißer Nadel auf den Weg gebracht worden zu sein, wenngleich Fehler immer passieren können.
scotch.ofp
Lieutenant
- Registriert
- Mai 2018
- Beiträge
- 605
Die besten Grafikkarten baut sowieso Intel
Zumal es sich hier auch immer noch um simple Consumerprodukte handelt, wo sich ein Schaden maximal auf den Wert der betroffenen Hardware und den Arbeitsaufwand für RMA beläuft. Irgendwo sollten die Kosten für die QA halt auch in einem vernünftigen Verhältnis zum Warenwert und potentiellen Schadenssummen liegen.Demon_666 schrieb:Kein Unternehmen auf der Welt macht bei Halbfertigteilen bzw. zugelieferten Teilen eine hundertprozentige Qualitätskontrolle/Wareneingangskontrolle. Das fordert bspw. noch nicht einmal eine ISO 9001 oder der VdS oder etc. pp (bezogen auf Deutschland / EU).
Wenn da bei Stichproben etwas nicht erkannt wird, ist das zwar höchst ärgerlich, aber nun mal nicht zu verhindern, außer man treibt einen extrem hohen Ressourcenaufwand, der den Endkundenpreis in extreme Höhen treibt.
Wir sind hier ja nicht im Flugzeugbau, wo aufgrund er potentiell hohen Schadenssummen (Personenschäden) jedes Bauteil und jeder Fertigungsschritt gepfrüft und mit Unterschrfit protokolliert wird.
drago-museweni
Admiral
- Registriert
- März 2004
- Beiträge
- 9.201
Tja da braucht der Fertiger der Kühler wohl seine Versicherung, bzw wird das über diese laufen wenn der Schaden höher sein sollte.
AMD kann da nicht wirklich was dafür, blöde Situation für alle Beteilligten, wenn eine Maschine deffekt war, ist das vermutlich schnell passiert, bis das auffällt sind wohl schon viele Kühler durch den Prozess durch gewesen.
Und bei einer Endkontrolle wird das nicht zutage treten vermute ich mal, wichtig ist schnelles Handeln, aber Mangels Ersatzkarten, ein Problem.
AMD kann da nicht wirklich was dafür, blöde Situation für alle Beteilligten, wenn eine Maschine deffekt war, ist das vermutlich schnell passiert, bis das auffällt sind wohl schon viele Kühler durch den Prozess durch gewesen.
Und bei einer Endkontrolle wird das nicht zutage treten vermute ich mal, wichtig ist schnelles Handeln, aber Mangels Ersatzkarten, ein Problem.
BrollyLSSJ
Vice Admiral
- Registriert
- Juni 2007
- Beiträge
- 6.222
Habe ich überlesen. Aber dann muss es ja schon eine größere Nummer sein, wenn die es so direkt anbieten. Klingt mir dann nach "ist auch mit neuer Chamber nicht so einfach zu lösen.".SVΞN schrieb:Ja. Steht so in allen E-Mails des Kundendienstes drin.
- Registriert
- Juli 2021
- Beiträge
- 2.802
Glaub mir, die QS wird ab jetzt beide Lagen testen und die nächsten Batches werden verstärkt kontrolliert.drago-museweni schrieb:Und bei einer Endkontrolle wird das nicht zutage treten vermute ich mal,
Das jetzt ist AMD peinlich, vor allem weil sie vorher eine Spitze gefahren sind. Hoffe die Scham hält einige Zeit an!
- Registriert
- Aug. 2009
- Beiträge
- 3.896
ruthi91 schrieb:Nvidia benutzt meine ich seit über 10 Jahren (GTX580) eine Vaporchamber für die Referenzdesigns ihrer großen Modelle. Aber eben nur in einem simplen "Chipkarten-großen" Rechteck über der GPU.
Glaube ich habe mich falsch ausgedrückt. Mir ist klar, dass Vapor-Chambers generell nichts neues sind (ich war selbst damals im Besitz einer HD5770 Vapor-X). Aber ist eben eine Neuerung zu den direkten Vorgängern und für Marketing Zwecke sicher ein netter Begriff. Ist halt fraglich ob ein klassisches Heatpipe Design nicht technisch besser gewesen wäre und man hier einfach "herausstechen" wollte.denbaschu schrieb:Vapor Chambers in Grafikkarten werden nicht erst seit gestern verbaut.
- Registriert
- Mai 2011
- Beiträge
- 20.999
Es ging nie um den Stecker an sich, sondern ganz explizit um den Adapter der bei den Nvidia GPUs dabei war.Capthowdy schrieb:Nochmal: es ist nicht nVidias Stecker! Der Stecker wurde von etlichen Firmen gemeinschaftlich entwickelt, u. A. auch von AMD: https://pcisig.com/membership/member-companies
Und der wird von Nvidia vertrieben und von Zulieferern hergestellt, genau wie der Kühler von AMD
Allein diese kleine Mitteilung wäre doch schon wieder von jedem dieser "Influencer" aufgegriffen und bis auf Jupitergröße aufgeblasen worden. Egal wie das Ergebnis am Ende aussieht.Metaxa1987 schrieb:...hätte eine kleine Mitteilung raus gegeben wie beispielsweise: "Aktuell haben wir mehrere Rückfragen bezüglich Temperaturproblemen, wir untersuchen das Problem und geben ggf. Entwarnung"
Sieht man doch schön hier im Forum, wo manche bei jeder noch so kleinen Sache egal ob Hard- oder Software oder von welchem Hersteller gleich Gift und Galle spucken und den Weltuntergang prophezeien.
DayvanCowboy
Banned
- Registriert
- Nov. 2022
- Beiträge
- 309
Wenigstens machst du keinen Hehl draus, dass du zu einem gewissen Lager gehörst. Wie passt das dann zusammen, von anderen Objektivität zu fordern?Legalev schrieb:Bleib mal Objektiv.
Capthowdy
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.965
Das hat insofern mit bashing zu tun, als dass das heute, 9 Jahre später, komplett irrelevant ist. Welcher Grund, wenn nicht bashing, fällt dir also ein das immer wieder rauszukramen?pipip schrieb:Wo hat das was mit bashing zu tun?
Macht es, aber sicher nicht mehr 9 Jahre später, das ist nur noch reines bashing.Zwirbelkatz schrieb:Allerdings macht es für mich einen Unterschied, ob wir von einem Produktionsfehler bzw. einer Lücke in der Qualitätssicherung sprechen, oder ob wir uns darüber unterhalten, dass ein Hersteller eine technisch nicht korrekte Angabe über seine Hardware fällt.
Wenn du nur auf die Produkte schaust, dann sind die RTX 4000er Karten allesamt sehr sparsam für das was sie leisten, das kannst du überall nachlesen. Die 4090 ist mit einem PT von 80 % sogar nochmal deutlich effizienter als ohnehin schon, ein wahres Performance pro Watt Monster. Wenn du die Preise mit einbeziehst, dann sind momentan alle Karten deutlich zu teuer, da ist AMD keine Ausnahme. Das High-End Karten wie eine 4090 teuer sind ist nichts neues, geschenkt, aber das eine 4080/7900XTX 1300 € kosten, ist ein schlechter Witz. Zu Glück ist das bei den Kunden auch entsprechend angekommen, die Verkaufszahlen sind mehr als schlecht.Zwirbelkatz schrieb:dass wir Endkunden runde, sparsame, ausgereifte Produkte mit Augenmaß erhalten
CrustiCroc
Lt. Commander
- Registriert
- Nov. 2014
- Beiträge
- 1.979
Das kannste aber mal knicken, da braucht es kein BWL oder VWL Studium um zu erkennen, das diese "Geschichte" AMD MASSIV schaden wird....Capthowdy schrieb:Ich denke diese Geschichte wird AMD langfristig nicht schaden. In ein paar Monaten krähen danach nur noch ein paar nVidia-Fanboys in Foren rum, alle anderen leben ihr Leben weiter, so wie eigentlich immer. Alle paar Jahre wird diese Sache dann rausgekramt um AMD zu bashen, so wie AMD-Fanboys auch heute noch nicht müde werden die ach so schlimmen 3,5 GB VRAM der GTX 970 zu erwähnen. 🥱😴
Das Problem ist doch, die MBA XTX ist quasi verbrannt, gebraucht würde ich mir die nie kaufen wollen. Auch wenn ich eine gekauft hätte, würde ich diese nun zurück gegeben da man sich nie 100% sicher sein kann das die Karte frei von dem Fehler ist.
Ähnliche Themen
- Antworten
- 92
- Aufrufe
- 18.807
- Antworten
- 1.469
- Aufrufe
- 150.196
- Antworten
- 28
- Aufrufe
- 8.257
- Antworten
- 644
- Aufrufe
- 89.074