News Radeon RX 480: AMD untersucht Stromspitzen jenseits des PCIe-Standards

Hardware_Hoshi schrieb:
Der Twitch-streamer "bulldoiz" wollte einen Voltmod mit der RX480 machen und hat dabei herausgefunden, dass die Spannungsversorgung auf dem PCB jeweils zur Hälfte auf den PCIe-12V-SLOT und den 6-pin PCI-Stecker geht. Das heißt das Problem besteht auf dem ganzen Board und ist kein Bios oder Treiberfehler.

Problem? Warum? Mal ganz entspannt gucken, was AMD als TDP angibt. Ah, es sind 150W. Und diese setzen sich zu 75W aus dem PCIe-Bus zusammen und 75W aus dem 6pin-Stecker. Beides ist legal. Macht dann zusammen genau die 150W. Das einzige, was nun nicht ganz hinhaut, das ist die Regelung der Software/Firmware auf der Grafikkarte. Und genau das wird nun von AMD gefixt.

Also, ganz cool bleiben :cool_alt:
 
Faust2011 schrieb:
Problem? Warum? Mal ganz entspannt gucken, was AMD als TDP angibt. Ah, es sind 150W. Und diese setzen sich zu 75W aus dem PCIe-Bus zusammen und 75W aus dem 6pin-Stecker. Beides ist legal. Macht dann zusammen genau die 150W. Das einzige, was nun nicht ganz hinhaut, das ist die Regelung der Software/Firmware auf der Grafikkarte. Und genau das wird nun von AMD gefixt.

Tja, das "Problem" ist jedoch der tatsächliche Verbrauch der Karte. Da ist nicht bei 150W schluss, sondern bei 160-180W je nach Szenario. Dabei reizt die RX480 wesentlich zu viel auf dem Mainboard 12V-Schiene des Mainboards über den PCI-Express-Slot. Das kann deine Onboardkomponenten beschädigen oder sogar das ganze Mainboard.

Faust2011 schrieb:
Also, ganz cool bleiben :cool_alt:

Warum sollte man das?
Selbst wenn ich selbst keine RX480 hätte, ergeben sich immernoch diverse Probleem. Stell dir vor einer der Idioten mit dieser Karte denkt sich.

"ist ja nicht schlimm... passiert ja nichts"

Dann kauft man sich von diesem Kandiaten gebrauchte Hardware, die dann kurze Zeit später den Geist aufgibt. Von defekten Soundlösungen über unperformante LAN- und USB-Ports ganz zu schweigen. Geschoben wird das dann auf die Mainboardhersteller, aber in Wirklichkeit hat ein Grafikhersteller wie AMD die Schuld.

Das kann es echt nicht sein! Ich glaube nicht, dass der Fix so einfach sein wird. Da ist etwas gehörig scheif gelaufen .. mal wieder.
 
Also muss, damit die falsch angegebene TDP von 150Watt eingehalten werden kann, die Leistung "künstlich" gedrosselt werden mit dem Treiber - und das aber bereits für den Serienzustand. Overclockers-Dream die zweite, nicht.

Ich seh noch die Aussagen vor dem Release vor meinem Auge...."AMDs Angabe zur TDP ist immer zu hoch gegriffen, wahrscheinlich sind es 120Watt, nur nVidia lügt immer ganz böse was die TDP Angaben angeht".

Es wird das jetzt versucht sich schön zu reden und es zu beschwichtigen, aber das ändert im Endeffekt nichts an folgender Tatsache: Wenn man nur für Ranz bezahlt, bekommt man auch Ranz.
 
jbauer schrieb:
Vielleicht solltest du einfach mal an deinem Leseverständnis arbeiten, ich sagte, abgesehen von einer nichtssagenden Aussage kam vier Tage lang nichts.
jbauer schrieb:
Vier Tage eisernes Schweigen abgesehen von einem lapidaren "oh, wir sind ertappt, wir schaun mal" ist alles andere als schnell.
jbauer schrieb:
Naja, nach vier tagen schweigen hat man endlich mal reagiert, schnell ist anders.
Zitat Computerbase:
"Auf reddit meldete sich Raja Koduri, der Leiter der Radeon Technologies Group, zu Wort und kündigte an: „Wir untersuchen und reproduzieren diese Szenarien derzeit intern. Unser Engineering-Team ist voll engagiert“. Etwas ausführlicher nahm AMDs Leiter des technischen Marketings, Robert Hallock, Stellung und versicherte: „Die RX 480 erfüllt die Messlatte für PCIe-Konformitätstests der PCI-SIG“. Zudem stellt er klar, dass diese Tests nicht nur intern von AMD durchgeführt worden seien."
Es wurde nicht 4 Tage lang geschwiegen und es wurde nach ca. 24h gesagt das es derzeit untersucht und reproduziert wird.
Das man intern überprüft ist also eine nichtssagende Aussage?:rolleyes: Und nach 2 weiteren Tagen kommt AMD offenbar mit einem Lösungsansatz.

Das einzige was du hier also betreibst ist hetzen.
 
Meine RX480 läuft super ohne Probleme. Ist doch immer wieder das Gleiche. Alle die keine Amd Karte besitzen oder sich in Zukunft keine RX480 auch als Custom nicht kaufen würden müllen den Thread zu.

Entspannt euch, ihr müsst euch keine kaufen und stellt euch vor es gibt tausende zufriedene Kunden die die Karte benutzen. Und mit den Customs ist das Problem eh vom Tisch.
 
lightyag schrieb:
Also muss, damit die falsch angegebene TDP von 150Watt eingehalten werden kann, die Leistung "künstlich" gedrosselt werden mit dem Treiber - und das aber bereits für den Serienzustand. Overclockers-Dream die zweite, nicht.

warten wir erstmal auf die custom karten bevor wir so eine Aussage treffen.
 
Man kann verstehen, dass nVidia Fanboys bei der RX 480 so ausrasten. So viel Leistung zu dem Preis...da kommen Neid und Missgunst hoch :D
 
Zuletzt bearbeitet:
combatfun schrieb:
Man kann verstehen, dass nVidia Fanboys bei der RX 480 so ausrasten. So viel Leistung zu dem Preis...da kommen Neid und Missgunst hoch :D

Soll ich jetzt lachen oder heulen?
Die Leistung der RX480 ist eigentlich erbärmlich und der Preis fast schon zu hoch. Es gibt Leute, die kaufen nur nach Geiz ist geil. Eigentlich haben genau diese die Neid und Missgunst. Bin wirklich gespannt ob die Customkarten tatsächlich besser sind als die Referenz-RX480. Wäre dies der Fall, würden nicht die Referenzkartenkäufer sich neidisch und missgünstig gegenüber allen Käufern der guten Modelle fühlen?
 
ja schon ist aber nicht das Problem von AMD sondern ihr Problem. Geiz ist geil macht blind und lässt Menschen nicht warten...
 
Um mal bei euren Analogien zu bleiben.
85% der Menschen wollen sich auch keinen BMW 5er oder höher leisten.
Es hat auch wenig mit Geiz ist geil zu tun, sondern mit dem Verstand ob es einem das Wert ist.
Vorallem witzig mit "Geiz ist geil" zu argumentieren, aber selber die günstigen Angebote abzugrasen.... :rolleyes:
 
ich meine damit, dass leute einfach nicht die zwei wochen warten können, weil sie sterben wenn sie nicht sofort das neuste in der Hand halten können.
 
@HardwareHoshi
Nein, denn AMD wird wie versprochen Softwareseitig nachbessern.

Die 1060 ist nur ~10% schneller als die 480 für 229$. Nicht ~15%, da der Treiber der 480 nachträglich um ~3% verbessert wurde. Aber die 1060 ist mit 299$ weit mehr als 10% teurer. Wenn die 480 bereits zu teuer ist, was ist dann erst die 1060 mit beschnittener SLI Fähigkeit und weniger VRAM?
 
hört doch einfach auf irgendetwas zu schreiben, solange keine wirklich verwertbaren informationen vorliegen. Alles andere ist nur Marketing.
 
@Don Kamillentee

Danke, das hab ich schon :) Ich hab weder einen PC noch eine aktuelle Konsole zuhause, und das Laptop und die Wii sind powered bei AMD respektive noch ATI.

Jeder hat wohl seine Bereiche im Leben in welchen man keine Rücksicht auf das P/L-Verhältnis nimmt, und die anderen wo es garnicht billig genug sein kann. Außer man ist reich, stinkreich.

Und dann merkt man dass man die besten Dinge im Leben garnicht kaufen kann, als man sich in einem Grafikkarten-Flamewar wiederfindet.
 
Hat sich schon mal jemand Gedanken um dieses komische Zeichen in den Spezifikationen gemacht?

PCI Express™ Card Electromechanical Specification schrieb:
Zu finden im Artikel von ht4u.
 
Ich befürchte, dass die "Nachbesserung" von AMD Auswirkungen auf die Performance haben wird. Die Ref. Karten werden dadurch langsamer werden, bzw. sich dann nicht mehr besonders übertakten lassen. Das wiederum würde bedeuten, sie müssten neu getestet werden von der Presse. Oh oh, wenn dann weniger Performance dabei heraus kommt wird die Diskussion über die Karte dann noch mehr angeheizt und AMD würde dann sehr schlecht dastehen. Mir ist jedenfalls nicht klar, wie sie die Leistung drosseln wollen, ohne Performanceeinbußen, was sehr schlechte Presse nach sich ziehen würde...^^
 
Mursk schrieb:

welches komische Zeichen? Da wurden vor vielen Seiten zig Beiträge darüber geschrieben und diskutiert, ob die Last dennoch höher liegt oder noch im Rahmen. Auch FormatC hat hier explizit darauf geantwortet.
 
Zuletzt bearbeitet: (Als der Post noch auf der gleichen Seite war, kein Problem ohne Zitat, aber jetzt auf anderen Seiten isses doof.)
Puderquaste schrieb:
Und es gibt auch welche wie dich, die den bisherigen Threadverlauf ignorieren und wieder von vorne anfangen. ;)

Ja tut mir leid, dass ich die ersten 25 Seiten vor meinem Beitrag nicht gelesen habe. Ganz sicher bin ich aber der einzige der so etwas tut :rolleyes:

Für mich käme eine Karte die die Mainboard Spezifikationen überschreitet gar nicht in Frage. Keine Ahnung was sich AMD dabei gedacht hat. Hätten sich einfach einen 8pin Stecker verbaut wäre alles i.O.. Ich bin überrascht, dass sich das schwache Referenzdesign dennoch so gut verkauft. Aber es ist doch mittlerweile sehr auffällig, dass Probleme die im Zusammenhang mit AMD stehen gerne übertrieben werden, während Nvidia's Fails ganz schnell unter den Teppich gekehrt werden.
 
Hat keine Sinn hier, einige wollen sich halt nicht aufklären lassen.

@jbauer, bei einer Sache liegst Du aber auch falsch. Die Stromaufnahme an einer GPU kann man sich nicht als einfachen Widerstand erklären. Nach dem Motto, erhöht sich der Leitungswiderstang, also geht der Stromverbrauch runter.
Leider ist es bei einer GPU genau andersrum.
Wie schon beim Video, durch erhöhte Leitungswiderstände, ebenfalls hervorgerufen durch den PCIe Slot sinkt die Spannung!
Da auf der GPU ein DC/DC Wandler sitzt, der eben jetzt 75Watt benötigt, muss bei niedriger Spannung jetzt natürlich "mehr" Strom fließen!

Und für die die es immer noch nicht verstanden haben, man darf halt nicht average und Spikes getrennt behandeln. Man muss das Gesamtbild beurteilen.
Ist schon witzig wenn dann so Vorschläge kommen wie 10min 100Watt und 10min 50Watt.
Und wenn eben UBS Stecker für 2A spezifiziert sind, dann können die das halt, durch entsprechendes Kontakt Material.
Wenn beim PCIe Slot eben 5,5A steht dann kann er eben das.
Viele vergessen das bei der Leistung die im Stecker umgesetzt werden muss immer noch gilt P=I*I*R. Das heißt der Strom geht quadratisch ein. Erhöht sich der Widerstand während der Last wird es noch schlimmer, weil bei der GPU zusätzlich der Strom wieder erhöht.
Verstanden, das ganze schaukelt sich gegenseitig hoch.

Die Peaks selbst enthalten in der Regel nicht viel Energie, das kann man aber natürlich nicht wieder verallgemeinern. Sollt ein Peak dann eben 1000A haben, kann man das so nicht mehr sagen.
Generell sollte man selbstverständlich eine saubere Spannung hinterlassen und Spikes vermeiden, weil diese wie schon oft erwähnt zu Störungen führt und selbstverständlich andere Komponenten zusätzlich belastet und auch zu Instabilität des gesamten PC beiträgt.
Wie oft hört man von unerklärlichen Abstürzen?
 
Kreisverkehr schrieb:
welches komische Zeichen? Da wurden vor vielen Seiten zig Beiträge darüber geschrieben und diskutiert, ob die Last dennoch höher liegt oder noch im Rahmen. Auch FormatC hat hier explizit darauf geantwortet.

Komisch war Ironie von mir. Somit liegt die Leistungsaufnahme bei fast allen Tests innerhalb der Spezifikation.
Gut, die Stromstärke nicht unbedingt, weil die Spannungen in einem PC kaum solchen Schwankungen unterliegen.

Aber sei es drum, hier hat sich - wieder ein mal - Deutschlands Elite getroffen und labert alles schön nach, was sie vorgesetzt bekommen. Bei Hardware und Autos ist es echt unglaublich, was man für ein geballtes Fachwissen teilweise vor findet...
 
Zurück
Oben