News Radeon RX 480: AMD untersucht Stromspitzen jenseits des PCIe-Standards

Wadenbeisser schrieb:
@eselwald
Es war die R9 295X2 die massiv übers Ziel hinaus schoss, die Pro Duo ist wiederum das komplette Gegenteil davon.

Nö, die zog lediglich 28W aus dem PEG-Slot.
 
Diese Hausgemachten Probleme die man hätte so leicht lösen können, wie immer bei AMD wirkt einfach unprofessionell
 
Gib dir doch wenigstens mal etwas mühe beim Trollen. Aber deine plumpen, peinlichen Einzeiler nerven nur.
Unprofessionell ist für mich eher so zu tun als hätte man echte 4GB verbaut obwohl 0,5 davon unbrauchbar sind ;)
 
AMD3200+^^ schrieb:
Gib dir doch wenigstens mal etwas mühe beim Trollen. Aber deine plumpen, peinlichen Einzeiler nerven nur.
Unprofessionell ist für mich eher so zu tun als hätte man echte 4GB verbaut obwohl 0,5 davon unbrauchbar sind ;)

Wenigstens muss man keine Angst haben das sein Heim abfackelt. Hab mir auch keine 970 geholt, genau deswegen, oder darf man nur die grünen Kritisieren wenn die Mist bauen?
 
@gedi
Es ging nicht um den PEG Slot sondern um die Kabel und angesichts dessen das die über 550W verbraten hatte aber man nur 2 8 Pin Stromstecker anschließen konnte passt meine Aussage wie die Faust aufs Auge.
 
DieWahrheit schrieb:
Wenigstens muss man keine Angst haben das sein Heim abfackelt. Hab mir auch keine 970 geholt, genau deswegen, oder darf man nur die grünen Kritisieren wenn die Mist bauen?

Als ob ein Motherboard deswegen in Flammen aufgeht... was sagst du dazu das auch die GTX 750ti, GTX960 und 1080 mehr als 75Watt über das Board beziehen? Ist das nicht weniger "Gefährlich"? Ist das nicht auch Unprofessionell?
 
Klar würde ich gerne wissen, wo AMD die RX 480 verkackt hat. Schade, dass wir es nie erfahren.

Was mich ankotz, sind die Märchen die AMD auf tischt.

Als hätte AMD im Vorfeld die Prototypen nicht mit allen bekannten Benchmarks getestet und das Produkt und Treiber darauf hin optimiert.

Als wären die Testmuster nicht ausgesuchte Spitzenmodell aus der Fertigung.

Ja, klar, Tante Su, da ist nichts aufgefallen. Das trifft euch aus heiterem Himmel. Ihr ward so blöd und habt kein einziges Testmuster bezüglich Stromverbrauch auf Herz und Nieren durch getestet.
 
@DieWahrheit
Es würde ja schon reichen wenn die Sachen nüchtern betrachtet werden undd er einzige Grund warum dein Heim abfackeln würde wäre höchst warscheinlich dein Hitzkopf.
 
Ich betreibe die GTX 960, hab auch die 750ti .. der Feuerlöscher steht immer griffbereit neben dem PC, die Feuerwehr hat bei mir Dauereinsätze und der Bürgermeister legt mir bereits nahe das Hobby zu wechseln..
Als Beweiß meiner Geschichte auch nochmal die waghalsige 750ti von Nvidia... die Grafiken zur GTX 960 kann ja keiner mehr sehn...

fds.png
 
ichkriegediekri schrieb:
Zum einen liefern die MBs 75w pro PCIe Slot, also sollte, wenn man nicht in alle eine RX480 steckt alles ausreichen um das zu kompensieren.
Weiterhin ist es bei all den Leuten die jeden Tag Ihre CPU und/oder GPU übertakten und bestimmt nicht mit dem Multi nachmessen auch nix passiert (in der Regel) - also halb so wild
Erstens nicht pro PCIe Slot sonder nur pro PCIex16 Slot, zweitens darf trotzdem eine Karte nur maximal 75W über den Slot ziehen.
Und übertakten ist Privatvergnügen, wenn dabei was passiert interessiert das niemanden.

tek9 schrieb:
Mal davon abgesehen das wir hier von Spikes sprechen, nicht von einer durchgehenden Überschreitung der Spezifikation.
Irgendwie gar nichts gelesen? Natürlich verletzt die RX 480 permanent die Spezifikation.

GreatEvil schrieb:
Bloss wissen anscheinend 99,9% (inklusive der Schreiberlinge von CB und anderen pages) nicht was in der Spezifikation steht:
Und hier der Link zum Originaltext der Spezifikation:

http://composter.com.ua/documents/PCI_Express_Base_Specification_Revision_3.0.pdf
Und wie jetzt schon mehrfach gesagt, regelt diese Spec nur das Protokoll, die relevante Spezifikation sagt ganz klar 75W Maximum.

florian. schrieb:
75 ist der Richtwert. Wenn der Mainboard Hersteller mehr zulässt, lässt er mehr zu...
Nein, das ist kein Richtwert, das ist ein hartes Limit, 75W und nicht mehr.

thes33k schrieb:
Der Autor des Originalbeitrags hat sich inzwischen korrigiert und eingesehen, dass er falsch lag.
 
@Wadenbeisser
Nicht ohne Grund landet der Großteil seiner Beiträge ins Aquarium...

BTT:
Wird mal wieder "unnötig" ein Fass aufgemacht was sich spätestens mit den partnerkarten erledigen wird. AMD hat jedenfalls sofort reagiert und prüft es aktuell. Vielleicht kann das ganze mit einem Bios/Treiber behoben werden aber abfackeln wird so oder so nichts...
 
Zuletzt bearbeitet:
@gedi: Es ging nicht um den PEG-Slot sondern über die Kabel, sprich es ist leider nicht das erst mal das so was passiert, wenn auch nicht genau so.
 
@RangnaR
Wann waren die Radeon Testsamples mal ausgesuchte Spitzenmodelle aus der Fertigung?
Es gab oft genug Muster die etwas mehr Strom fraßen als die Serienmodelle oder mit Problemen zu kämpfen hatten die die Serienmodelle nicht mehr hatten oder später gefixt wurden. Siehe Hitzeproblematik der 290er Serie durch falsche Lüfterdrehzahlen oder das Pumpen fiepen der Fury X. Auch ein Klassiker war die HD7970 GHz im Referenz Design die so nie im Einzelhandel verkauft wurde.

Bei nvidia gab es wiederum Scherze wie sparsam gedrosselte Testmuster im referenz Design das so nie verkauft wurde udnd ie richtigen Granaten stellten sich erst deutlich später raus.

Ganz ehrlich, da ist mir die Geschichte bei der 480er definitiv lieber da frühzeitig bekannt und die Folgen absebar.
Spätestens wenn mehr als ein PEG Slot auf dem Board ist kräht bei einer Karte kein Hahn mehr danach da alles an der gleichen Leitung hängt.
 
Produkte reifen heute beim Endkunden. Wer die ersten Geräte kauft die vom Band laufen, ist Beta Tester - das ist mal Fakt! Egal ob man Nvidia oder AMD Fan ist.
 
Ich bin auf die Aussage von AMD gespannt, ob es wirklich nur Einzelfälle waren.
Jedenfalls würde ich die Karte nicht so ohne weiteres verbauen und dann OC betreiben.
Jedenfalls bei den 6 Pin Karten. Bin auf die Partnerkarten gespannt.

Extreme_I7
 
AMD3200+^^ schrieb:
Als ob ein Motherboard deswegen in Flammen aufgeht...

Jo, die Leute übertreiben hier absolut... wenn da sowas passieren würde müsste eigentlich fast jede Redaktion abgefackelt sein als sie das OC ausprobiert haben...

Bei den Zusatzsteckern hälts jeder für ungefährlich weil man weiß dass die Kabel massiv überdimensioniert sind. Dass das bei den Mainbords ähnlich ist kann man schlecht nachprüfen, aber absolut auf kante wird da keines kalkuliert sein außer man hat absoluten Billigschrott gekauft. Aber wer auf sowas mehr als ne Office-GPU drauf steckt ist auch wieder selber schuld... (und ich würde behaupten das es trotzdem die Schuld vom Mainboard wäre da es auch mit einer GPU innerhalb der Specs irgendwann abfackeln würde)


Edit: ja, OC würd ich mit den karten auch nicht empfehlen, eher den "trick" mit dem Undervolting der auch mehr Takt hergibt.

Und NEIN: ich find es auch nicht wirklich gut das AMD hier nicht einen 8 Pin Stromstecker verbaut und die Last anders verteilt hat. Aber wie die Leute (und trolls) hier teilweise reagieren ist einfach nicht mehr feierlich. Aber ist halt das Internet. "The Internet is for Shitstorms!" Ich wünsch mir die Zeit des pron zurück...
 
Zuletzt bearbeitet:
...genauso wie es die Leute gibt die zu ihrer 800€ Grafikkarte ein LC Power Netzteil kaufen, weil es unbedingt die Königsklassen Grafikkarte sein musste, zu mehr das Geld nicht mehr reichte, und bei Abstürzen im Spiel dann die Grafikkarte umtauschen wollen "Defekt".
 
Jo, die Leute übertreiben hier absolut... wenn da sowas passieren würde müsste eigentlich fast jede Redaktion abgefackelt sein als sie das OC ausprobiert haben...
Ja das ist übertriebene Panikmache. Erstmal abwarten und die ganzen Tests und Partnerkarten abwarten.

Extreme_I7
Ergänzung ()

...genauso wie es die Leute gibt die zu ihrer 800€ Grafikkarte ein LC Power Netzteil kaufen, weil es unbedingt die Königsklassen Grafikkarte sein musste, zu mehr das Geld nicht mehr reichte, und bei Abstürzen im Spiel dann die Grafikkarte umtauschen wollen "Defekt".
Irgendwo muss der "gemeine Gamer" ja sparen ;)

Extreme_I7
 
Zurück
Oben