News Crimson 16.7.1: AMD veröffentlicht Stromspar-Treiber für Radeon RX 480

Kann die Leistungsaufnahme wirklich höher sein als die thermische Verlustleistung? Also wenn man jetzt nicht die Herstellerangaben betrachtet, sondern die tatsächliche Verlustleistung. Immerhin wird elektrische Energie irgendwie umgewandelt, am Ende hat man nur noch Wärmeenergie und Energie geht ja bekanntlich nicht verloren, oder sehe ich das falsch?

Ich denke, die TDP-Angabe ist einfach nur eine Angabe, wie der Kühler dimensioniert sein muss. Ohne den Turbo-Modus liegt man auch sicher noch in den 150W und mehr Leistung wird von AMD ja auch nicht versprochen. Jegliche Mehrleistung gibt es nur, wenn die Temperatur (und halbwegs auch die Leistungsaufnahme) noch im Rahmen sind.


Außerdem: Typical Board Power war doch bisher auch immer nur eine Angabe für den typischen Maximalverbrauch, der in extremen Benchmarks und teilweise auch in Spielen durchaus etwas höher sein konnte, oder?
 
Runningduck schrieb:
am besten @cb fragt mal bei den psu herstellen an was die dazusagen.

Die werden auf die Kabel im AWG-Standard verweisen, 22er AWG machen, das sind pro "käbelchen" ~8A, also in Summe, für die drei +12V leitungen 24A! Dann ist das ding aber Ausgereizt ^^

Conceptions schrieb:

Du machst aber den Eindruck als würde dir das nichts sagen ;) Oder ich verstehe nicht was deine Erwartungen sein sollen :D

Web-Schecki schrieb:

Natürlich kann die TDP Geringer sein, das ist ja nur ein erechneter Wert.
 
Zuletzt bearbeitet:
Conceptions schrieb:
Mein Beitrag richtete sich an Del Torro und die Erwartungshaltung. Wie du das dort raus lesen willst ist mir ein Rätsel.



Dann nehme ich alles zurück und behaupte das Gegenteil ;D
 
Bitte schreib meinen Namen richtig. Bin kein Stier (und dann Toro) sondern ein Turm (Torre)

Ich gebe nur die Erwartungshaltung dieses Forums an den Stromverbrauch wieder, nicht meine.
Nach der Vorstellung der RX480 bis zum Release/Test hat niemand hier auch nur im entferntesten etwas davon geschrieben das der Verbrauch höher als 150 Watt sein wird. Im Gegenteil, es wurde immer Argumentiert das der Verbrauch darunter liegen wird. Auch anhand der TDP, aber eben, und das ist der Punkt, auch anhand des 6 Pin Steckers.
 
Der größte Fehler, den AMD gemacht hat, ist, dass sie den Schalter "compatibility switch" nennen und opt-in gemacht haben.

Richtig wäre:
1. Fehler abstreiten
2. Im nächsten Treiber einfach heimlich die Leistungsaufnahme runter setzen (kostet ja nur <3% fps)
3. Wenn sich Käufer beschweren den "compatibility switch" als "power switch" in der "amd experience" (nur nach Anmeldung) bringen
... und alle sind zufrieden.

Ehrlichkeit wird am Markt bestraft. Selber schuld.

GHad schrieb:
Im Übrigen muss euer Strom für das OC ja auch irgendwo her kommen... Und wenn nicht vom PCIExpress kommt, dann geht da mehr über die Kabel, oder glaubt ihr aller ernstes, wenn eine GraKa statt 1.7 GHz auf 2 GHz läuft, dass die die Stecker-Specs einhält? Oder immer noch gleich viel Strom braucht?

Gibt es irgendwo Messungen von der PCIe-Slot-Last bei OC-Karten? Fände ich interessant.
 
Balikon schrieb:
Früher hat CB mal "relevante Kommentare" unter den Artikel gesetzt, könnte man das in diesem Fall mit dem Post von GHad nicht auch machen?

nein weil ich schlicht nicht wirklich rauslese dass jemand behauptet dass das Netzteil bei >75W am 6Pin abbrennt - nicht so wie GHad das darstellt. Wenn jemand sagt dass AMD damit die PCIe Spec immer noch bricht hat dieser jemand nun mal absolut recht.

Dass das mit OC auf anderen Karten genauso ist hat damit nunmal herzlich wenig zu tun.
 
GHad schrieb:
Hier noch mal ein Hinweis an alle, die sich nicht vorstellen können, das EIN Pci-Express 6-Pin Stecker mehr als 75W kann

So wie ich das alles hier verstanden habe ist die Frage nicht ob der 6-Pin Stecker das kann oder nicht, sondern ob er das darf, bzw. sollte oder nicht. Ständig zu wiederholen, dass es keine technische Schwierigkeit ist, hilft niemandem weiter und es werden immer nur die gleichen Aussagen wiederholt.

Eiine Referenzkarte sollte sich immer innerhalb der Spezifikationen bewegen. Dafür ist es eine "Referenz". Dahingehend finde ich auch, dass die Treiberlösung das eigentliche Problem gar nicht löst, sondern nur verlagert. Weg vom PCIe-Bus, hin zum Stromstecker.
Die Karte müsste eigentlich standardmäßig in die Spezifikation reingebremst werden und - wenn überhaupt - einen Schalter im Treiber haben der mehr Stromaufnahme freigibt. Dieser sollte per Default ausgeschaltet sein.
 
ichmich2000 schrieb:
Ehrlichkeit wird am Markt bestraft. Selber schuld.
Dann ist im Umkehrschluss der Konsument dumm. Wer will sich schon (wissentlich) belügen lassen? Will mir nicht in den Kopf gehen.

Meine Meinung: Lieber steht ein Unternehmen zu seinen(m) Fehler(n) und korrigiert diesen bzw. versucht es, als das man frech, dreist angelogen und für dumm verkauft wird.
 
Del Torres schrieb:
Das eigentlich Lustige ist, hier im Forum wurde bei der Vorstellung mit 150W TDP und 6 Pin Wochenlang immer gebetsmühlenartig wiederholt: TDP != Leistung, wartet ab der Verbrauch wird 120W sein, hat doch 6 Pin (OC muss ja noch headroom haben), etc pp
Jetzt ist der Verbrauch höher als die 150W, und mit dem selben Argument TDP != Leistung wird versucht der Mehrverbrauch wegzudiskutieren. Das ist einfach :rolleyes:

haha ja stimmt das ist schon etwas :lol:

Forenmeinung zusammengefasst: TDP hat nichts mit Verbrauch zu tun. Kann also 30% drüber und drunter sein ;)

Edit: Nichts desto trotz sind beide Ansichten valide. Die RX 480 braucht aber ne ganze Ecke mehr als von breiter Masse ink mir erwartet. Abrauchen oder schlecht wird die Karte dadurch sicher nicht, es erklärt aber auch den generell niedrigeren Preispunkt den AMD fahren muss.

Ich denke Vega wird eventuell in TSMC 16nm kommen, da sieht die Welt vielleicht wieder ganz anders aus oder aber GFs 14nm machen noch große Schritte nach vorn was Takt und Spannung angeht. Ist imho so ziemlich das erste GF 14nm Produkt.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Edit: Nichts desto trotz sind beide Ansichten valide. Die RX 480 braucht aber ne ganze Ecke mehr als von breiter Masse ink mir erwartet. Abrauchen oder schlecht wird die Karte dadurch sicher nicht, es erklärt aber auch den generell niedrigeren Preispunkt den AMD fahren muss.
Das ist der Konsens auf den ich auch heraus will :)

Unabhängig davon ist die Problematik ja eine Nichtproblematik was die Custommodelle angeht, die hoffentlich alle mind. einen 8 Pin oder 2x6 Pin haben. Und bei dem Verbrauch von OC Modellen kommt man ja nicht auf die Erwartung das der des Referenzmodells gehalten wird. Da schaut man dann in Tests und kann danach entscheiden.
 
Zuletzt bearbeitet:
6pin = 6+2pin und damit ist alles in Ordnung. Hätte die Karte jetzt einen 8pin und 90% aller leute hier im Forum schließen 6+2("8pin")an ist alles gut und bei 6pin nicht?. Totaler quatsch diese Diskussion.


Nimmst die GTX1070 FE machst etwas OC und schwupps auch mehr Strom über den 6pin.
Ist doch total egal. Es ist alles dafür ausgelegt. Beim PCI-E Slot sehe ich das etwas enger aber das wurde ja gefixt.

@Del Torres
mit einem 8Pin ist bei den OC Modellen nicht geholfen. Da 6+2 = 6 Pin.
 
Vielleicht verzichtet AMD ja auch auf diese High Density Libs bei Vega, schließlich ist es wohl die höhere Packdichte, welche Probleme bereitet. Ich meine wer High End kauft, bezahlt auf proportional mehr. Da ist es dann eben egal ob der Chip größer ausfällt, als er sein müsste.

Zum Thema: ich glaube die Idee mit dem
Schalter ist völlig richtig...AMD hätte einfach einen Monat mehr gebraucht und man könnte die gleiche Leistung durch weniger Verbrauch abrufen. Leider hat AMD offenbar die RX über dem Sweetspot betrieben. Nun fügt man einen Schalter ein, der es richtet. Bei AMD ist es leider immer irgendetwas, dass nicht so passt. Vielleicht sollte die auch einfach mit ihren Referenz Designs aufhören?
 
Del Torres schrieb:

Schön, es wurde also erwartet oder angenommen dass sie darunter liegt.
Was wenn das jetzt nicht so ist, weil die Ausbeute schlecht ist?
(1.150v Spannung bei den Pressesamples anstatt 1.08v wie man sie teilweise jetzt schon antrifft)
Mit anständiger Ausbeute bei sagen wir mal 1.075V und einem anständigen Kühler hält sie die 150W sicher ein.
Und wenn nicht? Interessieren die 20W irgendwen?

Ich habe auch erwartet dass jede GTX 1080 als FE auf über 2000 Mhz geht bei 70 Grad wie in der Vorstellung zu sehen.
Und ist meine Erwartung eingetroffen? Nein, und wenn nicht darf ich jetzt rumweinen?

@Galatin

Vega kommt evtl. auch von TSMC mit 16 NM. Aber AMD packt immer etwas mehr Shader drauf als NV,
Das scheint zukünftig auch von Vorteil zu sein. So schnell werden wir keine neueren Prozesse bekommen,
dass man den Takt ins unendliche steigern könnte.
 
Zuletzt bearbeitet:
trockenerToast schrieb:
Ich bin zwar durch EVGA's Step Up in dieser Gen schon gut bedient, dennoch finde ich die rx 480 immer noch spitze. Dass die Karte jetzt statt über das Mainboard dem 6 Pin PCIe Stromstecker mehr rauszapft halte ich für eher irrelevant, das machen die meisten Karten spätestens mit OC sowieso und ist ja auch eher nen Richtwert. Das ohnehin viel mehr über die Kabel geht, hat ja ebenfalls AMD damals mit der 295X2 bewiesen^^

Und wenn die GTX 1060 tatsächlich etwas mehr Leistung liefert, so wird AMD den Preis etwas nach unten korrigieren und weiterhin mit der RX480 an die P/L Krone tragen. An den 30 Watt Mehrverbrauch der RX480 kann man sich ja nicht mal in DE aufregen, selbst wenn hier durch die gescheiterte Energiewende der Strom schön teuer ist...

Die OC Versionen werden wahrscheinlich nen nderen Stecker verwenden, aber ansonsten stimmt es schon. In der Praxis ist es relativ egal.

Aber genau hier liegt das Problem. AMD kann wieder nur über den Preis verkaufen, sinkende Preise bedeutet sinkende Marge und man dreht sieh im Kreis und macht nie einen ordentlichen Schnitt. Die billiger konstruierte GTX1060 wird dagegen mit höherer Marge verkauft und macht Nvidia die taschen voll, während AMD wieder nur leicht über der Kostendeckung operiert. Da liegt leider das Hauptproblem von AMD in den letzten jahren :/ Ich hoffe mal aber trotzdem, dass sie bei der Rx480 einen guten schnitt machen und das die GTX 1060 besser ist muss sie ja auch erst noch beweisen.

Wie oft soll denn noch erklärt werden ob nun 6 oder 8 Pin, gehopst wie gesprungen?
In der Praxis ja, es geht hier aber schon um das Prinzip! EiN Autoreifen der bis 200kmh freigegeben ist kann auch 250kmh fahren, er bewegt sich aber nicht innerhalb der Spezifikationen. Zumindest bei der Referenzversion sollte man sich schon daran halten.

Also an meinem Netzteil hab ich zwei Pins zum "Dazustecken" am 6+2 PCIe Kabel... der Durchmesser der Leitungen ist gleich, es ist also egal, es gibt sogar Netzteile an denen vom 6/8Pin Stecker nen kurzes Käbelchen direkt zum nächsten Stecker geht... und wir reden hier über einen Vergleich 75W vs 150W bzw. 150W vs. 300W, da sind die "paar" Watt wohl kein Problem... >.<

Abgesehen davon das die Spannungsversorgung auf dem Board von der RX 480 deutlich besser ist als die der GTX 1070 o. 1080... just saying'
Wie gesagt, dagegen spricht ja auch nichts in der Praxis, wenn ich mir aber eine Karte in dem Preissegment kaufe bzw. sie von OEMs in billigrechner gebaut wird wäre es schon schön, wenn sie allen Normen entspricht.

Das Nvidia bei den PCBs gerne spart ist ja bekannt, deshalb setzt auch kaum ein Boardpartner darauf ^^AMD hat da in minen Augen einen guten Schritt gemacht, dass PCB kann problemlos für Custommodelle übernommen werden. Das spart Geld und ressourcen. Das sollte sich Nvidia auh mal abgucken, aber auf 3€ Marge verzichten, nicht im Hause Nvidia ;)
 
Del Torres schrieb:
Unabhängig davon ist die Problematik ja eine Nichtproblematik was die Custommodelle angeht, die hoffentlich alle mind. einen 8 Pin oder 2x6 Pin haben. ...

Bzgl. Custom-Karten: Weiß denn da mittlerweile jmd. mehr?
Da ist ja im Augenblick keinerlei Info nirgends. Und so schön die RX480 Referenz sein mag, ich hätte schon gerne eine brauchbare (OC?) Karte, die die Specs nicht sprengt. Und die RX490 ist bisher auch nur ein Gerücht.

​News anyone?
 
Viele reiben sich immer noch am 6Pin auf. Wie gesagt "Spezifikation" hin oder her, es hängt vom Netzteil ab.

Wenn ein Netzteil nicht genug Ampere liefert, dann ist egal welcher Stecker verwendet wird. Es wird nicht laufen bzw. abstürzen.
Wenn ein Netzteil genug Ampere, dann kann durch voll belegten 6Pin (Regel) genau so viel übertragen werden wie durch einen 8Pin. Verstehe jetzt die Aufregung nicht...
Empfohlen werden Netzteile mit 500W bis 550W. Ob die 10A durch 3 belegte Pins des 6Pin Connectors kommen oder durch 3 belegte Pins des 8Pin Connectors, das macht keinen Unterschied...

Fazit: Nicht auf den Stecker sondern aufs Netzteil sollte man achten. Sollte aber jedem bekannt sein.
 
Conceptions schrieb:
Wie oft soll denn noch erklärt werden ob nun 6 oder 8 Pin, gehopst wie gesprungen?

Wie oft soll denn noch erklärt werden, dass diese Aussage nicht stimmt? Die SPEZIFIKATION sagt es KÖNNEN 3 Adernpaare belegt sein. Ob das nun bei allen Netzteilen und diversen Adaptern der Fall ist steht dabei in den Sternen. Nur weil DEIN Netzteil vermutlich einen 6+2 Pin Stecker hat und vermutlich alle Pins durchbelegt hat, stimmt das noch lange nicht für diverse OEM Rechner und Billignetzteile.

Die Spezifikation besagt sogar, dass die Grafikkarte über die Sense1 Leitung erkennen soll ob ein 6Pin oder ein 8Pin Stecker angeschlossen ist und entsprechend das Leistungsprofil anpasst....

Elektrisch reichen selbst 2 Leitungspaare mit 1,5mm² bestimmt für 200W ohne das die Kabel anfangen zu brennen. Aber darum geht es bei einer REFERENZkarte nicht. Wenn ich Experimente mit meinem Rechner durchführen möchte, kaufe ich mir irgendeine übertaktete OC Karte.
 
Zuletzt bearbeitet:
Zurück
Oben