News Crimson 16.7.1: AMD veröffentlicht Stromspar-Treiber für Radeon RX 480

Achim_Anders schrieb:
Oldmanhunting: Hier im Fachgespräch war vor ein paar Tagen auch ein Post, wo die 1080/1070 dasselbe verhalten zeigten bei 2 Monitoren mit unterschiedlichen HZ Zahlen. Falls ich noch richtig erinnere taktete da nicht nur nicht der Ram runter (wie afaik bei meiner AMD 7950), sondern auch der Takt des Chips.
Das ist jetzt aus dem Gedächtnis und muss nochmal verifiziert werden!
Habe hier 2 Monitore mit einer GTX 970.
Monitor 1 ist WQHD mit 144Hz und G-Sync.
Monitor 2 ist FHD mit 60Hz ohne G-Sync.
Da taktet kein Speicher hoch und die GPU bleibt auch im Idle. Gestern erst getestet, weil da mein WQHD Monitor ankam.
 
Jetzt fehlt nur noch ein fehlerfreier Launch und ne gute Verfügbarkeit der Customkarten. :D
 
Conceptions schrieb:
Finde den Fehler 😐
Hast Du eine 1080 oder 1070 mit 2 unterschiedlichen Monitoren und selbst getestet oder plapperst Du nur nach was Du irgendwo im Internet gelesen hat. Das letztere denke ich!
 
ja sorry klar es ist ne minimale negative sache, komplett weg reden kann man das nicht, aber man weiss es ja, nvidia hat sich schon schlimmeres geleistet nur 3.5gb ram ist 100x schlimmer als das.

Ich wollte eigentlich aus rechnen was diese schlimmstenfalls 18w mehr bedeuten, wenn jemand massiv spielesuechtig ist und regelmaesig durchgehend 6h am Tag spielt, aber das waere auch nicht serioes, da es ja nur Peek spannungen, wenn diese also nur in 5% der Zeit erreicht werden, spielt das keine wichtige rolle.

Was ich hier leuten empfehlen kann, ist bei spiele die sie viel spielen mal die fps auf 60 zu limitieren, was ich bei leage of legends getan habe, und habe dann deutliche watt zahlen laut messgeraet gespart, irgendwelche nachteile im Spiel davon nein.

Es gibt fuer mich 2 Nachteile von solch hohen verbraeuchen, wie stark das zimmer sich im sommer auf heitzt, und wie laut der luefter ist, letzteres sollte ja kein problem sein und ersteres duerfte sich auch im Rahhmen bewegen zumal es ja wie gesagt nur spitzen sind, die karte verbbraucht ja nicht im schnitt 160 oder 168Watt.

Wenn natuerlich feurer eine gefahr waere, waere das scheisse, scheint aber wohl so gut wie ausgeschhlossen und wenn man doch der eine Mensch auf dem planeten ist dem das passiert, ist man waerend man spielt zu 99% sicher eh vor ort und kann nen wohnungsbrand verhindern.

Amd scheint fuer Presse einfach gut zu funtzen unter allen AMD meldungen sind immer hunderte oder tausende kommentare (wie grad meiner) daher scheint alles recht hoch gepusht zu werden, bei den 3.5gb von nvidia gabs auch mal nen groesseren aufschrei, das war aber auch eine riesen schweinerei und grentzte an Betrug.

Und hier kann amd sich immerhin raus reden, wie die speicher und fertigen karten dann bei den OEMs genau verbrauchen, kann man noch halbwegs glaubhaft sich dumm stellen, das schweigen ueber das fehlen des vollen rams, war aber bewusstes schweigen und leute verarschen, da kann man sich nicht raus reden.

Vielleicht bild ichs mir ja auch ein, aber trotzdem werden bestimmte mal mehr gehyped, probleme mit amd z.b. als andere. Sehs bei Linux immer, da wird dann damit sich irgendwelche Leute nen Namen machen, mit Hearthbleed eine Panik oder Angstmachwelle geschoben, waerend bei Windows nur alle Jahre wider ne kleine einzelne Harmlose Melduung kommt das sie mal wwieder 500 schwerste kritische Bugs die 10 Jahre offen waren gefixt haben.

Wenn man dann 50 Meldungen zu dem einen Bug unter linux liest und 1 Meldung zu 500 Bugs unter windows, ja dann ist das sicher neutral :).

Mein die Gruende fuer die unneutralitaet ist dann sicher meistens nicht Fanboyism, sondern kaufmaennisches Kalkuel. Von Windows erwartet schlicht niemand mehr das es in irgend einer weise sicherheit bietet, und ist der Ruf einmal ruiniert, lebt es sich voellig ungeniert.

Mein die Grundaussage des Artikels ist ja schon eher fair, nur wenn man dann ohne Kontext die Zahlen auf listet, ist das schon schwierig und loest dann natuerilch trotzdem (oder gewollt?) einen Shitstorm aus.

1. haette man das mit dem Stromverbrauch ueber 6pin bisschen genauer erleutern koennen, aber vielleicht hab ich das auch bisschen ueberlesen, mag sein
2. haette man klar schreiben koennen das es nur um Spitzen geht, und nicht der Durchschnittsverbrauch die angegeben zahlen sind.
3. haette man noch auf die TDP was diese bedeutet bisschen eingehen koennen
4. bonusaufgabe: haette man auch andere beispiele von karten vielleicht auch von Nvidia nennen koennen die sich auch nicht an die 150W halten oder andere spezifierten angaben.

5. frag ich mich auch ob eure Werte so stimmet bei den meisten tests arbeitet ihr testseiten doch mit 500 bis 800 Watt monsternetzteilen, die natuerilch eine fuerchterliche effizienz bei so kleinen Stromverbraeuchen haben, fuer die Testseiten mag das nicht mal negativ sein, spielt ja in den Fazit keine Rolle, weil sie ja wissen was fuer Monsternetzteile sie benutzen, fuer den Sparsamen lowpower Menschen ist das aber wohl nicht immer klar und verstaendlich.
Hab auch die Seiten ab gesucht stet nicht bei mit was fuer komponenten das getestet wurde.
 
Ich vermisse in den neuen Treibern die OverscanFunktion. Hoffentlich kommt die demnächst endlich wieder denn die neuen Treiber sind so leider unbrauchbar für mich da mein TV das Bild so nicht korrekt und nur abgeschnitten ausgibt.

Kann nicht verstehen weshalb AMD diese Funktion ausgelassen hat.
 
Achim_Anders schrieb:
Der Vollständigkeit halber: https://www.computerbase.de/forum/threads/pascal-144hz-monitor-hinweis.1593237/

Das scheint nicht mal Multimonitoring für den Bug zu benötigen.

Nur für Dich! :eek:

a.jpg
 
Ich muss oldmanhunting recht geben. Nicht alle haben Probleme mit 144Hz. Bei mir taktet die Karte selbst bei 1440P @ 165Hz runter, nur bleibt die Spannung bei ~0.9V anstatt wie üblich 0.840V. Eine Marken übergreifende Lösung, damit es überall klappt, wäre trotzdem angebracht. Wird ja langsam peinlich.
 
Schön, dass das Thema bei den Referenzkarten seitens AMD schnell gelöst wurde. Mal schauen wie es die Customkarten lösen, ob sie dann den obligatorischen 8-Pin Stecker drauf packen, damit auch der letzte zufrieden ist.

Bezüglich Stromverbrauch finde ich es immer wieder lustig welche Diskussionen hier geführt werden. Klar versucht man hier und da zu sparen.
Austausch aller Leuchtmittel auf LED oder min. Halogen wo es nicht anders geht. Licht per SmartHome und Bewegungssensoren und Timer im Haus regeln usw. Wobei Sparen da eher ein Nebeneffekt ist.
Dennoch habe ich kein Problem damit meine Klima im Wintergarten anzuwerfen, wenn es mir da drin zu warm oder zu kalt ist. Die Anlage hat 2x 5,8KW max. und ich habe kein schlechtes Gewissen mir diesen Luxus zu gönnen.

Vielleicht sollten mal die ganze Sparfraktion überlegen, wo diese heute schon sinnvoll überall sparen könnten, bevor man anfängt über 30Watt zu diskutieren die dann nur auftreten wenn man in der Zeit die Karte mit spielen belastet. Anstatt hier zu diskutieren, hätte man auch den PC auslassen können um Strom zu sparen. ;)
Mich stört der Verbrauch bei Grafikkarten derzeit nicht, egal welches Lager. Denn eines muss man beiden zu gute halten, es wird etwas an Effizienz gemacht. Das reicht mir.
 
.Snoopy. schrieb:
Dennoch habe ich kein Problem damit meine Klima im Wintergarten anzuwerfen, wenn es mir da drin zu warm oder zu kalt ist. Die Anlage hat 2x 5,8KW max. und ich habe kein schlechtes Gewissen mir diesen Luxus zu gönnen.

Und diese hast du einfach über eine dreifach Steckdosenleiste irgendwo angeklemmt? Oder vielleicht doch vom Elektriker entsprechend abgesichert anschließen lassen?

Die wenigsten haben hier den hohen Verbrauch bemängelt sondern den Betrieb außerhalb der Spezifikation.
 
Web-Schecki schrieb:
JA, AMD hätte einfach einen 8-Pin verbauen sollen und gut wäre es. Wahrscheinlich ist die Entscheidung pro 6-Pin schon zu früh gefallen, weil 150W als Design-Ziel ausgegeben wurden und kurz vor Release hat man dann doch noch gemerkt, dass die Spannung rauf muss, weil die Ausbeute schlecht ist.

Das Ziel einer Massenmarktkarte mit den Anforderungen ist einfach zu schön um wahr zu sein, zusätzlich hätte man einen Y-Adapter legen müssen 8Pol > 2x PCI-e Stromstecker.
Ergänzung ()

blackiwid schrieb:
Vielleicht bild ichs mir ja auch ein, aber trotzdem werden bestimmte mal mehr gehyped, probleme mit amd z.b. als andere. Sehs bei Linux immer, da wird dann damit sich irgendwelche Leute nen Namen machen, mit Hearthbleed eine Panik oder Angstmachwelle geschoben, waerend bei Windows nur alle Jahre wider ne kleine einzelne Harmlose Melduung kommt das sie mal wwieder 500 schwerste kritische Bugs die 10 Jahre offen waren gefixt haben.

Wenn man dann 50 Meldungen zu dem einen Bug unter linux liest und 1 Meldung zu 500 Bugs unter windows, ja dann ist das sicher neutral :).

Das ist NEU das man den Fehlern Namen gibt, weil sich CVE-Nummern eh keiner merken kann :D

Windows bugs sind schwerwiegender, UEFI hat mehr Codezeilen als der zu startende Linux-Kernel des Betriebssystems, aktuelle bug's bei Win betreffen group policies usw und patches die mehr Fehler machen als sie sollen.

Windows Exploit Edition | TechSNAP 274 Posted on: July 7, 2016
UEFI-Bug
http://www.theregister.co.uk/2016/07/04/lenovo_scrambling_to_get_a_fix_for_bios_vuln/

Bleib mal auf den Teppich !
 
Schon erstaunlich, dass sich solche Dinge so einfach per Treiber fixen lassen und an der Hardware nichts geändert werden muss. Aber umso besser für AMD.

Eine ordentliche Karte die sich sicherlich gut verkaufen wird, auch weil sie vor der Nvidia Konkurrenz verfügbar / kaufbar ist. Schade, dass AMD es nicht schafft auch im schnelleren Segment früher oder gleichzeitig mit Nvidia zu veröffentlichen.
 
xexex schrieb:
Und diese hast du einfach über eine dreifach Steckdosenleiste irgendwo angeklemmt? Oder vielleicht doch vom Elektriker entsprechend abgesichert anschließen lassen?

Die wenigsten haben hier den hohen Verbrauch bemängelt sondern den Betrieb außerhalb der Spezifikation.

Ja und? Das Problem mit der Leistungsaufnahme über den PEG Slot wurde doch umgehend gepatcht. Also was soll der Aufriss noch?

Hat nvidia die lahme Anbindung der 0,5gb bei der 970 gepatcht? Nein, weil es nicht möglich ist. Jetzt müssen nvidia und die Studios die Spiele und Treiber bis zum Ende aller Tage an diese Macke der 970 anpassen.

Das ist ein Problem. Ein paar Watt auf dem PEG Stecker oder Slot sind im Vergleich dazu harmlos. Den 144hz Bug bekommt nvidia auch noch immer nicht in den Griff.

Aber egal, die 970 ist EOL und wie üblich wird nvidia so langsam damit aufhören de Treiber an aktuelle Spiele anzupassen. Viel Spaß noch mit der Karte :D
 
t3chn0 schrieb:
Ich habe die XFX RX480 Black Edition mit Backplate und OC auf 1327Mhz. Out of the Box hält die Karte ihren Takt nicht, sie drosselt massiv bis auf 1190 Mhz runter. Stellt man das PT auf +50% hält die Karte ihren Takt jedoch, erreicht dann aber auch 87°C.

Wenn man die Frequenz halten will und die Karte um 80°C liegen soll, wird sie sehr sehr laut. Max OC habe ich erreicht und da komme ich auf 12.027 Punkte im FireStrike, aber mit Lüfter auf 100% was WIRKLICH einem Fön entspricht (5200 RPM).

Natürlich den neusten Treiber verwendet.

Kann man die Karte eigendlich umtauschen, wenn man schon den neuen Treiber installiert hat ?

Der verändert doch etwas im VBios ?

Quelle: PCper.com

*Reconfiguring the power phase controller

The Radeon RX 480 uses a very common power controller (IR3567B) on its PCB to cycle through the 6 power phases providing electricity to the GPU itself.*

*Starting with the 16.7.1 driver, AMD will automatically reprogram the power controller on the RX 480 to better divide the power draw from the 6 available phases on the reference cards. This is a process that occurs at each and every boot, it is not a permanent change to the VBIOS.*
 
Marco^^ schrieb:
Der verändert doch etwas im VBios ?

Genau das passiert nicht. Es seht doch sogar in Deinem eigenen Zitat.

it is not a permanent change to the VBIOS.*

Und so oder so, ein Rückgabegrund ist das nicht wirklich. Aber die Karte ist erst seit einer Woche auf dem Markt. Du solltest noch in der Widerrufsfrist sein.

Die ersten Custom Designs sind bei GH gelistet.

http://geizhals.de/?fs=RX+480+&in=
 
Svendrae schrieb:
Eine ordentliche Karte die sich sicherlich gut verkaufen wird, auch weil sie vor der Nvidia Konkurrenz verfügbar / kaufbar ist. Schade, dass AMD es nicht schafft auch im schnelleren Segment früher oder gleichzeitig mit Nvidia zu veröffentlichen.

Keine Kritik, absolut perfekte GraKa ?

Es mag ja sein, das es Leute gibt und Frauen die von Technik nicht so viel Ahnung haben, was ist denn mit den Kunden die eine zu warme Karte in dem PC haben ?
Ergänzung ()

BlubbsDE schrieb:
Und so oder so, ein Rückgabegrund ist das nicht wirklich. Aber die Karte ist erst seit einer Woche auf dem Markt. Du solltest noch in der Widerrufsfrist sein.

Also ist das kein Hardware Mangel, der innerhalb von 14Tagen zur Rückgabe erlaubt ?

Die Karte hat doch in dem Zustand Designmängel ... also ich wäre echt sauer
Ergänzung ()

xexex schrieb:
Was du zeigst ist aber ein 6+2 PCIe Anschlusskabel und kein 6Pin Anschlusskabel/Adapter. Und diese können und dürfen so aussehen.
405449d1303406726-allgemeiner-diskussionsthread-zu-netzteilen-6-pin-problem.jpg

(Linke Seite)

Die Farbe Braun ist aber nicht gerade üblich :)

https://de.wikipedia.org/wiki/PCI_Express#Stromversorgung
https://de.wikipedia.org/wiki/PC-Netzteil#ATX-Format
https://de.wikipedia.org/wiki/Molex#Molex-Steckverbinder_in_PCs
 
Marco^^ schrieb:
Keine Kritik, absolut perfekte GraKa ?

Es mag ja sein, das es Leute gibt und Frauen die von Technik nicht so viel Ahnung haben, was ist denn mit den Kunden die eine zu warme Karte in dem PC haben ?

Kritisiert habe ich die Karte schon bei Erscheinen, dafür, dass sie nicht so leistungsstark ist, wie es im Vorfeld suggeriert wurde. Sie ist aber trotzdem ok für ihr Geld und in diesem Preisbereich derzeit die empfehlenswerteste. Eine perfekte Grafikkarte gibt es nicht.
 
Wenn man bedenkt, dass die AMD Radeon R9 Nano ~10 % mehr Saft braucht als die Radeon RX 480 aber ebenso nur einen 6-poligen Anschluss hat, fragt man sich, wieso dieses Problem vorher nicht aufgefallen ist oder einfach keinen interessiert hatte..?


https://www.computerbase.de/2016-06/radeon-rx-480-test/9/


Möglicherweise hat Nvidia viele genug "Informanten" über dieses "Problem" informiert.
Oder habe ich da etwas grundsätzlich falsch verstanden?

Edit: Ähm ups, mea culpa. Sind doch 8pin...
 
Zuletzt bearbeitet:
Zurück
Oben