Bericht AMD Radeon RX 480: Crimson 16.7.2 legt bei der Leistung deutlich zu

@Schnixus
Jo an die Geschichte kann ich mich sehr gut erinnern. Mit Erscheinen der GTX970/980 plötzlich von einem Tag/Treiber auf den anderen ca. 10 FPS weniger mit meiner guten alten GTX 670 in SWtOR. War besonders ärgerlich wegen V-Sync und 60 FPS. Was soll´s, dann habe ich einfach die Settings ein wenig heruntergeregelt und es ging weiter. Das war die erste Verarsche von nVidia an mir.
Die nVidia-Foren glühten damals so richtig. Ich muß zugeben, dass ich tatsächlich so dumm war, mir die 970 zu holen. Zum Glück kamm schon paar Tage nach dem Kauf das SpeicherGate heraus, und mein Händler hat die Karte ohne Beanstandungen zum vollen Kaufpreis zurückgenommen. Auf meine explizite Anfrage hat der Händler mir gesagt, dass er von nVidia außer "its not a bug, its a feature" nichts gehört oder bekommen hat. So frei nach dem Motto "work as intended". Das war dann die zweite Verarsche von nVidia an mir.
Danach zockte ich erstmal weiter mit der GTX 670.
Nach ca. 3/4 Jahr hat nVidia sich dann doch erbarmt und ca. Juni 2015 hatte ich die gewohnte Leistung wieder.
Mein Fazit dazu:
Ein drittes mal lasse ich mich von nVidia nicht verarschen ;). Jedenfalls solange dieser Lügenbold von CEO bei nVidia am Ruder ist. Denn wie jedem bekannt sein dürfte, stinkt der Fisch immer vom Kopf her. Und wenn schon der Chef ohne mit der Wimper zu zucken irgendwelche Holzattrappen in die Kamera hält und irgendwas von 5 facher Leistungssteigerung erzählt, kann man auf den Rest auch entsprechende Schlüße ziehen.
Jetzt hat AMD die Chance von mir bekommen. Wenn die mich genauso behandeln, dann wird meine Reaktion analog ausfallen
 
Zuletzt bearbeitet:
Nacho_Man schrieb:
Dann verlinke direkt einen Fachartikel, ich werde ich lesen. :rolleyes:

Schwer Fachartikel zu finden wo die meisten doch von Nvidia geschmiert worden sind. Aber ganz klar die Tausenden Forenpost von Usern mit Beweisbildern und belegen sind natürlich nur Verschwörung gegen den Samariter Nvidia ;D
 
ebird schrieb:
Offensichtlich falsche Marketingaussagen seitens NVidia, werden ohne Reflektion einfach wiedergegeben. Beispiel Vorstellung GTX 1060: 75% bessere Energieeffizienz bei 15% mehr Leistung macht 120Watt im Vergleich zu 150Watt.

Das dort nicht die RX480 gemeint sein kann, liegt wohl auf der Hand, denn sonst müsste die NVidia maximal 30Watt verbrauchen. Damit die 120 Watt stimmen, müsste die ATI Karte weit über 500 Watt verbrauchen. Welche soll das denn sein? Diese Offensichtlichkeit wird nicht einmal erwähnt.

Du solltest vllt erstmal den Unterschied zwischen EnergieEFFIZIENZ und EnergieVERBRAUCH (/-Bedarf) verstehen.
Klar, bei 150 Watt muss eine Karte, die einen 75% geringeren VERBRAUCH hat 37,5 Watt verbrauchen.
Bei 75% besserer Energieeffizienz, muss sie 150 / 1.75 = ~85,71 Watt verbrauchen. Bei gleicher Leistung(!).

Eine Karte, die doppelt so effizient (= 100% effizienter) ist, verbraucht immerhin nur halb so viel strom und nicht gar keinen...

Wenn die Karte standardmäßig aber auch 15% mehr leistung liefert, muss der Referenzstrom auch um 15% erhöht werden.
Wir erhalten also 150 * 1,15 / 1,75 = ~98,57 Watt. Klar, die 120 Watt sind dann immernoch falsch, aber zu behaupten die entsprechende AMD Karte müsse dann über 500 Watt verbrauchen, ist einfach Bullsh*t.
 
Nacho_Man schrieb:
Glaub doch was du willst, ist hoffnungslos.
Verlink einen Post mit Beweisbildern, ich warte...

Bielefeld-Verschwörung @ its best... :D

Edit:

Wenn es Dich überfordert, die Zahlen und daraus resultierenden Ergebnisse bzw. Schlüsse in folgendem Link zu verstehen, kann ich Dir leider auch nicht helfen.

https://www.reddit.com/r/buildapc/c...ken_kepler_cards_has/?st=iqm5q3ib&sh=5cb5c14d

Eine Diplom/Master-Arbeit zu diesem Thema konnte ich in der Kürze der Zeit leider nicht auftreiben, ich bitte dies zu entschuldigen. Warum nur habe ich das Gefühl, dass dies sowieso nichts an Deiner Sichtweise geändert hätte...
 
Zuletzt bearbeitet:
Ich sehe wieder nur ein paar dahingeschluderte Zahlen, wo sind denn die Beweisbilder? Ein paar Zahlen fälschen kann ich auch. :rolleyes:

Und ich hatte 670,780 und 980, nirgendwo konnte ich Frames-Einbrücke feststellen.
Mag auch daran liegen dass ich nicht jedes Spiel andauernd zwischen den Treibern spiele und nicht mal eines deiner vier verlinkten Spiele habe.
Hast du auch Material zur angeblich langsameren Karte bei CS:GO, WoT oder Anno 2205?
 
MoD85 schrieb:
aber setz dich doch mal ein paar Stunden täglich auf eine 40-60W mehr verbrauchende Glühbirne...

Für ein sehr kleines Gehäuse ist die 480er leider zu hungrig...

Setz Dich mal ein paar Stunden täglich auf nen 40W Lötkolben..merkste was?
Oder setzt Dich in einen Raum der mit einem 40W Heizlüfter beheizt wird..merkstes wenigstens jetzt?
Physik ist nicht so dein Ding,oder?

Was für Grakas hast Du vor 5 Jahren in einem sehr kleinen Gehäuse verwendet? GTS240 oder was?
 
pipip schrieb:
Palmdale
...

Wobei man sagen muss, dass höhere Auflösungen für NV und AMD ein Segen ist, weil diese die Shader schon mehr beanspruchen => siehe Fury.

Korrekt, wenn man denn höhere Auflösungen fährt. Ich kann nicht abschätzen, ob die Design-Änderungen an Vega es noch weiter angleichen und die low-res-Schwäche endlich nimmer existent is. Gerade darunter hat ja die bisherige Generation zu leiden, weshalb man doch guten Gewissens (mal abseits von Emotionen) auch zu Nvidia raten kann.

Wenn gerade kein AS/AC Patch diese Funktion exzessiv einbaut in einen separaten Renderpfad ist man auf DX11 angewiesen, dass unter Nvidia in deren Architektur die Shader bereits nahezu voll auslastet. Die potentiellen Zugewinne in hohen Auflösungen oder durch AS/AC implementierten "Abkürzungen" verdeutlichen klar, dass unter den bisherigen Bedingungen Power verpufft bzw. brach liegt.

Wie ich sagte kann sich sowohl GCN 5.0 oder die Spielelandschaft in 1-2 Jahren nochmals ändern, dann besteht analog die Möglichkeit mit einem Tausch entsprechend zu reagieren. Es sind halt Grafikkarten, keine Eigentumswohnungen oder Pkw Anschaffungen. Das sollten doch überschaubare Investitionen sein, wenn ich bedenk dass ich meine 970 für 334€ kaufte und für 310 verkaufte. :)

Die Spannung steigt, ich will unabhängige Tests zur 1060, vielleicht mit Custom-Roundup? :D
 
issenia schrieb:
@Schnixus
Jo an die Geschichte kann ich mich sehr gut erinnern. Mit Erscheinen der GTX970/980 plötzlich von einem Tag/Treiber auf den anderen ca. 10 FPS weniger mit meiner guten alten GTX 670 in SWtOR. War besonders ärgerlich wegen V-Sync und 60 FPS. Was soll´s, dann habe ich einfach die Settings ein wenig heruntergeregelt und es ging weiter. Das war die erste Verarsche von nVidia an mir.

Du nimmst SWTOR als eine Grundlage für irgendwelche Grafikleistung? Ein Spiel das bis heute die seltsamsten Bugs, Lags und Probleme mit diversen System hervorbringt die sich niemand erklären kann?

So sehr ich das Spiel auch mag. SWTOR braucht einzig eine schnelle CPU. Die GPU Leistung ist schon fast zweitrangig und ruckeln ob auf der Flotte oder einer OP tut das Spiel immer wieder mal ganz unabhängig vom System. Die Engine ist einfach absolut grottig.
 
Mal eine Frage an Besitzer einer Radeon RX 480: Ich weiß, die Games sind schon älter. Aber sowohl Need for Speed: Most Wanted, als auch das gute alte Burnout Paradise stürzen bei mir mit der RX 480 ab. Es erscheint ein Hinweis, dass es Probleme mit dem Grafikkartentreiber gibt.

Habe mittlerweile den Treiber mit Display Driver Uninstaller komplett deinstalliert und danach wieder neu installiert, ohne Verbesserung. Zudem habe ich alle Zusatzprogramme deaktiviert (FPS Anzeige, amd gaming evolved beendet, usw.). Brachte ebenfalls keine Verbesserung.

Bei Need for Speed Most Wanted kann ich den Absturz sogar ganz kontrolliert herbeiführen:
- Onlinemodus
- Fahrzeug über Menü auf BMW M3 Coupe wechseln
- Es erscheint dann noch das Logo der Automarke auf dem Bildschirm, dann stürzt das Spiel ab

Vielleicht kann dies ja jemand mal testen. Möglicherweise habe ich auch ein Montagsmodell der RX 480 von MSI bekommen. Danke!
 
FormatC schrieb:
Genau deswegen durfte die Karte auch nicht verkauft werden und ist auch zu Recht wieder in der Versenkung verschwunden :)
Gut, sie steht jetzt in meiner Galerie :D
Zitat von hier:
https://www.computerbase.de/forum/t...tung-deutlich-zu.1599769/page-9#post-19016952

Fassen wir also zusammen - damals (HD 6850) berichtet ihr das 135 W über PCIe eigentlich kein Problem ist. Und eventuell es zu Problemen kommen kann bei uralten 20Pol steckern uralten bzw. PCIe v1.0 boards und/oder Board die NICHT 2 oder mehr volle PCIe slots.

http://www.tomshardware.de/AFOX-HD-6850-Low-Profile-Review,testberichte-240837-8.html

"Nachtest und wichtiger Hinweis:
Auf Grund einiger im Forum geäußerter Bedenken haben wir die Karte heute früh nochmals in verschiedenen Umgebungen getestet. Boards, die lediglich einen 20-poligen Stromversorgungsanschluss besitzen, sind für diese Karte definitiv ungeeignet, da es zu einer Erwärmung des Steckers kommen kann. Ungeeignet sind auch viele Boards, die nur mit PCIe 1.0 ausgerüstet sind. Boards, die hingegen zwei volle PCIe x16 Slots besitzen (Baugröße, nicht elektrische Anbindung), sollten diese Karte locker wegstecken können, da die Stromversorgung dann auf 150 Watt und mehr ausgelegt ist (insgesamt). Bliebe die Kontaktproblematik der Slots. Da die Karte sehr leicht ist, sollte es zu keinem Durchhängen kommen und die Kontaktbelastung dürfte auch gleichmäßig ausfallen. Wenn die Karte in HTPCs stehend eingebaut ist, sehen wir die Kontaktproblematik von Haus aus entspannter."

Warum habt ihr zum RX 480 Test so einen Aufriss gemacht wegen der 82 W ?

"uhh gefahr könnte ja die Pins / Leiterbahnen etc...aber damals hattet ihr das schon mit einer Karte untersucht die die "Spec" um fast das doppelte überschreitet und KAUM/Keine Probleme ausgemacht !

Ich zitiere dich selbst aus einem früheren Beitrag:
https://www.computerbase.de/forum/t...-pcie-standards.1596287/page-20#post-18971841
Der 12V-Anschluss am PEG ist laut SIG mit 5.5 Ampere spezifiziert, einschließlich 9% Toleranz nach beiden Seiten hin. Ich habe im Mittel aber ca. 7 Ampere gemessen, also fast 30% mehr! Selbst wenn man gnädig die Toleranz mit einpackt, verbleiben immer noch so um die 20% Überschreitung.

Also damals 80% dauerhafte Überschreitung - "...eigentlich kein Problem, außer bei... xyz-Uralt hardware fällen).

JETZT Jahre Später 20% Überschreitung RIESEN-DING...

Ich denke da sollte mal ein bisschen eine "offizielle" Entschuldigung raus von euch Hardwareseiten.

EDIT: Oder wolltet ihr absichtlich den "Launch" der AMD-Karte "etwas" sabotieren ? - was ich nicht glauben mag und will.
 
Zuletzt bearbeitet:
Iscaran schrieb:
Ich denke da sollte mal ein bisschen eine "offizielle" Entschuldigung raus von euch Hardwareseiten.
EDIT: Oder wolltet ihr absichtlich den "Launch" der AMD-Karte "etwas" sabotieren ? - was ich nicht glauben mag und will.

Du vermischt hier leider zwei Dinge. Der jetzige Launch war von AMD selbst und stellt das Referenzdesign dar. Die damalige Karte hat ein kleiner chinesischer Nischenfertiger nicht für den offiziellen Markt, sondern für ein paar Spielautomaten in Kleinstserien gefertigt, die noch nicht mal einen 6-Pin drin hatten. Sie ist so auch nie in den Handel gekommen. In den Slot-Machines lief sie allerdings.

Der andere Punkt, der mir nicht gefällt: ich habe im Launchartikel sehr bestimmt auf den nötigen 8-Pin verwiesen, auch im Hinblick auf eine sinnvolle Lastverteilung und die erhöhte Leistungsaufnahme - und dies absolut emotionslos auch im Hinblick aufs OC und Multi-GPU-Lösungen kritisiert. Kollegen haben meine Diagramme z.T. aus dem Zusammenhang gerissen und ohne Zitate und Links selbst kommentiert und weiter noch einen draufgesetzt. Dann zieht man halt nach. Damals konnte ich auch nur wie CB an der Steckdose messen, doch man entwickelt sich ja weiter. Sollte man zumindest :)
 
Zuletzt bearbeitet:
Ich verweise nur noch einmal auf deine Ergebnisse zur 6850 wo eine Specüberschreitung um 80% MIT Nachtest keine Probleme bescheinigt hat.

Und beim aktuellen Test, ebenfalls von euch. Habt ihr selbige Ergebnisse von damals offenbar nicht mehr parat ?

http://www.tomshardware.de/AFOX-HD-6...-240837-8.html

"Nachtest und wichtiger Hinweis:
Auf Grund einiger im Forum geäußerter Bedenken haben wir die Karte heute früh nochmals in verschiedenen Umgebungen getestet. Boards, die lediglich einen 20-poligen Stromversorgungsanschluss besitzen, sind für diese Karte definitiv ungeeignet, da es zu einer Erwärmung des Steckers kommen kann. Ungeeignet sind auch viele Boards, die nur mit PCIe 1.0 ausgerüstet sind. Boards, die hingegen zwei volle PCIe x16 Slots besitzen (Baugröße, nicht elektrische Anbindung), sollten diese Karte locker wegstecken können, da die Stromversorgung dann auf 150 Watt und mehr ausgelegt ist (insgesamt). Bliebe die Kontaktproblematik der Slots. Da die Karte sehr leicht ist, sollte es zu keinem Durchhängen kommen und die Kontaktbelastung dürfte auch gleichmäßig ausfallen. Wenn die Karte in HTPCs stehend eingebaut ist, sehen wir die Kontaktproblematik von Haus aus entspannter."

Ob die Karte nun von AMD oder nicht von AMD ist spielt doch bei der BEURTEILUNG des PCIe Ports etc. keine Rolle ?

Fakt, von dir selbst herausgestellt: Damals 80% Übertretung...naja "passiert" nix (vereinfacht)

Jetzt 20% Übertretung.....naja ist "Specverletzung ist problematisch oder auch nicht"...

DAMALS war es wesentlich eindeutiger und besser formuliert als JETZT.
 
Wenn Du das mit mir unbedingt diskutieren möchtest, dann nicht in diesem Forum :D

Ansonsten gern aus meinem Post:
Damals konnte ich auch nur wie CB an der Steckdose messen, doch man entwickelt sich ja weiter. Sollte man zumindest
Mittlerweile habe ich ein Labor und kann wesentlich detaillierter messen. Auch die Folgen abschätzen. ich kenne sehr viele Hersteller und habe das auch mit den Mainboardherstellern und den R&D-Leuten direkt besprochen. Und noch einmal: lies Dir bitte noch einmal den obigen Post durch, dann meinen Launchartikel, die zwei Folgeartikel und danach bitte auch, was Kollegen wie PCPer zunächst daraus gemacht haben.

Noch ein Selbstzitat von mir zur RX480:

Igor Wallossek schrieb:
...Aktuelle Hardware sollte diese Ströme trotzdem ohne Schäden überstehen, was allerdings auch unkorrodierte und saubere Slots voraussetzt. Es ist zudem auf einen genauen Sitz der Grafikkarte zu achten. Dies gilt übrigens immer, auch wenn die Ströme deutlich niedriger ausgefallen wären.

Trittbrettfahren, die versuchen, ihre vorher bereits geschädigte oder unsaubere Hardware samt möglicher Schäden als Folge zu deklarieren und damit in der Öffentlichkeit nach Aufmerksamkeit suchen, müssen wir ebenfalls eine klare und eindeutige Absage erteilen. Auch im Audio-Bereich kann nichts kaputt gehen, selbst wenn manche Lastspitzen vielleicht zu unschönen und hörbaren Interferrenzen führen können, die an Nichtlinearitäten analoger Schaltungen auftreten können. Hier wurde von Dritten ohne Grundwissen und Fakten lediglich eine urban legend verbreitet.

Wir möchten auch unsere Kollegen nochmals bitten, nicht nur einfach Grafiken aus den Artikeln zu übernehmen, sondern auch unsere verbalen Bewertungen dazu. Dazu gehören übrigens auch der Messaufbau und der Verweis auf wichtige, weiterführende Artikel von unserer Seite, was zudem auch hilft, das veröffentlichte Material qualitativ richtig einzuordnen und Gerüchten vorzubeugen...

..Probleme sollten also - wenn überhaupt - nur dann auftreten können, wenn minderwertige, verdreckte oder veraltete Komponenten zum Einsatz kommen, der Einbau unsachgemäß vorgenommen oder der Stromfluss durch ein zu hohe Übertaktung zusätzlich verstärkt wurde.

Das liest sich eigentlich kaum anders. Oder? Ich bestehe auf einer Entschuldigung für diese Unterstellung. Die Sau durchs Dorf treiben gewisse Fanboys, die vor lauter Übereifer noch nicht einmal alles durchgelesen haben, aber garantiert nicht ich. Dazu sehe ich Grafikkarten, AMD und Nvidia viel zu emotionslos :)
 
Zuletzt bearbeitet:
Lieber Igor,

du hast Zurecht von mir eine Entschuldigung verdient.

Im Vergleich zu anderen Seiten habt ihr es wirklich noch sehr dezent formuliert dargelegt.

Aber ich habe meine Forderung ja auch nicht direkt nur dir und THG gegenüber aufgestellt sondern breit an ALLE beteiligten Hardwareseiten:

Ich denke da sollte mal ein bisschen eine "offizielle" Entschuldigung raus von euch Hardwareseiten.

(Den Rest siehe PN)
 
Hey Nacho_Man,
hier gibts auch schöne Bilder ;) Es ist zwar kein direktes Verlangsamen durch schlechtere Treiber, aber trotzdem etwas in Richtung geplante Obsoleszens.
 
Zurück
Oben