Test AMD Radeon RX 470 im Test: Von Asus, PowerColor und Sapphire mit 4 und 8 GByte

Redragonzensor schrieb:
Witcher 3 hat also qualitativ schlechte Texturen?

Witcher 3 hat zwar gute Texturen in der Nahaufnahme, aber ein wirklich schlechtes LoD, also alles, was etwas weiter weg ist ist ziemlich schlecht aufgelöst, was unter anderem dafür sorgt, dass es massiven Pop-In gibt. Sobald man das Texturbugdet und per Mods das LoD erhöht, frisst das viel Ram und VRam.

Ich verstehe nicht, wieso die Leute sich immer massiv gegen die Aussagen von Fachleuten zu VRam wehren? Sowohl Raff von PCGH als auch Volker haben beide die Vorteile von großem VRam erläutert/ die Nachteile klargestellt. Und dann kommen die ganzen Forenspezialisten und empfehlen Texturreduktion, oder sagen, dass Texturen GPU-Leistung kosten, oder das die Leistung einer 480 nie ausreichen wird um 8GB zu füllen (Wieso muss man sie denn füllen? Es reicht eine Belegung über 4/6GB aus).

Letztendlich ist es wohl sehr unwahrscheinlich, dass genau diese Personen einen größeren Durchblick haben, als die Redakteure, die beinahe täglich mit verschiedenen Grafikkarten in verschiedenen Szenarien umgehen.

Die Gründe, dass man gegen die Aussagen dieser Fachleute spricht sind eher Unwissenheit im Thema oder Fanboytum, bei der man die Karten seiner One-and-only-Firma verteidigen muss.

Grundsätzlich verkommt der Thread gerade eh zu einem Mischmasch aus Falschaussagen, Lügen, Unwissenheit und Fanboytum.
 
Wegen dem Stromverbrauch,

die Messungen hier die durchgeführt wurden sind relativ obsolet. Diese wurden nur für einen Bruchteil eine Gamingsession gemessen und haben somit nur einen Richtwert der mit einer Session von mehreren Stunden absolut nicht verglichen werden können. Vergleicht man Strommessungen mehrere Testseiten wird man die teils sehr großen unterschiede wohl auch bemerkt haben. Ich habe mich mit diesem Thema auch schon vor Jahren beschäftigt und musste feststellen das bei geringen unterschieden dieser Faktor vollkommen vernachlässigt werden kann.

Wenn ich dann noch so kommentare lese wie das wir in einer Gesellschaft leben in der es in die Richtung geht Ressource zu sparen .... :freak: .... da kann ich mir nur die Hand vors Gesicht halten. Wieviel Energie wir sparen sehen wir ja an den Subventionieren Großunternehmen welche von unseren Steuergeldern dazu genötig werden mehr billigen Strom zu verbrauchen. Oder wir verschenken den überflüssigen Strom unseren Nachbarn und kaufen diesen dann wieder teuer ein weil wir nun doch plötzlich kurzzeitig einen Mehrverbrauch haben. Wir leben in einer Gesellschaft wo dir von der Politik und den Medien eingeredet wird in welche Richtung es gehen soll.

Man könnte fast meinen das all diese Leute welche den Stromverbrauch als Kaufargument verwenden ein 3 Liter Auto fahren. In wahrheit fahren die meisten dann noch Spritschleuder ... ach die Ressourcen ... ich brauch doch Leistung :D.

Am Ende sind die verbrauchsunterschiede beider Grafikkarten so gering das man dies nicht mal auf der Stromrechnung sieht.

Und wer den Stromverbrauch bei OC vergleich dem ist eh nicht mehr zu helfen. Wer OC betreiben möchte der muss mit unangenehmen folgen leben wie einem erhöhten Stromverbauch. OC ist bei Grafikkarten iheute so oder so Obsolet. Wenn eine karte sich nicht mindestens um 30% übertakten lässt dann kann man es sich auch Sparen. Ob ich nun statt 40, 44 oder 48 FPS habe ist egal.
 
Bei der ganzen Stromspardebatte wisst ihr hoffentlich auch, dass die Produktion und Verschiffung der neuen Grafikkarte und die Entsorgung der alten wesentlich mehr Energie verbraucht, als der potentielle Energiegewinn einbringt. Das mal kurz zur Ökobilanz.

Wenn ihr bei eurer Ökobilanz ein gutes Gewissen haben wollt, nutzt eure Grafikkarte so lange wie möglich und kauft nicht gleich ein neues Modell, sobald eure FPS unter 60 fallen. Da helfen auch keine Stromsparmodelle.

So, genug Moralapostel für heute gespielt. ^^

Liebe Grüße
fara
 
Zuletzt bearbeitet:
Hm, ich kann verstehen, dass hier einige von der Karte, oder besser von ihrem Preispunkt enttäuscht sind.
Einerseits. :)
Andererseits ist die hier (4GB) ziemlich genau richtig für mich. Eine optimale in-between-card für 1680x1050 bis ich mir nächstes Jahr im Herbst dann einen neuen PC zusammenbaue mit ZEN und (sofern brauchbar) Vega, + neuen Monitor damit auch die neuen Top-Titel flutschen.
Das Teil wird dann für'n Hunni verhökert und Gut ist's.
Und als HD6870 (1GB) replacement reicht die vollkommen. (Und ja, in diesem Fall würde wahrscheinlich sogar eine RX460 reichen. Nur von der weiß ich noch nichts.)
 
BookerDeWitt schrieb:
Ich verstehe nicht, wieso die Leute sich immer massiv gegen die Aussagen von Fachleuten zu VRam wehren? Sowohl Raff von PCGH als auch Volker haben beide die Vorteile von großem VRam erläutert/ die Nachteile klargestellt. Und dann kommen die ganzen Forenspezialisten und empfehlen Texturreduktion, oder sagen, dass Texturen GPU-Leistung kosten, oder das die Leistung einer 480 nie ausreichen wird um 8GB zu füllen (Wieso muss man sie denn füllen? Es reicht eine Belegung über 4/6GB aus).
Gib mir doch mal eine vernünftige Erklärung. Warum werden eigentlich noch 3-4GB Karten im Jahr 2016 zum Verkauf angeboten ? Die verlangen mindestens 220€ für etwas was nach aussagen verschiedener Spezialisten schon heute nicht mehr genügt. Für 6-8 GB Karten werden aber aberwitzige Preise aufgerufen. Geht es hier vielleicht doch nicht nur ums abkassieren und Panikmache ? Warum existieren überhaupt noch 4 GB Karten ? Die haben anscheinend keine Daseinsberechtigung.

Ich werd dir jetzt noch etwas erzählen, ich zocke sogar mit nur 1 GB ! Natürlich 12 GB Vram sind mir auch lieber, aber nicht um jeden Preis. Kannst du dir auch vorstellen das jemand keine AAA spiele zockt und mit 4GB sehr gut leben kann ?
 
Eigentlich eine nette Karte, aber ich glaube das ich noch etwas abwarten werde und schaue was Nvidia aus der GTX 1050 macht.
Ansonsten wird es wahrscheinlich die GTX 1060 oder eben die RX470/80.
 
D3xo schrieb:
Gib mir doch mal eine vernünftige Erklärung. Warum werden eigentlich noch 3-4GB Karten im Jahr 2016 zum Verkauf angeboten ? Die verlangen mindestens 220€ für etwas was nach aussagen verschiedener Spezialisten schon heute nicht mehr genügt. Für 6-8 GB Karten werden aber aberwitzige Preise aufgerufen. Geht es hier vielleicht doch nicht nur ums abkassieren und Panikmache ? Warum existieren überhaupt noch 4 GB Karten ? Die haben anscheinend keine Daseinsberechtigung.

Ich werd dir jetzt noch etwas erzählen, ich zocke sogar mit nur 1 GB ! Natürlich 12 GB Vram sind mir auch lieber, aber nicht um jeden Preis. Kannst du dir auch vorstellen das jemand keine AAA spiele zockt und mit 4GB sehr gut leben kann ?

Wieso benötigen wir immer die Minimal-Anforderung? Wieso versteifst du dich immer so auf ein Minimum?

Ich zitiere mich mal aus einem anderen Thread:

Texturen kosten kaum GPU-Leistung, nur VRam und eventuell ein bisschen mehr CPU-Leistung, da die Streaming-Engine mehr zu tun hat. [Solch eine Aussage immer noch im Jahr 2016 lesen zu müssen verstört mich, es wurde doch schon von vielen Seiten bewiesen, dass größere Texturen keinerlei merklichen Einfluss auf die Performance hat (vielleicht im Promille-Bereich).]

[Wenn du mir nicht glaubst, dann kannst du ja mal in ein Spiel gehen, deine FPS im GPU-Limit messen und dann die Texturen auf Low stellen.. sollte dir die Augen öffnen.]


[Zu deiner letzten Aussage:] Schärfere Texturen bewirken auch in sub-Full-HD Vorteile. Letztendlich muss man aber auch die Distanz zur Kamera einbeziehen. Eine 2048-Textur im Bildvordergrund kann zu schlecht sein, die selbe Texturengröße auf ein 5x5 Pixel Objekt ist reiner Schwachsinn.

Viel VRam wird nicht nur durch die Texturengröße selber, sondern auch durch Storage oder Erhöhung der Sichtweite benötigt.

Eine zwanghafte Anpassung der Settings auf weniger VRam kann für mehr Pop-In (siehe Witcher 3 und dessen 2GB-VRam-Target), oder deutlich schlechtere Bildqualität im Vordergrund sorgen. Desweiteren kann es Nachladeruckler etc. pp. geben.

Jetzt noch zum kleineren VRam und notfalls Detailreduktion zu raten ist einfach nur noch falsch. Es ist auch nicht notwendig den verdoppelten VRam maximal zu füllen, sobald die einfache Menge nicht mehr für max. Bildqualität ausreicht, hat sich die andere Version schon ausgezahlt. Eine Grafikkarte muss nicht eine gewisse Rohleistung mit sich bringen um eine gewisse Menge VRam nutzen zu können. Es hängt spezifisch von der verwendeten Software ab, denn man kann auch mit geringer Rohleistung viel VRam füllen und gut für Bildqualität nutzen. Des weiteren bietet mehr VRam eben auch mehr Zukunftssicherheit.
 
schkai schrieb:
Wegen dem Stromverbrauch,

die Messungen hier die durchgeführt wurden sind relativ obsolet. Diese wurden nur für einen Bruchteil eine Gamingsession gemessen und haben somit nur einen Richtwert der mit einer Session von mehreren Stunden absolut nicht verglichen werden können.

Was macht es denn für einen Unterschied ob ich beim Zocken 1 Minute den Strombedarf messe, oder 1 Stunde? Gar keinen.

Wieviel Energie wir sparen sehen wir ja an den Subventionieren Großunternehmen welche von unseren Steuergeldern dazu genötig werden mehr billigen Strom zu verbrauchen.

Ich arbeite bei BMW in der Elektrotechnik und kenne die Tarife ziemlich gut. Da geht es um Mindestabnahmemengen um das Stromnetz stabil zu halten, kein Unternehmen wird dazu genötig mehr Strom zu verbrauchen, das ist absoluter Käse, das ganze ist ein bisschen komplizierter um das hier jetzt zu erklären.

Aber sind wir Großunternehmen? Ich denke wir sind in erster Linie Verbraucher.
Wenn ich ständig mit dem Argument komme nur weil andere viel verbrauchen, lohnt sich es für mich nicht Strom zu sparen, also mit der Argumentation kann ich natürlich jeden energiesparenden Ansatz in die Lächerlichkeit ziehen, fragt sich nur warum so ein Unsinn wieder nötig ist.

Oder wir verschenken den überflüssigen Strom unseren Nachbarn und kaufen diesen dann wieder teuer ein weil wir nun doch plötzlich kurzzeitig einen Mehrverbrauch haben.

Die Dinge sind halt eben komplex und der einfache Bürger meint mit 0815 Kenntnissen über die Stromnetze und Stromtrassen mit solchen halbgaren Aussagen mitreden zu können.

Am Ende sind die Verbrauchsunterschiede beider Grafikkarten so gering das man dies nicht mal auf der Stromrechnung sieht.

Dann schau mal Ende des Jahres auf die Stromrechnung, wenn für dich 20 Euro für eine einzelne Komponente eines Rechners "gering" sind, dann kann ich dir auch nicht helfen. Zwischen leistungsmäig fast gleichwertigen Karten wie einer Nitro rx480 OC und einer GTX 1060 liegen eben mal 60 Watt zwischen.

Der direkte Konkurrent von Nvidia zur rx470 wird doch erst noch vorgestellt mit wahrscheinlich weniger als 100 Watt Leistungsaufnahme.

Und wer den Stromverbrauch bei OC vergleich dem ist eh nicht mehr zu helfen. Wer OC betreiben möchte der muss mit unangenehmen folgen leben wie einem erhöhten Stromverbauch.

Tut sowieso niemand außer Chismon, der kann scheinbar mit einem exorbitanten Stromverbrauch leben um auf Kante genäht eine GTX 1060 zu erreichen und das dann zu feiern.

OC ist bei Grafikkarten heute so oder so Obsolet.

Wenn der Stromverbrauch fast linear zur erzielten Mehrleistung ansteigt, dann ist ein OC Potenzial schon recht nett.
 
@BookerdeWitt
Was hat das jetzt mit meinem Beitrag zutun ? Das ist keine Erklärung nach der ich gesucht habe. Was willst du mir überhaupt sagen ? Das mehr Speicher vom Vorteil ist und Zukunftsicherer ist ? Danke, aber das weiß ich doch schon alles, glaub das bestreitet auch niemand. Mir geht es viel mehr um die Strategie dahinter.
 
Wenn ich schon Stromverbrauch sehe.

Das interessiert nunmal nicht jeden. Mir ist es relativ egal was die Graka zieht hauptsache sie hat Leistung und ich kriege sie leise.
Bei meinem Hobby juckt es mich nicht mal wenn ich im Jahr einen Hunderter drauf lege wenn die Graka dementsprechend feuer gibt.

Also weniger verallgemeinern ^^
 
@Touchthemars: Ach, das ist bestimmt dieser neue Hype, man müsse Strom sparen, um der Umwelt etwas Gutes zu tun. Nur vergisst man dabei sehr schnell, dass die Entsorgung alter Grafikkarten um einiges schädlicher für die Umwelt ist, als der Strom, der so ein Ding vom Netz zieht.
 
D3xo schrieb:
@BookerdeWitt
Was hat das jetzt mit meinem Beitrag zutun ? Das ist keine Erklärung nach der ich gesucht habe. Was willst du mir überhaupt sagen ? Das mehr Speicher vom Vorteil ist und Zukunftsicherer ist ? Danke, aber das weiß ich doch schon alles, glaub das bestreitet auch niemand. Mir geht es viel mehr um die Strategie dahinter.

Es gibt die 3GB/4GB-Karten entweder als Karten der alten Generation im Abverkauf, für Leute, die mit Detailreduktion, geringerer Langlebigkeit etc. leben können, oder nur unaufwändige Spiele spielen, oder einfach nur als "Bauernfänger". Wenn du eine Allround-Karte ohne Kompromisse suchst gehört ein größerer VRam-Ausbau dazu.

An diesem sollte man auch nicht sparen, denn wie man an den alten nVidia-Karten (z.B. Kepler 770/780(Ti)) sieht wirkt sich das negativ auf die Langlebigkeit aus und man zahlt viel eher für eine neue GPU letztendlich mehr drauf. (Welche Rolle der Treiber spielt bleibt jetzt besser mal außen vor).

Letztendlich sehe ich den größeren VRam-Ausbau nicht als "Abzocke" aus eben genannten Gründen.
 
TBrandes schrieb:
... wenn ich mir die ganzen Threads über Grafikkarten anschaue sollte der Bereich anstelle von 'Fachgespräche' eher 'Streitgespräche' heissen. Anstelle von Informationen findet man ja eh' nur Fanboygrabenkämpfe...

schkai schrieb:
Am Ende sind die verbrauchsunterschiede beider Grafikkarten so gering das man dies nicht mal auf der Stromrechnung sieht.

faraday schrieb:
Wenn ihr bei eurer Ökobilanz ein gutes Gewissen haben wollt, nutzt eure Grafikkarte so lange wie möglich und kauft nicht gleich ein neues Modell, sobald eure FPS unter 60 fallen. Da helfen auch keine Stromsparmodelle.

BookerDeWitt schrieb:
Es gibt die 3GB/4GB-Karten entweder als Karten der alten Generation im Abverkauf, für Leute, die mit Detailreduktion, geringerer Langlebigkeit etc. leben können, oder nur unaufwändige Spiele spielen, oder einfach nur als "Bauernfänger".

:daumen:
 
Zuletzt bearbeitet:
billdy schrieb:
.
Tut sowieso niemand außer Chismon, der kann scheinbar mit einem exorbitanten Stromverbrauch leben um auf Kante genäht eine GTX 1060 zu erreichen und das dann zu feiern.

Ich bin irritiert. Die Benchmarks hier sagen doch was ganz anderes. Da liegt eine RX 480 im aktuellen CoD mehr als 25% über der GTX 1060.
Kann es sein, dass die AMD Karten auf dem Papier die nominell wesentlich besseren Leistungspotentiale haben und die Benchmarkergebnisse signifikant vom Entwickler und dessen Spielen abhängen? Beim Blick auf die Zukunft (VRAM, DX 12, Vulcan etc.) ist jedenfalls nichts auf Kante genäht, da überlappt das AMD-Stück auch ohne OC gewaltig. Da ändert es auch nichts hier tausendmal das Gegenteil zu behaupten. Wer kauft sich denn ne Karte um seine alten DX 11-Spiele, die eh schon gut laufen noch besser laufen zu lassen oder sich bei Spielen bei denen FPS schnurz sind (ANNO) über 5 FPS mehr zu freuen?
 
@billdy

Du bist ein Troll der seinesgleichen sucht. Dir geht es um Strom sparen ? Wenn Große Subventionierte Unternehmen Strom "verbraten" damit das Stromnetz stabil bleibt ist keine verschwendung für dich ? Du widersprichst dir selber und vergleichst OC Karten mit Referenzkarten. Ich habe schon mal geschrieben das ich mich mit dem Thema sehr wohl befasst habe und Messungen über mehrere Wochen geführt habe. Und ja, Messungen welche für 60 Sekunden geführt wurden und welche für Wochen geführt wurden, es gibt ernorme Unterschiede. Je nach FPS und Auslastung der Karte ändert sich der Stromverbrauch eklatant. Es ist durchaus angebracht zu sagen das AMD mehr verbraucht als Nvidia, aber es ist ein so geringer marginaler unterschied das man sich darüber nicht mal unterhalten müsste. Wie kommst du auf 20 Euro mehr ? Da müsstest du ja Täglich mehr wie 8 Stunden AAA Titel zocken - Hartz 4 und der Tag ist dir.
 
Feuerbiber schrieb:
Ich bin irritiert. Die Benchmarks hier sagen doch was ganz anderes. Da liegt eine RX 480 im aktuellen CoD mehr als 25% über der GTX 1060.

Ich rede bzw Chismon von der rx470x OC Strix oder Devil + eigenes OC und nicht von der rx480 und das nicht in einem einzigen Spiel, sondern durch den Benchmarkparcour.

Kann es sein, dass die AMD Karten auf dem Papier die nominell wesentlich besseren Leistungspotentiale haben und die Benchmarkergebnisse signifikant vom Entwickler und dessen Spielen abhängen?

Auf dem Papier gibt es ja noch andere Dinge als die bloßen Teraflops. Ich sehe auf dem Papier kein höheres Leistungspotenzial einer rx470 gegenüber einer GTX 1060, eher im Gegenteil.

Beim Blick auf die Zukunft (VRAM, DX 12, Vulcan etc.) ist jedenfalls nichts auf Kante genäht

Nein, da hast du recht, hab ja auch nicht von der Architektur gesprochen. Featurelevel 12_0 ist aber auch nicht besonders zukunftsträchtig.

da überlappt das AMD-Stück auch ohne OC gewaltig. Da ändert es auch nichts hier tausendmal das Gegenteil zu behaupten.

Ich frag mich immernoch wieso ihr mit aller Macht eine rx470 auf das GTX 1060 Niveau reden wollt, wenn da mal problemlos 20% und mehr an Leistung dazwischen liegen, das wird kein Directx12 oder Vulkan beheben können.

In Vulkan zieht AMD bei Dota 2 und Thalos Principle mal gar nix vom Leder, aber das interessiert ja nicht, weil es nicht ins Konzept passt.
 
Zuletzt bearbeitet:
schkai schrieb:
@billdy

Du widersprichst dir selber und vergleichst OC Karten mit Referenzkarten.

Nein, das hat Chismon gemacht, ich vergleiche überhaupt keine OC Karten mit Referenzkarten, ich würde dir mal empfehlen 2 oder drei Seiten zurückzublättern, wer hier ständig mit einer OC rx470 gekommen ist.:rolleyes:

Mir gehts nicht mal um das Stromsparen, aber es ist halt so lustig wenn AMD Verteidiger den höheren Strombedarf mit irgendwelchen Konzernen die angeblich viel Strom verbrauchen sollen negieren.
Ergänzung ()

Dai6oro schrieb:
Nur ein Spiel das 12_1 nutzt bitte nur eines.

Und nur ein Spiel unter Vulkan bringt Mehrleistung bei AMD, Thalos Principle und Dota ja wohl nicht.
Außerdem gibts noch gar kein Spiel mit Directx12.1, mir ist keines bekannt, können aber genauso kommen, von daher ist das mit AMD wird schneller sein unter Vulkan/Directx12 mal wieder so ein Glaskugelthema.
 
Zuletzt bearbeitet:
Ich verstehe das schon. Man hat sich von AMD eine 8GB GPU gewünscht, die 20% schneller als eine GTX1060 ist aber 50 Euro billiger und trotzdem sparsam. Jetzt sind die Leute halt enttäuscht und versuchen mit Händen und Füßen das beste daraus zu machen. AMD kocht halt auch nur mit Wasser.
Es sollte aber klar sein, dass GF da sicher eine Mitschuld trägt und das wird bestimmt auch noch besser.
 
Zurück
Oben