Test AMD Radeon RX 470 im Test: Von Asus, PowerColor und Sapphire mit 4 und 8 GByte

Du darfst aber auch nicht vergessen, dass Kosten, die man über mehere Jahre bezahlt, ganz anders behandelt werden, als Kosten die auf einen Schlag entstehen (also der Kauf einer neuen Grafikkarte).

Die Stromkosten gehen in eine Mischkalkulation ein und sind dort für sich fast irrelevant.

Abgesehen davon sind die Karten ja definitiv effizient, wenn man das mit den Hawaii und Kepler Karten vergleicht, da ist einiges passiert.
 
Dann übertaktet doch einfach nicht, ich weiß auch nicht was ihr dauernd mit OC habt.
OC ist für Leute mit zuviel Geld, oder wenn die Eltern noch die Stromrechnung bezahlen, oder für die, die das letzte Quäntchen Leistung brauchen... ABER DANN KAUFT EUCH BITTE EINE 1080 und keine RX 470 !

Zwischen einer MSI 1060 und 470 Red Devil Silent (denke die MSI Version wird ähnlich sein) liegen ~20 Watt, damit kann man leben.

Die MSI 1060 liegt bei 329 Euro, nehmen wir mal den CB Performanceunterschied (22%), dann wären 269 Euro für die RX 470 angemessen (Stromdiff. ~20 Watt außer acht gelassen, dafür lassen wir auf der anderen Seite 2 GB fallen).

Und im Moment liegt der Preis auch bei 269 Euro, also bekommt man fürs Geld die gleiche Leistung, halt nur in unterschiedlichen Leistungskategorien (20% Differenz).
Ich weiß also garnicht was es das zu streiten gibt.

Die RX 470 ist nicht das Konkurrenzmodell zur 1060, sie hat aber von Preis-/Leistung den gleichen Abstand. Und da nvidia eh zu teuer ist, heißt das gleichzeitig, dass auch die RX 470 zu teuer ist. Daher warte ich auf den Preis von 249 für eine RX 470.

Ich kauf mir eine gute RX 470, OC ist mir egal, LEISE muss das Ding sein und nicht unnötig viel Strom verballern.
Daher entfällt bei mir eine Nitro+, für 4% ~30 Watt mehr im Vergleich zu einer Devil, brauch ich nicht, auch wenn das "nur" bei mir 10 Euro Strom / Jahr sind. Wenn man die auf die gleiche Wattzahl beschränken (runtertakten) kann und die Leistung gleich ist, dann überleg ichs mir, aber dazu gibts noch keine Erfahrungsberichte, oder ich warte auf eine MSI, die das wohl von Haus aus gleich so macht.
 
Zuletzt bearbeitet von einem Moderator:
Da hier ja alle auf dem Stromverbrauch rumreiten, folgende Werte von Guru3D (Wie gemessen wurde kann man dort nachlesen):

Grafikkartenverleich.jpg
 
Zuletzt bearbeitet:
billdy schrieb:
Ich bin ja grundsätzlich deiner Meinung was den Strombedarf angeht, wenn aber jemand eine OC rx470 ins Feld führt die mehr als 100 Watt mehr zieht wie eine GTX 1060, dann ist das aber schon ein Argument, alleine wegen Kühlung, Lautstärke und Hitze.
Man sagt man achte auf das P/L Verhältnis der Karten und will günstige Karten, achtet dann aber nicht auf die Betriebskosten?
Das ist doch ein Logikfehler, oder nicht?

Also wenn ich mir jetzt ein Referenz 1060 gegen eine Asus RX470 stelle, welche im Vebrauch der Referenzkarte sehr nahe sein dürfte, verbaucht diese grade mal 20 Watt mehr. Eine Referenz RX480 vebraucht dagegen ca 40 Watt mehr als die 1060. Es sind alles rein spekulative Werte da es nur wenige Szenarien beinhaltet und ein circa Wert ist. In der realen Welt wird der Abstand noch geringer sein. Bei Kühlung und Hitze gebe ich dir recht, bei Highend kann man aber natürlich keinen Eisblock erwarten. Wir sind hier aber bei Midrange und da spielen diese Faktoren eine eher untergeordnete Rolle, nicht aber die Lautstärke. Hier ist ein gescheites Kühlkonzept gefragt. Auch eine Karte welche wenig verbraucht aber ein schlechtes Kühlkonzept hat wird laut sein.

Betriebskosten sind laufende Kosten welche sich nicht kalkulieren lassen und aus dem Grund eine eher untergeordnete Rolle spielen. Man kann zwar eine Tendenz kalkulieren, dies lohnt sich aber bei einem Marginalen Worst Case verbrauch von max 40 Watt mehr nicht wirklich.

Ein kleines Rechenbeispiel:

Gehen wir von einem durchschnittlichen Zockerlebnis von 4 Stunden täglich aus und dem Worst Case von 40 Watt mehrverbrauch einer RX480 vs 1060 aus. (In der realität wird das max 10 - 20 Watt sein).

Das wären im Jahr 1456 Stunden. Das macht dann im Jahr einen Mehrverbrauch von 58,24 Kwh aus. Gehen wir von einem Strompreis bei 25 cent die Kwh aus, dann haben wir einen Mehrpreis von 14,56 € im schlimmsten Fall. In der realität werden es aber um die 7 Euro sein. Pro Monat sind das dann 1,21 € oder realistisch 0,60 €.

Ich denke bei solchen Summen kann man den Stromverbrauch ausser Acht lassen und sich mehr auf Preis / Leistung / Lautstärke orientieren.
 
Zuletzt bearbeitet:
Redirion schrieb:
Und für späteren Service auch eher nicht, da keine andere Karte so etwas zu haben scheint (und auch keine andere Asus, wie man schön an der RX 470 sieht).

Du meinst zum Beispiel die ASUS 1080 Strix?
6-630.1624646574.jpg

Oder die Palit 1060:
13-1080.2823590602.jpg

Damit kann der erfahrene User die reale VCore beim Overclocking nachmessen. Macht geschätzt vielleicht 0,1% der Käufer.
 
Zuletzt bearbeitet:
Als Elektroniker habe ich lieber Messpunkte und brauche sie nicht als keine zu haben und welche zu brauchen... oder besser gesagt keine haben aber es damit viel leichter zu haben ^^
 
Shelung schrieb:
Als Elektroniker habe ich lieber Messpunkte und brauche sie nicht als keine zu haben und welche zu brauchen... oder besser gesagt keine haben aber es damit viel leichter zu haben ^^

Die dual 1060 hat sie, aber nicht nutzbar.. Die Phoenix und Jetstream hats und finde ich ziemlich geil.. Nur das Anlöten von Litzen würde mich bei 300€ Immer noch hemmen
 
billdy schrieb:
Die Tests der GTX 1060 und rx470 zeigen klar, dass die GTX 1060 mit nur 19 Watt 14% mehr Leistung zulässt und die rx470x Karten 15% bei 70 bis 80 Watt Mehrverbrauch. Ein besseres Preisleistungsverhältnis erhältst du dadurch bei der GTX 1060 da die Karte 60 Watt weniger Strom benötigt und 15 bis 20% schneller arbeitet und gerade ja nicht mittels Übertaktung einer rx470 ...


Besser wäre es vor der eigenen Türe zu kehren, aber das scheint Dir sichtlich schwer zu fallen ;). Dass das OC der RX 470 (auf Niveau einer GTX 980) einen Mehrwert bietet, ist unbestritten (aus Jux und Tollerei wird Guru3D.com die Karte wohl sicherlich nicht als "Top Pick" empfohlen haben), auch wenn dabei der Verbrauch ansteigt, wenn auch unübertaktet die RX 470 (MSI Karte) laut Guru3D Test wohl unter einer GTX 1060 liegen soll. Durch 2 GB weniger und eine leicht verbesserte Maxwell Architektur und den Vergleichspreisen (MSI GTX 1060 vs. MSI RX 470 Karten) bekommst Du mitnichten ein besseres Preis-Leistungsverhältnis bei der GTX 1060, ganz im Gegenteil liegt die RX470 da klar vorne.

Das ist auch logisch, weil die beschnittenen Chip-Varianten üblicherweise das bessere Preis-Leistungsverhältnis haben (sollten) als der Vollausbau. Ergo, Pech für nVidia, dass sie keine vernünftige beschnittene Variante in Form einer GTX 1050 am Start haben (die beschnittene GTX 1060 mit 3GB ist - wie erwähnt - eine schlechte Witznummer mit von vornherein unterdimensioniertem Speicherausbau für die Leistungsklasse, bei der 4GB das absolute Minimum derzeit darstellen).

billdy schrieb:
Thema waren rx470 und GTX 1060, von einer GTX 1070 wurde nicht gesprochen ... Mit OC auf einer andere Karte ohne OC aufzuschließen, ist essig. Nach dir darf man die GTX 1060 ja nicht übertakten.

Thema war in dem diskutierten Zusammenhang Übertaktung auf die nächsthöhere Leistungsstufe, was die GTX 1060 (auf GTX 1070 Niveau) leider wohl nicht annähernd packt ;). Eine RX 470 leistet aber über das Niveau des Vollausbaus (RX 480) hinaus, wenn übertaktet.

So ein Blödsinn, ich habe nie behauptet man dürfe die GTX 1060 nicht übertakten, lege doch bitte anderen Deine Worte in den Mund, wenn Dir die Argumente fehlen. Wenn Du ohne Unterstellungen nicht vernünftig diskutieren möchtest/kannst, dann lassen wir das eben, denn das habe ich nicht nötig.

billdy schrieb:
Zukuftssicherere Architektur ist, sry eine Art "Fanboy Argument", Shader Intrinsics ... um speziell AMD Shadern besser ansprechen zu können, und wird vor allem in den Kooperationen genutzt werden, ähnlich das was Nvidia mit Gameworks bezweckt.


Du unterstellst mir "Fanboy-Argumentation" mit einem Bild vom nVidia CEO als Avatar :lol: und sage und schreibe bisher 8 nVidia-Propaganda-Einträgen hier im Forum, doch sehr glaubwürdig :rolleyes: ... es ist da eher naheliegend, dass Du Dich hier nur zum trollen in AMD Threads angemeldet hast ... Shader Intrinsics wird zur Konsolenoptimierung verwendet, - einem Bereich in dem nVidia momentan wenig zu melden hat - welches durch Portierung der Konsolenspiele oft die Vorstufe für viele PC Spiele ist, vielleicht solltest Du Dich dahingehend etwas einlesen, bevor Du solch einen Unsinn hier verzapfst und es mit Gameworks gleichsetzt, denn proprietär ist es mit Sicherheit nicht, zumal AMD vorbildlich einen Open Source Ansatz verfolgt im Gegensatz zu nVidia.

billdy schrieb:
Es benötigt keine riesigen Klopper um knapp 200 Watt einer Nitro + rx470 oder rx480 und mit OC noch mehr wegkühlen zu müssen..

Die benötigt es bei der MSI RX 470 Gaming X 8 G auch nicht, aber dazu müsstest Du ja den (englischsprachigen) Test auf Guru3D lesen (siehe Cooling & Noise Levels). Das gleiche (Twin Frozr Kühler) Design wird auch bei den GTX 1060Karten von MSI genutzt, soviel nur zu Deiner haltlosen Argumentation, die Du Dir an den Haaren herbei zu ziehen scheinst.

billdy schrieb:
... einen Grund zu einer teuren GTX 1060 zu greifen. Du argumentierst die ganze Zeit aus einer pro AMD Sicht heraus, ich halte das für unerträglich sowas und kritisierst ernsthaft die Stromaufnahme einer Titan X bei fast >2,5 mal soviel Leistung wie eine rx470... Wieso gibst du ständig AMD für alles und jenes einen Bonus?

Es gibt natürlich auch Kauf-Gründe für die GTX 1060 Karte, wie erwähnt bspw. wenn man sowieso in 2 Jahren spätestens vorhat wieder aufzurüsten und auf Effizienz/Stromverbrauch sehr viel wert legt oder aufgrund der guten Video-Darstellung und natürlich, wenn man eine nVidia Brille trägt und nicht bereit ist auch Produkte der Konkurrenz zu erwägen bzw. diese nur zur Preissenkung von nVidia GPUs gutheisst :p.

Bei dem Preis (und der gebotenen Leistung) der MSI GTX 1060 (und anderen GTX 1060 Karten) würde ich persönlich aber eher in den sauren Apfel beißen und eine GTX 1070 kaufen, wenn es denn unbedingt eine nVidia GPU sein müsste, die man - wegen des Speichers - 4 Jahre im Rechner fahren kann und somit insgesamt günstiger ist trotz des deutlichen Aufpreises von 100+ Euro, so sehe ich das (als Noch-Besitzer einer nVidia Karte im aktuellen Desktop) ;).

billdy schrieb:
Die Karte kam 2014, die Fury kam 2015. Außerdem was haben den Käufern die 8GB der r9 390 bisher groß gebracht? Bei dir dreht sich wohl alles nur um V-ram, Verbrauch, Treiber, Effizienz alles wurst.?

Dann unterhalte Dich 'mal mit entsprechenden R9 390(X) Besitzern, die sind heilfroh, dass deren Karten momentan noch sehr gut leistungstechnisch dastehen und nicht wegen des geringen Speicherausbaus (wie bei GTX 970, da es schon jetzt unter dem Speicherminimum für die Leistungsklasse liegt, und bald auch bei der GTX 980) abverkauft werden müsssen (auch wenn die Chip-Leistung an sich noch länger reichen würde), soviel zum Thema Langlebigkeit von AMD vs. nVidia Karten.

Ich gebe gerne zu, dass die GTX 1060 leistungstechnisch momentan leicht vorne liegt (durch die insgesamt bessere DX11 Leistung), aber die Zukunft wird in DX12 und Vulkan geschrieben und alle großen Spieletitel kommen jetzt schon mit DX12 Unterstützung, was z.Z. allgemein für AMD Karten spricht (vom nVidia Gameworks optimierten Vorzeige-Bundle-Titel, Rise of the Tomb Raider, 'mal abgesehen) und somit ist der geringe/unwesentliche Leistungsvorsprung der GTX1060 nur eine Momentaufnahme und dieser wird in den kommenden Jahren höchstwahrscheinlich dahinschmelzen.

Wenigstens habe ich aus meinem letzten Kauf gelernt und werde mir dieses Mal die gleiche Erfahrung mit nVidia sparen, denn für mittel-bis langfristig orientierte Käufer (und das ist immer noch die klare Mehrheit der GPU Käufer) fährt man i.a. mit AMD deutlich besser. Außerdem belohne ich nicht die miese Kundenpolitik (z.B. GTX 970 Speicherbetrug, absichtliches Herunterfahren des Treiber-Supports älterer Karten, proprietäre Gameworks und G-Sync Politik), von nVidia seit Maxwell und deren Preistreiberei mit Einführung von Titan-Karten.

Des Weiteren kaufe ich zumindest - wenn möglich - strategisch (im eigenen bzw. Kundeninteresse) ein um ein gewisses Marktgleichgewicht und keine Quasi-Monopolstellung eines Chip-Herstellers zu fördern.

billdy schrieb:
Eine GTX 1070 OC ist ~60% schneller als eine rx470 OC, CF skaliert im Schnitt mit vielleicht 70 bis 80% wenn du AAA Titel spielst. Die meisten Spiele supporten das nicht mal inkl. sämtlicher Early Access Titel. Dazu kommen µruckler die, die gefühlte Bildrate unter die einr GTX 1070 drücken ... die höheren Anschaffugskosten, GTX 1070 gibts schon gute ab 449 Euro, die günstigste schon ab 419 Euro - lohnt sich nicht und empfiehlt auch niemand inkl. jeglicher deutschen Hardwareredakteure.

Hast Du Dir 'mal die Dual-CF Skalierung von Call of Duty - Black ops III in Tests angeschaut, die liegt bei sage und schreibe phänomenalen 95%, was somit Deine GTX 1070 abfrühstücken wird und selbst bei Skalierungen von 80-85% - wie etwa bei Battlefield 4 - wird der CF-Verbund immer noch sehr deutlich oberhalb einer übertakteten GTX 1070 liegen.

Ja, zugegeben, das Anwendungsprofil ist speziell, aber es gibt genug Leute, die fast ausschließlich diese Ego-Shooter spielen (ich gehöre nicht dazu, kenne aber Leute die das machen und bspw. nur Battlefield 3, 4 und vermutlich demnächst 1 spielen) und für genau diese dürfte es lohnend sein und evt. auch für andere, je nachdem wie sich die Multi-GPU Entwicklung gestaltet in den kommenden Jahren ... momentan sieht es dahingehend gar nicht so schlecht aus, wenn selbst AMD/RTG eine Abteilung eigens für Multi-GPU eingeführt hat ;).

Wie gesagt, ich gehöre (noch) nicht dazu und mache diesen Leuten aber nicht ihre Entscheidung madig (basierend auf den Redakteuren deutscher Hardware-Zeitschriften, die im Vergleich zu Raja Koduri - dem Chef-Chip-Architekten/-Ingenieur von AMD der Dual-CF mit RX 480 vorgestellt und befürwortet hat - wohl sicherlich keine Experten sind) und respektiere diese, wenn solch eine Lösung denn Sinn macht und diese Fälle gibt es, wie oben dargestellt.

billdy schrieb:
Jetzt bist du schon bei einer GTX 1080 angelangt, damit du einen Preisvorteil herausschlagen kannst, die mal eben 80% schneller ist, sogar 96% schneller wie die Strix. Für solchen stupiden Unsinn gibt es kein Anwenderprofil. SLI, CF nur mit schnellen Karten ...

Das kommt auf die Sichtweise an, R9 390(X) und GTX 980 wird von einigen noch im Dual-CF oder -SLI Verbund betrieben und diese bringen auch nicht mehr Leistung als Dual RX 470OC und das ist auch noch nicht lange her, somit ist es m.E. Ansichtssache und nicht zwangsläufig stupide.

Naja, passt doch :), bei 80 - 95%, siehe obige Ego-Shooter Skalierung, damit legt man dann - wenn man vorwiegend diese Titel spielt - mit der Dual-CF RX 470 8GB Lösung derzeit bei anfänglichen Höchstpreisen bei noch ca. 540 Euro (da die MSI Karte leider heute von 239 auf 269 Euro im Preis angepasst wurde) im Vergleich zu 700 Euro für die GTX 1080.

In ein paar Monaten (nach dem sich die Preise eingependelt haben) wird diese CF-Lösung wohl schon deutlich unter 500 Euro zu haben sein. Das würde für die erwähnte, spezielle Anwendergruppe definitiv einen großen Mehrwert bieten.


Wie erwähnt, lassen wir es hiermit gut sein, Du scheinst nur einseitig (pro nVidia) argumentieren zu wollen und da werden wird meinungstechnisch sowieso keinen gemeinsamen Nenner finden, viel Spaß noch in Deinen anderen Diskussionen!
 
Zuletzt bearbeitet:
mambokurt schrieb:
Kann mir mal jemand erklären woher der Anspruch kommt, dass die Mittelkalsse der neuen Generation viiieeeel schneller sein soll als das untere Highend der alten?
Die 970 war schon vor zwei Jahren nichts anderes als Mittelklasse. Und ersetze dein kindisches "viiieeeeel" durch "signifikant", um eine vernünftige Erwartungshaltung bzgl. alter Mittelklasse vs neuer Mittelklasse zu definieren.
 
Rhizojo schrieb:
Die 970 war schon vor zwei Jahren nichts anderes als Mittelklasse. Und ersetze dein kindisches "viiieeeeel" durch "signifikant", um eine vernünftige Erwartungshaltung bzgl. alter Mittelklasse vs neuer Mittelklasse zu definieren.

Die 970 war unteres Highend, und so hat NV sie sich auch bezahlen lassen mit 300€+ Mittelklasse war die 960, die 280, 280x, 380, 380x. Und die lag dann eben mal 30% Minimum unter der 970.
Wenn du dir von NV einreden lässt, Karten jenseits der 300 Tacken wären Mittelklasse -> dein Problem. So ein Ansatz wird aber mit der Lebensrealität der meisten Gamer krude kollidieren, die kaufen nämlich nicht jenseits der 250€...

PS: wenn ich viiiiieeel schreibe persifliere ich damit die Erwartungshaltung einiger hier, aber so langsam hab ich das Gefühl hier überhaupt einen Grakathread zu lesen ist Perlen vor die Säue. Fanboys und Menschen gefangen in Filterblasen marodieren delirierend durch den Thread und befeuern sich gegenseitig mit unwirksamen Waffen. Klaro, in ihren kleinen Universen gelten nur ihre eigenen physikalischen Regeln. Keine Chance da auch nur eine Delle in den Meinungsbildungspanzer zu hauen. Und jeder denkt seine Lehre sei die einzig richtige und einzige. Ich denke ich bin inzwischen so weit Zen, dass ich mir den Test durchlese und dankend auf den Thread verzichte, für so einen Mangel an Gesprächskultur fühle ich mich tasächlich zu alt :o
 
Zuletzt bearbeitet von einem Moderator:
Chismon schrieb:
Dass das OC der RX 470 (auf Niveau einer GTX 980) einen Mehrwert bietet, ist unbestritten

Bietet keinen Mehrwert, da du jede andere Karte auch übertakten kannst und eine GTX 1060 die mal eben mit deutlich geringeren Emissionen zu übertakten ist und wie schon vorher gesagt reicht dafür auch ein 0815 Kühler auf der GTX 1060.

Thema war in dem diskutierten Zusammenhang Übertaktung auf die nächsthöhere Leistungsstufe, was die GTX 1060 (auf GTX 1070 Niveau) leider wohl nicht annähernd packt .
Logisch, anderer Chip und andere Leistungsklasse. Die rx470 ist ja nur ein kastrat der rx480, wieso sollte die rx470 mit OC auch nicht die rx480 packen können, bei 2048vs 2304 Shadern? Ist jetzt nicht gerade eine Glanzleistung.:rolleyes:

Du unterstellst mir "Fanboy-Argumentation" mit einem Bild vom nVidia CEO als Avatar und sage und schreibe bisher 8 nVidia-Propaganda-Einträgen hier im Forum, doch sehr glaubwürdig ... es ist da eher naheliegend, dass Du Dich hier nur zum trollen in AMD Threads angemeldet hast ...

Ja, des Bild von Huang find ich witzig, hat nur gar nix mit dem Thema jetzt zu tun und nun sieht man auch wer hier der "Fanboy" ist, da du mich sofort persönlich angreifst.
Propagandaeinträge kommen eher von dir, jemanden der bei der undurchsichtigen Lage jetzt schon wissen will, dass AMD viel viel schneller werden wird, nix anderes als die üblichen Jubelperser die vorher schon alles wissen wollen und Nvidia wegen Gameworks und Kooperationen seitlich anfixen und dann AMD Kooperationen feiern als gäbe es kein Morgen mehr.

bevor Du solch einen Unsinn hier verzapfst und es mit Gameworks gleichsetzt, denn proprietär ist es mit Sicherheit nicht, zumal AMD vorbildlich einen Open Source Ansatz verfolgt im Gegensatz zu nVidia.
Natürlich ist es proprietär, funktioniert es doch nur auf AMD GPU´s mit GCN .:rolleyes:, lediglich der Code ist offen ( AMDOpen ) um das den Spieleentwicklern schmackhaft zu machen, bei Nvidia war er geschlossen.

Das gleiche (Twin Frozr Kühler) Design wird auch bei den GTX 1060Karten von MSI genutzt, soviel nur zu Deiner haltlosen Argumentation.

Klar wird der genutzt ist auch ein super Kühler, aber halt auf einer 120 Watt Karte halt relativ unnötig.
Gleichzeitig ist, wenn es der gleiche Kühler ist,auf einer rx480 lauter.

wenn man eine nVidia Brille trägt und nicht bereit ist auch Produkte der Konkurrenz zu erwägen bzw. diese nur zur Preissenkung von nVidia GPUs gutheisst .

Eben genau das ist der Punkt. Du erwägst doch nicht im Ansatz den Kauf eines Nvidia Produktes wenn du alle Nachteile einer selbst übertakteten rx470x, nur damit sie mit Ach und Krach eine GTX 1060 erreicht, völlig beiseite stellst.

die man - wegen des Speichers - 4 Jahre im Rechner fahren kann

Dann dreht man halt die Textursettings etwas runter, kannst trotzdem mit der GTX 1060 auch 4 Jahre "fahren".

Dann unterhalte Dich 'mal mit entsprechenden R9 390(X) Besitzern, die sind heilfroh, dass deren Karten momentan noch sehr gut leistungstechnisch dastehen und nicht wegen des geringen Speicherausbaus (wie bei GTX 970, da es schon jetzt unter dem Speicherminimum für die Leistungsklasse liegt, und bald auch bei der GTX 980) abverkauft werden müsssen (auch wenn die Chip-Leistung an sich noch länger reichen würde), soviel zum Thema Langlebigkeit von AMD vs. nVidia Karten.

Ich habe selbst noch eine GTX 970 und habe sie mangels Alternative auch nach dem Speicherskandal behalten.
Einschränkungen habe ich damit sogut wie in keinem einzigen Spiel, Textursettings habe ich nur in Rise of the Tombraider und Doom bisher auf High statt Ultra zurückgedreht, bei kaum einem optischen Effekt.
Man muss schon leidensfähig sein und sich eine 4GB r9 290x oder eine der 390x Series Karten gekauft zu haben. Leise Karten mit angemessener Effizienz gabs da nirgends, dieses mal ist es ähnlich bei AMD aber doch spürbar besser.

aber die Zukunft wird in DX12 und Vulkan geschrieben und alle großen Spieletitel kommen jetzt schon mit DX12 Unterstützung, was z.Z. allgemein für AMD Karten spricht

So wie damals genauso die Zukunft von dem AMD Anhängern mit Mantle "eingeläutet" wurde und sich nichts getan hat?
Nvidia wird sicher Leistung verlieren unter Directx12, wo eine rx470 aber schneller sein soll, sehe ich nirgends.

Golem hat unter allen Directx12 Titeln einen Vorsprung von 5% für die rx480 gegenüber der GTX 1060 ermittelt.
Die Leistung der GTX 1060 erreichst du dann wieder nur mit deiner heiß geliebten und einseitig gefeierten Übertaktung der rx470.

Wenigstens habe ich aus meinem letzten Kauf gelernt und werde mir dieses Mal die gleiche Erfahrung mit nVidia sparen, denn für mittel-bis langfristig orientierte Käufer (und das ist immer noch die klare Mehrheit der GPU Käufer) fährt man i.a. mit AMD deutlich besser.

Weil man dann die viel höheren Stromkosten durch so Übertaktungsspielerein zahlen darf? Oder weil man mit einer Fury 4GB ins V-ram Limit knallt? Ja klar, die AMD Karten sind viel langlebiger.:freaky:
Die r9 290x ist immernoch nicht schneller als eine GTX 970 geworden. Wie viele Jahre muss man denn noch warten bis AMD mal gut performt? Nochmal 2 Jahre?

Hast Du Dir 'mal die Dual-CF Skalierung von Call of Duty - Black ops III in Tests angeschaut, die liegt bei sage und schreibe phänomenalen 95%

Man picke sich ein Spiel heraus mit guter Skalierung und ignoriere sämtliche anderen mit mäßiger bis gar keine Skalierung.
Ein paar Fälle wo das gut funktioniert... und du wirfst mir vor ich will das madig reden.
Midrange CF ist der größte Unsinn überhaupt, nur weil AMD keine schnellere Karte hat, hat man aus der Not heraus Ashes of the Singularity mit CF gebencht.

Das kommt auf die Sichtweise an

Das ist genau dein Problem. Deine Sichtweise. Die versteht man weder bei dem OC Gedudel (Emissionen, Kosten für restl. Komponenten, Hitze, Stromkosten) steigen im Gegensatz zur GTX 1060 unverhältnismäßig an und du feierst es als Vorteil,
noch bei Crap Crossfire mit langsamen Karten, vermutlich noch übertaktet dann auch, was jegliche Vernunft und ein Abwägen was man sich kauft von vorneherein ausschließt. Sowas machen nur Anfänger, niemand der schonmal ein Crossfire oder SLI System angeschafft hatte, der weiß es nämlich besser dass das nix taugt, außer zum Crunchen.

Wie erwähnt, lassen wir es hiermit gut sein, Du scheinst nur einseitig (pro nVidia) argumentieren zu wollen und da werden wird meinungstechnisch sowieso keinen gemeinsamen Nenner finden,

Der Unterschied ist, dass ich eine neutrale Position einnehme und weder pro AMD noch pro nVidia argumentiere.
Apropos Directx12 bin ich dann mal gespannt wann die üblichen verdächtigen Marktschreier sich empören, weil CR oder ROVs oder Nvidia Eigenheiten und keine AMD Sauce genutzt wird.
 
Zuletzt bearbeitet:
Pontiuspilatus schrieb:
War doch klar, dass die Preise der 4GB und 8GB-MSI-Version vertauscht wurden... - warum sollte die 4GB-Version sonst 30€ teurer sein?

Wenn ich da PCGH zitieren darf:
"MSI und Sapphire haben derweil als erstes 8-GiByte-Modelle der Radeon RX 470 angekündigt, die mit 270 bis 280 Euro definitiv im Bereich der RX 480 wildern sollten. Das hat MSI offenbar auch selbst gemerkt und den Preis der Gaming X 8G kurz vor Verkaufsstart noch auf 225 US-Dollar beziehungsweise 239 Euro heruntergesetzt - die Gaming X 4G wurde derweil noch nicht angepasst und kostet noch mindestens genauso viel."
http://www.pcgameshardware.de/AMD-P.../Radeon-RX-470-Custom-Designs-Preise-1203676/

Also hätte eigentlich die 4-GB-Variante im Preis herabgesetzt gehört? Im Moment scheinen die Händler einfach die RX 470/480-Situation betreffend hoher Nachfrage und nicht so hoher Verfügbarkeit auszunützen und ein bisschen mehr verdienen zu wollen ;)
 
Die MSI mit 8GB wurde soeben auf 269€ erhöht. Schade. :(
 
Irgendwas ist doch da faul. Warum macht AMD sich selbst Konkurrenz, indem die RX 470 von der Leistung so nahe an die RX 480 positioniert wird. Hat da jemand eine Erklärung dafür?
 
Das passiert Mindfactory wohl öfters. Leider nehmen die die Angebote gerne einfach raus ohne wenigstens was dazu zu sagen :/
 
Hallo zusammen,

@ oldmanhunting

Meine Persönliche Vermutung ist die, daß der Ausschuß bei den 480 Chips relativ hoch ist. Und AMD selbst wohl davon überrascht wurde, daß der besagte Fertigungsprozeß nicht so hoch taktbare GPU`s hervor brachte. Ich denke, der RX 480 Chip war eigentlich für andere Hemisphären gedacht.

So long...
 
Luxmanl525 schrieb:

Nein das vermute ich nicht. Ich denke die RX480 war nicht mit so hohen Frequenzen geplant. Da Polaris nicht die gewünschte Leistung erbrachte mussten die Frequenzen höher angesetzt werden.
 
Zuletzt bearbeitet von einem Moderator:
Hallo zusammen,

@ Liengor

AMD hat selbst schon geäußert, daß sie durchaus überrascht davon waren, daß der besagte Fertigungsprozeß nicht höher taktbare Chips hervor brachte bisher.

@ flappes

Daß man es mit der Namensgebung nicht so genau nehmen sollte, dürfte ja nun seit der Titulierung bzw. Plazierung der GTX 1070 / 1080 eher klar sein.

So long...
 
Zurück
Oben