Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc für Juli

Luxmanl525 schrieb:
Hallo zusammen,

@ Chismon

Seinerzeit hatte ich das Spiel mit allen Schaltern auf "High", teils "Very High" mittels einer, man Höre und Staune, Zotac Geforce 8800 GTS und jetzt kommt es, mit gerade einmal 640 Mbyte Grafikkartenspeicher absolut Flüssig gespielt. Dazu ein Core 2 Duo E6600 im Standardtakt mit 2,4 GHz betrieben...

Genau so habe ich es auch gespielt, allerdings hatte ich einen e6750 @ 3,6GHz, das machte bei Crysis jedoch kaum Unterschied. (Bis ich gecheckt hab, dass es auf DX9 @ ULTRAmod genauso aussieht wie auf DX10 jedoch 30% mehr FPS bringt vergingen ein paar Wochen ^^)

Jedoch ist man mittlerweile an einem Punkt, wo Spiele echt sehr gut aussehen, besser wie Crysis Anno dezimal (Bsp. Star Wars: Battlefront). Wenn man noch mehr Optik will muss man eben nen Batzen mehr ausgeben. Dann darf man jedoch nicht sagen: Ich geb 300€ aus und will alles auf max in 4k. Das stellt atuell das Beste dar. Und das Beste gab es noch nie zum Sparpreis.
 
BookerDeWitt schrieb:
Eher hat sich da was drastisch beim nVidia-Treiber getan, seit Pascal ist Maxwell EoL und darunter leidet wohl die Optimierung auf neu erschienene Titel. Ähnliches kann man ja auch bei Kepler -> Maxwell sehen, nach 770/780/Titan/780Ti kräht heute kein Hahn mehr, während damals vergleichbare GCN-Karten (unter anderem auch wegen mehr VRam- sowie besserer Low-Level-Architektur) deutlich vor den ehemaligen Pendants agieren (Bsp.: 280X auf Performance-Niveau einer Titan).
So einfach ist das nun auch nicht, zwischen GK104 und Tahiti (280X) liegen "Welten" mit ca 30% in der Rohleistung. Stand heute agiert eine 280X mit vollem Boost minimal besser als GK110 wenn man Rohleistung ggü. reale FPS vergleicht. Der Unterschied in der Rohleistung zum GK110 ist sogar kleiner als zum GK104. Wen wundert es also wirklich, dass Tahiti nach nunmehr 4+ Jahren die Leistung auch auf den Schirm bringt??

Punkt 2, der gegen absichtliches Kepler-Verlangsamen spricht, wer testet heute noch ne ursprüngliche HD7970 ohne Boost und mit 925MHz? Eine 280X gewinnt grob 10% allein durch Takt! Und verzerrt ein Ranking pro Tahiti zusätzlich.

Punkt 3, Maxwell ist bis zu 35% pro Shader schneller als Kepler... Es war also eher eine Frage der Zeit bis Kepler zurück viel.

BookerDeWitt schrieb:
Das es am Treiber liegt erkennt man unter anderem am Release von Witcher 3, wo Kepler erbärmlich gg.über GCN und Maxwell da stand. Nach einem ziemlich massiven Shitstorm wurden "ein paar Bugs" im Treiber gefunden und nachdem diese behoben wurden war Kepler wieder bei ursprünglicher Leistung. Ich gehe auch jede Wette ein, dass wir mit Pascal -> Volta ähnliches erkennen werden, denn schließlich soll der Kunde ja ständig neue Karten kaufen..

Die Wette wirst du recht sicher verlieren... Während AMD für GCN4 up to 15% mehr Leistungseffizienz angibt und NV up to 35% für Maxwell ist die Ansage für Pascal eine Runde 0... Es gibt von der technischen Basis effektiv nur Gemeinsamkeiten und nur wenige Detailunterschiede. Wo soll es also herkommen?
Am Treiber liegt das keineswegs, was es nun mittlerweile im Netz auch so bestätigt gibt. Viel eher kommen wie oben erwähnt technische Vorteile pro Maxwell zum Tragen. Bei Pascal gibt es diese eigentlich nur mit VR und der minimal besseren Skalierung für "ASync Compute". Das ändert sich recht sicher in Zukunft auch nicht... Eher geht Maxwell der VRAM aus...

cypeak schrieb:
meine interpretation ist eigentlich eher diese dass mit jeder neuerung der api die älteren karten von nvidia gegenüber den amd pendandts etwas an boden verlieren und je mehr dieser games in die testparcours aufgenommen werden über die zeit, umso mehr zeigt sich das in den ratings...
aber das ist nur eine (schwache) theorie..

So schwach ist diese Theorie gar nicht... Ich würde es allerdings eher auf das Spiel anstatt die API schieben. Bis heute bekommt AMD unter DX11 die Rohleistung weniger gut auf die Straße, allerdings haben sich beide Hersteller dort klar gesteigert.
Bei den Spielen hingegen sieht man doch recht klar den immer weiter steigenden Leistungsbedarf. Die Shaderleistung steigt schneller als der Rest und die Entwickler setzten das nach und nach auch um... Mehr Shaderbedarf geht klar pro Maxwell und GCN aus... Vor 3-4 Jahren waren die Anforderungen ungleich niedriger. AMD bekam noch weniger Rohleistung auf die Straße und Kepler glänzte...

Chismon schrieb:
Naja, das kommt auf den Vergleichsmaßstab an, wie Crysis 3 oder Ryse sehen einige (noch nicht einmal im Detail reduzierte Spiele, ein gutes Beispiel wäre Deus Ex - Mankind Divided) schon jetzt nicht aus, verschlingen aber weitaus mehr Ressourcen und selbst wenn man einen höheren Standard anlegt (etwa Rise of the Tomb Raider oder The Division), so kommt dieses mit verringerten Details auch nicht an Crysis 3 heran und zieht vermutlich immer noch mehr Ressourcen. Es gibt natürlich auch löbliche Ausnahmen wie Doom 4 oder Star Wars Battlefront/Battlefield 1 bei denen eine Weiterentwicklung (der Engine/Anwendung neuer Techniken) stattgefunden hat, aber diese bestätigen nur die Regel.

Das kann man so nicht als Regel bezeichnen... Der Aufwand steigt stärker als der sichtbare Effekt es widerspiegelt. Dazu kommt, das heute viel mehr ins Detail gegangen wird. Das bringt allerdings auch den Nachteil mit, dass du es nicht direkt auf den ersten Blick sehen musst...
Weil du Tomb Raider ansprichst, warscheinlich stecken in Laras Haaren mehr Poligone als bei so mancher Crysis 1-3 Szene in der ganzen! Szene.
Ich denke es sollte klar erkennbar sein, warum für teils unwesentliche Details extren viel Rechenaufwand drauf geht...
Dieser Trend sowas zu fabrizieren fing wohl deutlich vor Crysis an. Viele Details für die Optik und viel viel Aufwand, diese zu stemmen...

Luxmanl525 schrieb:
Seinerzeit hatte ich das Spiel mit allen Schaltern auf "High", teils "Very High" mittels einer, man Höre und Staune, Zotac Geforce 8800 GTS und jetzt kommt es, mit gerade einmal 640 Mbyte Grafikkartenspeicher absolut Flüssig gespielt. Dazu ein Core 2 Duo E6600 im Standardtakt mit 2,4 GHz betrieben. Wobei man für das Game auch gerade einmal 4 Gbyte Ram benötigte.

Halte ich nicht für einen sinnvollen Vergleich. Texturen kosten heute wie damals viel Speicher. Und highres Texturen gibt es heute noch viel zu wenige. Crysis 1 sieht heute eigentlich im Detail extrem altbacken aus, eckig und kantig, viel bloom und matsche Texturen. Dann noch mini Maps oder Schlauchlevel...
Vor allem kannst du ja mal selbst prüfen, wie hoch heute (mit angepassten Speichertechniken) der Verbrauch in Crysis ist. Mit 1GB kommt man da wohl noch nicht mehr sooo weit.
 
Luxmanl525 schrieb:
Wieso so Neue Spiele wie Crysis 3 als Beispiel Nehmen? Ganz ehrlich? Das trifft die Problematik, wie mit den Ressourcen umgegangen wird, nicht einmal im Entferntesten. Für mich ist Crysis 1 das Paradebeispiel schlechthin. Ein Spiel, das im November 2007 auf den Markt kam, also vor 9 Jahren knapp. Und dieses Spiel sieht nach wie vor mit am Besten aus, hält mehr als mit mit den heutigsten Paradespielen was die Grafik angeht.
Und jetzt schau dir doch mal die heutigen Spiele an Respektive des nötigen Grafikkartenspeichers. Das steht doch in keinerlei Relation mehr. Und zwar nicht auch nur im Entferntesten. Es ist einfach Blamabel aus meiner Sicht, wie heutzutage mit den Ressourcen geschludert wird. Weißt du, was ich denke? Der Grund ist, weil einfach Ressourcen in Massen vorhanden sind. Die Entwickler brauchen sich nicht mehr so den Kopf zu Zerbrechen, können einfach aus dem Vollen Schöpfen.

Klar, Du kannst natürlich auch Crysis 1 hier anführen, nur haben die wenigsten ein System mit einer 9 Jahre alten Grafikkarte ;), Crysis 3 und Ryse: Son of Rome sind m.W. von 2013, also so taufrisch auch nicht mehr, aber wie Du schon so richtig angemerkt hast, beschämend für das was die meisten Entwickler derzeit mit den vorhandenen hard- und softwareseitigen Ressourcen zustande bringen.

Es ist also leider nicht mehr so, dass man sich neue Hardware (und Software) wegen der optisch (und evt. spielerisch) besseren Qualität anschaffen würde, sondern gezwungen wird aufzurüsten um selbst mittelprächtig realisierte, halbwegs aktuelle Titel noch einigermaßen flüssig/problemlos spielen zu können. Dazu noch der neue (von der Hollywood Filmindustrie wohl abgeguckte) Trend, alte Spiele leicht aufgepeppt neu aufzuwärmen und z.T. Vollpreis dafür zu verlangen (siehe Bioshock Collection, Age of Empires II HD, Master of Orion, und Baldur's Gate - Enhanced Edition etwa).

Das scheint neben den erwähnten, rühmlichen Ausnahmen (z.B. CryTek, EA/Dice/BioWare, id Software, Blizzard) die meisten Entwickler/Publisher mittlerweile wenig zu kratzen und von medialer Seite darf man als eigentliches Sprachrohr der Spielerschaft momentan wohl auch nicht viel von Hardware-/Tech-/Spiele-Magazinen/Webseiten erwarten, wie es scheint. Solange da kein Umdenken (etwa Boykott schlecht umgesetzter Spiele) bei den Verbrauchern einsetzt, solange wird es so weiter gehen, aber welcher HardCore-Spieler/Franchise-Fan wird schon so konsequent sein, bspw. auch ein aktuelles, relativ durchwachsenes (an Ressourcenauslastung gemessen mies umgesetztes) Deus Ex - Mankind Divided aus Prinzip ganz zu verzichten oder zumindest solange mit einem Kauf zu warten bis es das Spiel als Director's Cut Version (mit allen DLCs) für 5-10 Euro im Steam Ausverkauf in einigen Jahren gibt?

Eben, kaum einer ... traurig aber wahr ... dass die Qualität-Standards so variieren zwischen Entwicklern/Publishern und diejenigen - die sich relativ gesehen wenig Mühe geben oder es aus Unvermögen nicht können - kaum mit schwachem Absatz abgestraft werden (und damit ermutigt werden so weiter zu machen), ist schon bemerkenswert ...
Ergänzung ()

fdsonne schrieb:
Das kann man so nicht als Regel bezeichnen... Der Aufwand steigt stärker als der sichtbare Effekt es widerspiegelt. Dazu kommt, das heute viel mehr ins Detail gegangen wird. Das bringt allerdings auch den Nachteil mit, dass du es nicht direkt auf den ersten Blick sehen musst...
Weil du Tomb Raider ansprichst, warscheinlich stecken in Laras Haaren mehr Poligone als bei so mancher Crysis 1-3 Szene in der ganzen! Szene.
Ich denke es sollte klar erkennbar sein, warum für teils unwesentliche Details extren viel Rechenaufwand drauf geht...
Dieser Trend sowas zu fabrizieren fing wohl deutlich vor Crysis an. Viele Details für die Optik und viel viel Aufwand, diese zu stemmen...

Naja, nur was soll es, wenn es nichts bringt bzw. sich optisch nicht nieder schlägt? Was bringt proprietär entwickeltes Hairworks in The Witcher 3 oder von mir aus auch die - mehr auf dem AMD Open Source Pendant basierende - "Haartechnologie" bei Rise of the Tomb Raider, wenn es in den meisten Tests (und von der Mehrzahl der Nutzer) ausgeschaltet bleibt (oder nur einmalig "zum genießen" eingeschaltet wird, einem die weitaus höheren fps dann aber i.a. viel wichtiger für flüssiges Spielen sind)? Fazit, am Produkt vorbei programmiert (wegen des unverhältnismäßig hohen Leistungsbedarfs) bzw. für die Mehrheit ohne Nutzen/Mehrwert.

Ich gebe Dir durchaus recht, dass einiges davon nicht sichtbar beim Käufer ankommt (oder eben extrem ressourcenfressend gestaltet und vor seiner Zeit implementiert worden ist und mit Ausnahme bei den Enthusiasten keine Anwendung findet), dann ist der Ansatz von CryTek (in Crysis 3/ Ryse), EA/Dice (in Star Wars Battlefront oder Battlefield 1) oder id Software (in Doom 4 und hoffentlich auch Quake (5) Champions) doch weitaus besser, da man dem Großteil der Kundschaft viel mehr für's Geld bietet oder man macht es wie Blizzard, darauf angelegt eine möglichst breite Anzahl von Spielern mit effizientem Spieldesign mitzunehmen und dabei auf grafische Höchstleistungen zu verzichten, was dem Erfolg der Produkte aber keinen Abbruch beschert, auch weil die Spiele meist gut durchdacht und meist ausgewogen sind und sich nicht (nur) vorwiegend über Grafik auszeichnen.
 
Zuletzt bearbeitet:
CR4NK schrieb:
Sehe ich nicht so. Es kommt, wie du selbst schon aufführts, aufs Spiel drauf an. Mit einer GTX 980 oder 1060 kann man im Jahr 2016 nahezu jedes Spiel mit sehr hohen Details mit FullHD auf 60Hz+ zocken. Bei 2k oder 4 k geht das auch, nur eben mit reduzierten Details. Find ich völlig OK für ca. 260€.
Ich hab nen FulHD Monitor und zocke hauptsächlich Doom, BF4 und BF1 (beta). Ab und zu mal Witcher3 und ein paar Klassiker. Die nächste Investition wird ein 2k-Monitor. Die Grafikkarte behalte ich!

...Wenn man noch mehr Optik will muss man eben nen Batzen mehr ausgeben. Dann darf man jedoch nicht sagen: Ich geb 300€ aus und will alles auf max in 4k. Das stellt atuell das Beste dar. Und das Beste gab es noch nie zum Sparpreis.

2K = 1920x1080

4K ist nicht das Beste sondern der neue Standard. Ich würde gerne meinen ca. 10 Jahre alten 24" in Rente schicken und das einzige was ein Aufrüsten Lohnt ist 4k (der Unterschied 1080p zu 1440p ist kaum Wahrnehmbar). Der Grund warum 4k Monitore (noch) nicht weggehen wie warme Semmeln ist, dass die Grafikkarten-Hersteller nicht mithalten mit der Monitor-Entwicklung.

Für meine 6870 habe ich neu 130 Euro gezahlt (damals Mittelklasse wie die 1060), für meine 7970 habe ich gebraucht 120 Euro gezahlt. Für eine 1060 und 20Fps mehr als eine 7970, 260 Euro zu zahlen macht keinen Sinn. Wenn ich jetzt einen Sinnvollen Leistungs-Sprung möchte muß ich 400 Euro ausgeben. Mir kann niemand erzählen, dass das in Ordnung ist.
Ich schaue mir aktuelle Benchmarks an, meine Vergleiche basieren also nicht auf 5 Jahre alte Spiele.
 
Zuletzt bearbeitet:
Hallo zusammen,

@ nobody01

Gar keine Frage, wenn ich eine Radeon 7970 hätte, würde ich natürlich auch nicht Aufrüsten. In meinem Fall ist meine Xtreme 5850 aber wirklich am Ende, die hatte ich Ende 2010 zum Preis von 125 € Neu erstanden. Da ist halt Ende der Fahnenstange bei Spielen wie The Witcher 3. Und ein Umstieg auf eine GTX 1060 mit einer Custom Lösung wie einer Evga SC Gaming oder eben normaler Gaming ist da ein außerordentlicher Unterschied. Besonders da man für letztere gerade einmal 260 € zahlt. Von den Supportmöglichkeiten ganz zu Schweigen, denn aufgrund der Garantiemöglichkeiten kriegt man die später auch wieder sehr gut los.

Im übrigen sehe ich Unterschiede zwischen 4 K Gaming Monitoren und 4 K Monitoren für TV. Beim TV muß man halt entsprechend weit weg, oder eben nah Sitzen Respektive eine Diagonalen von 150 cm aufwärts. Dann sieht man den Unterschied. Das ist aber was ganz anderes als bei Gaming Monitoren.

Deine Behauptung, 4K wäre der Neue Standard, kann so nicht nachvollzogen werden. Denn sicherlich über 90 % der Spieler haben nach wie vor Full HD Monitore. Es kann also keine Rede von Standard sein. Für die Industrie vielleicht, die Industrie will uns das vielleicht Glauben machen, die müssen den Leuten ja mal wieder ein X für U vormachen, damit es einen Vorwand gibt um die Leute zu Neuen Geräten zu Animieren. So sehe ich das und nicht anders.

So long...
 
Zuletzt bearbeitet:
Frage:

Wie kann die EVGA 1060 so gut sein bei nur 17cm und einem einzelnen Lüfter?

Meistens war es doch so, dass die langen Karten, mit z.B. 3 Lüftern besser kontrolliert werden.

Aus dem Grund hätte ich "Angst" vor der Evga. Weil normal sind ja gerade die kurzen und kompakten mit einem Lüfter laut und werden warm (?)

Kann das mal wer erklären? Oder ist eine Gainward Phoenix viel besser als die Evga?

Wenn ich eine 1060 kaufen würde, würde ich dieser das maximalen PowerTarget zulassen und übertakten. Wäre da die Phoenix oder die EVGA besser? :-P
 
nobody01 schrieb:
2K = 1920x1080

4K ist nicht das Beste sondern der neue Standard. Ich würde gerne meinen ca. 10 Jahre alten 24" in Rente schicken und das einzige was ein Aufrüsten Lohnt ist 4k (der Unterschied 1080p zu 1440p ist kaum Wahrnehmbar).

1440p (2,560x1440) ist im Grunde 2,5k. Kaum wahrnehmbar ist hier der Unterschied zu FHD auch eher nicht, außer du hast was auf/an den Augen. Standard ist 4k noch laaange nicht, auch überhaupt noch nicht möglich.
Beim Rest bin ich ganz deiner Meinung.

Sry für OT aber das musste raus
 
Zuletzt bearbeitet:
nobody01 schrieb:
2K = 1920x1080

Für meine 6870 habe ich neu 130 Euro gezahlt (damals Mittelklasse wie die 1060), für meine 7970 habe ich gebraucht 120 Euro gezahlt. Für eine 1060 und 20Fps mehr als eine 7970, 260 Euro zu zahlen macht keinen Sinn. Wenn ich jetzt einen Sinnvollen Leistungs-Sprung möchte muß ich 400 Euro ausgeben. Mir kann niemand erzählen, dass das in Ordnung ist.
Ich schaue mir aktuelle Benchmarks an, meine Vergleiche basieren also nicht auf 5 Jahre alte Spiele.

20 Fps mehr?
Na wenn du mit deiner 7970 nur 20 Fps bekommst und dann mit der 1060 20 Fps mehr, wären das 100% Steigerung. Und dabei kostet die Karte neu nur 260€, also ca. das doppelte von deiner damals gebrauchten Karte und hat dazu auch noch die doppelten Fps..........ist doch UNGLAUBLICH GÜNSTIG.

Ok mal wieder etwas sachlicher:
Deine 7970 bewegt sich ca. auf dem Level der Gtx 960 und dagegen ist die 1060 laut dem Full HD Test ganze 75% schneller.
Also könnte das durchaus Sinn ergeben und ist preislich völlig im Rahmen.........dazu bekommst du ja noch für deine alte Karte ca. einen 100er.
Also kostet der ganze Spaß +160 € für eine absolut neue Grafikkarte mit doppeltem RAM, 70% mehr Leistung und das bei halbem Stromverbrauch......... und du beschwerst dich? lol :D
 
Zuletzt bearbeitet:
Selbst mir 40fps wäre 1060 viel zu langsam fürs Geld.
Die 7970/280X ist einen Hauch schneller als eine 380x und diese ist 18% schneller als eine GTX 960. Davon abgesehen sind Prozentpunkte für mich eher zweitrangig, micht interessieren fps und wenn ich mir dementsprechend Benchmarks anschaue sagen die mir, dass eine 1060 kein guter Ersatz für eine 7970 ist.

@caramelito / Dark:
Das 4k der Standard ist, ist wohl zu drastisch ausgedrückt aber ich würde mir keinen 27" mehr kaufen und bei min. 32" hätte ich schon gerne 4k.
 
Zuletzt bearbeitet:
Schön und gut, aber bei mir z.b. kommt nicht mehr als 24" auf den Schreibtisch. Da reicht FHD völlig aus, und ist mit den besten Details einfach ein Traum :). Der nächste Sprung wäre für mich eher ein 144Hz Monitor, oder etwas mit OLED für einen natürlichen Farbverlauf ;) GPU technisch freue ich mich aber auf Vega. Bis dahin wird es meine 480 devil schon noch tun!
 
@nobody01
Erst machen die Spieleentwickler alles falsch weil sie mit Ressourcen verschwenderisch umgehen, nun machen die Grafikkartenhersteller alles falsch weil sie ihre Produkte zu teuer verkaufen und zu wenig Leistung bringen. Machen nun alle alles falsch oder solltest du deine Sichtweise nochmal überdenken?
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Caramelito

Das ist ganz einfach. Der Chip der GTX 1060 ist extrem leicht zu Kühlen, je weniger Stromverbrauch, desto weniger Abwärme z. B.. Ich habe dir nachfolgend einen umfangreichen Test aufgeführt, wo die Gaming SC drin ist:

http://www.hardwareluxx.de/index.ph...tx-1060-von-asus-evga-und-inno3d-im-test.html

http://www.hardwareluxx.de/index.ph...orce-gtx-1060-gaming-im-kurztest.html?start=1

Alles in allem sind mit dem Chip enorm kostengünstige Kühllösungen möglich, wie man ja auch an den Preisen Sehen kann. Ich habe noch keinen Test mit einem GTX 1060 Chip gesehen, was hinsichtlich der Lautstärke Anlaß zu Kritik gegeben hätte.

@ CR4NK

Mir ist gerade noch Eingefallen, daß man bei Crysis 1 durch das Editieren der besagten "Ini" Dateien ganz einfach die DX 10 Effekte damals unter Dx 9 haben konnte. So haben das damals auch nicht wenige gemacht, meine Wenigkeit übrigens eingeschlossen. Das war schon eine ziemliche Verarsche mit den sogenannten Exklusiven DX 10 Effekten.

Ansonsten, klar gibt es heutzutage Spiele, die besser aussehen als Crysis 1. Aber es ist immer noch vorne mit dabei was die Grafik angeht. Und dann muß man sich nur mal vor Augen halten, daß es Ende 2007 veröffentlicht wurde.

So long...
 
Zuletzt bearbeitet:
Chismon schrieb:
Bei den Preisen mit der Karte auf 2017 hoffen und warten (sich solange noch mit der GTX 670 (OC) 2 GB abfinden), entweder AMDs Vega oder nVidias Volta Karten, die Erst-(Teil-)Generationen in 14/16nm lohnen sich m.E. nicht zu den verlangten Preisen und die Verfügbarkeit ist auch alles andere als gut, was die Preise hoch hält.

Das werde ich auch tun und hoffe, meine jetzige Karte hält solange noch durch (also realistisch gesehen bei etwa eingependelten Preisen und Verfügbarkeit in einem knappen Jahr bzw. Sommer 2017).

Nun wäre eine Lösung, Problem hier, meine GTX670 ist bereits verkauft, ich sitze hier seit Wochen hier, mit einer IGP von Intel, Gaming fällt bislang aus :P
Das obwohl ich gerade Lust habe auf Diablo 3.

Dazu aber wollte ich auch kein HighENd kaufen, Vega/Volta waren keine Option, da imo diese Karten nicht für 4k reichen, also zumindest nicht für 4k120 ;)
Dazu eben sehr teuer werden, weshalb ich 2019 dann komplett Neubau plane, mit Fokus VR/4k aber das ist ein anderes Kapitel :P


Aktuell habe ich diese Karte geordert, nicht lieferbar:

http://geizhals.at/xfx-radeon-rx-470-rs-black-edition-rx-470p4ldb6-a1488365.html?hloc=at

Günstigste was ich fand, Österreich betrachtet und mein liebster Shop, Amazon wegen Kulanz und Abwicklung.
Nur eben, reichen 4GB, lohnt sich die Karte, hätte diese noch im Auge, was meint ihr:

https://geizhals.at/msi-radeon-rx-470-gaming-x-8g-v341-001r-a1488445.html?hloc=at


Oder eben doch die:

http://geizhals.at/xfx-radeon-rx-480-rs-rx-480p8lfb6-a1493509.html



Bei Nvidia wären die Gainward/Palit Modelle meine Wahl bzw. die EVGA SC ab 290
 
-WATC- schrieb:
Nun wäre eine Lösung, Problem hier, meine GTX670 ist bereits verkauft, ich sitze hier seit Wochen hier, mit einer IGP von Intel, Gaming fällt bislang aus :P Das obwohl ich gerade Lust habe auf Diablo 3.

Das ist natürlich ärgerlich, also eine RX 470 halte ich auch von den derzeit angebotenen Karten für die beste Option (allerdings mit 8GB, wenn Du damit bis 2019 auskommen möchtest), insbesondere die Sapphire Nitro+ mit 8GB, da der Speicher dort höher getaktet ist als bei der MSI RX 470 Gaming 8G und mit dem neuen Bios Update seitens Sapphire (wie neulich von CB berichtet) die Karte nun deutlich runder läuft (und somit nun dem MSI Modell vorzuziehen ist, welches ich ansonsten empfohlen hätte.

Ich würde nicht am falschen Ende sparen und eine 4/6GB Mittelklasse GPU in Betracht ziehen, wenn Du damit bis 2019 einigermaßen vernünftig auskommen musst. Wenn Du im kommenden Jahr die GPU wieder verkaufen/wechseln würdest, dann hätte ich klar zur 4GB Version der RX 470 geraten, aber so nicht (auch wenn der Aufpreis zu 8GB ziemlich stolz ist, aber vielleicht hast Du ja Glück und erwischst einen Händler-Deal - bei MindFactory etwa - mit ein wenig mehr Geduld, weiss aber nicht ob sich das mit Auslandsversand nach Österreich rechnen würde). Bei aktuellen Titeln wie Deus Ex Mankind Divided und Rise of the Tomb Raider reichen zwar 4GB gerade noch unter Full HD für (sehr) hohe Details, aber es wird langsam knapp, ich denke da wirst Du auf 2-Jahressicht dann mit Abstrichen leben müssen und ob das dann eine Neupreiskarte rechtfertigt.

Alternativ könntest Du Dich nach einer gebrauchten GTX 980Ti umsehen (neu leider wieder zu teuer derzeit), die weitaus mehr Leistung (als Vorgenerations-Enthusiasten-GPU) bringt als alle aktuellen Mittelklasse-GPUs und mit dieser dürftest Du daher die 3 Jahre noch einigermaßen passabel schaffen, trotz der bald knappen 6 GB oder einer gebrauchten R9 390X (die mit der Leistung leicht oberhalb einer GTX 980 und 8GB auch die 3 Jahre relativ gut packen sollte), wenn Du eine solche noch einigermaßen günstig ergattern kannst (auf Amazon neuwertig leider zu teuer).
 
Ich habe mir eine MSI GeForce GTX 1060 Armor 6G OC gekauft, kann sie aber erst morgen bei der Postfiliale abholen. :-/
 
Freut mich das Amd langsam wieder eine größere Rolle im Grafikkartengeschäft spielt. Hoffe dass die neue Vega Generation Nvidia mal wieder auch im Highend Segment wieder Konkurrenz machen kann.
 
Also AMD macht es dem Käufer echt schwer. Habe mir eigentlich fest vorgenommen eine RX 480 zu holen, aber dank schlechter lieferbarkeit und hohen Preises und der GTX 1060 die schon als Custom für 250€ angeboten wird, binn ich schon am zweifeln obs eine RX480 wird.

Das einzige was mit doch noch warten last, ist FreeSync und die 8GB der RX480. Schau mor das ganze noch 2 Monate an und sollte die GTX 1070 dann gar für 360€ zu haben sein, dann binn ich die 100€ draufzuzahlen, sollte von Vega als Alternative nichts zu hören sein.
 
@lubi

was ist an der entscheidung schwer? willst du freesync geht kein weg an amd vorbei. der höherere preis der 480 ist latte, falls du mit der nvidia gsync nutzen würdest,wovon ich ausgehe da du ja auch freesync nutzen möchtest, in dieser kombi ist die 480 sogar deutlich günstiger als die 1060. ausser man hat eh schon einen g-sync monitor. die 470 8GB ist eine super karte, ist kaum langsamer als die 480. weder mit der 470 noch mit der 480 machst du was falsch. die 1070 spielt in einer anderen preisklasse und wird das auch noch lange tun.

gruß
 
Die Preise sind nicht mehr so hoch bei der 480.

Die Sapphire Nitro gibt es um 281€ z.B.
Die MSI Gaming um 307€ bei Amazon, allerdings 2-4 Wochen Wartezeit.
 
Zurück
Oben