Test GeForce RTX 2070 im Test: Nvidias kleine Turing-GPU im Duell mit Pascal und Vega

Die MSI RTX 2070 Armor 8G, welche z.B. die Gamestar getestet hat, kostet auch nur 519€ und hat einen MSI-typisch erstklassigen und superleisen Kühler drauf!
Die Karte wird ohne OC ausgeliefert, aber hat nur 64°C unter Last, da hat man also wenn man mag auch noch Spielraum.
Ist vermutlich für die meisten interessanter, als so ein Laubbläser-Modell ;)
 
schöner test, der mir persönlich sagt:" warte noch mit ner neuen graka, die angebliche Zukunft ist keine (Minimum) 500 euro wert^^.

in 2 jahren gibt's dann wohl endlich mal wirklich Zukunft und nicht son marketingaufgebausche um eigentlich nichts...
 
  • Gefällt mir
Reaktionen: DerStern5 und Hatsune_Miku
tomasvittek schrieb:
da warte ich lieber NOCHMAL nen jahr oder wie lange auch immer. wenn ihr glaubt man kauft weil ihr keine konkurrenz habt dann habt ihr euch geschnitten. kauf ich halt gar nicht.

Da hast Du vollkommen recht.. gibt ja auch noch gar keinen Grund einzukaufen.. mit der 1070er läuft alles.. und das sicher noch ein Jahr.. oder 2...
 
  • Gefällt mir
Reaktionen: Viper80511 und feidl74
Also ich denke nicht dass die Preise einfach den Aufwand geschuldet sind.
Ich bin nach wie vor eher der Meinung dass wir nur noch mehr abgezockt werden.
Bis jetzt hat hier noch niemand aufschlüsseln können was so ein Chip wirklich kostet.

mh0001 schrieb:
Die MSI RTX 2070 Armor 8G, welche z.B. die Gamestar getestet hat, kostet auch nur 519€ und hat einen MSI-typisch erstklassigen und superleisen Kühler drauf!

Mag sein dass die Karte toll ist. Aber NUR 519.- für ne xx70er zeigt ja schon wie sehr hier die Gehirnwäsche gewirkt hat. Bald heisst es dann NUR 498.- für ne xx60er.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zitterrochen, ahuev0 und [DsO] BuRNeR
Also, ich bin positiv überrascht von der Karte. Die Leistung kommt mit OC ja nahe an eine 1080Ti ran, das hatte ich nicht erwartet. Daher geht der Preis von 519€ auch in Ordnung.

Irrsinnig wirds erst, wenn die custom designs laut Test bis 700€ kosten sollen. Womit ist das denn dann bitte gerechtfertigt?
 
Stimmt auch in Bezug auf die 1070 nicht.
Die kam mit einer UVP von 499 in den Markt.
Die 2070 mit 519 (mit der Leistung einer 1080)

Ich erkenne da jetzt keine dramatische Entwicklung
Ist im Prinzip das Vorgehen nVidias in den letzten Generationen.
Die neue Karte kommt mit der gleichen UVP wie die alte Karte bei Erscheinen (und Dollar bereinigt), mit der Leistung der nächst höheren Karte
 
Vega wins....FATALITY
 
TopAce888 schrieb:
Irrsinnig wirds erst, wenn die custom designs laut Test bis 700€ kosten sollen. Womit ist das denn dann bitte gerechtfertigt?

na durch das customdesign, blink blink und so. das kostet halt extra, wobei ja das Innenleben manchmal gar nicht so custom ist^^
 
Gut das ihr für die 1000 serie ein 399 treiber genommen habt :)
Nvidia muss ja angeblich die 1000 Serie per Treiber verlangsamen, weil es zu wenig Käufe gibt.
 
  • Gefällt mir
Reaktionen: mtmac, Chismon, Herr Melone und 6 andere
Oberst08 schrieb:
Wieso ist die Vega56 in dem Test eigentlich so schlecht? Der Abstand zur Vega64 ist hier höher als in der Grafikkarten-Rangliste. Liegt das am Spiele-Parkours?

ja, jedes spiel reagiert anders.

ich vermute das liegt neben dem beschnittenen chip und den niedrigeren taktraten hauptsächlich am niedrig getakteten hbm2 speicher, der den core massiv bottleneckt.

in spielen, die vega ordentlich auslasten können, ist der bottleneck umso größer - was jetzt immer öfters passiert.

wenn du dir die typischen nvidia schinken anschaust, wie wildlands, assassins creed, destiny 2, final fantasy oder senuas sacrifice, ist das delta von v56 zu v64 etwa 14-15%.

in battlefront 2 oder wolfenstein beträgt das delta stock vs stock 25%.

vega ist out of the box einfach grauenhaft konfiguriert. alleine der niedrige hbm takt kostet mindestens 10% leistung, bei vega 56 eher 15%.
 
Silverjaak schrieb:
@Wolfgang: Was ich unlängst vermisse ist der Hinweis bei der Leistungsaufnahme ob es sich um die Werte von nur der Karte oder dem Testsystem handelt. Hattet ihr früher wenigstens unter Testmethodik untergebracht, auch wenn ich es besser fände wenn es direkt bei den Grafiken dabei stünde.
Finde das gehört immer mit rein.

Natürlich ist das nur die Graka, oder glaubst du etwa das z.b. im IDLE der ganze PC nur 11 Watt benötigt!?
 
Hmmm... meine GTX 970 muss es noch eine Weile tun... für ab und zu mal in 2K zocken langts noch immer.
 
KCX schrieb:
Also kauft euch Pascal solange ihr noch könnt :D
Die auch zu teuer sind, und vor allem nicht mehr ihren update bedürftigen Schleuder im Treiber richtig versorgen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: cbtestarossa und KCX
Wu134 schrieb:
Sorry aber wenn man durch einfaches vergrößern der Chips nicht mehr in der Lage ist, mehr Leistung zu liefern, muss man eben alternative Wege finden mit denen mehr Leistung geboten werden kann.
Nvidia hat hier nicht in neue Technologien investiert die mehr Leistung versprechen, sondern in neue Technologien von denen sich NVidia eine Prägung der Entwickler versprechen wird um sie wieder in die Grüne Ecke zu treiben.
Raytracing hat keinerlei positiven Effekt auf die Leistungsfähigkeit, im gegenteil, um Raytracing effektiv auf lange Sicht für immer mehr zu nutzen wird noch massiv viel mehr Leistung benötigt. Die aktuellen Änderungen etablieren vielleicht den generellen Gebrauch von RayTracing in den nächsten Jahren etwas mehr, helfen aber keineswegs den generellen Leistungsbedarf an eine GPUs zu die nächsten Jahre zu decken. Du wirst auch 2025 aller Wahrscheinlichkeit nach Raytracing nur als Gimmick in den Spielen vorfinden. Hier ein paar Reflexionen, da ein paar Lichteffekte. Der Leistungshunger um die "normalen" Visuals darzustellen wird dadurch kaum weniger werden.

4K lässt sich noch immer in einigen Spielen kaum flüssig spielen, 8K wird aber in Japan und div. anderen Regionen schon ausgerollt nach und nach (auch wenn ich das absolut schwachsinnig in vielerlei Hinsicht finde 8K schön und gut aber kaum sinnvoll bei Monitoren oder Fernsehern die man im Wohnzimmer stehen hat, aber andere Diskussion) und Nvidia versucht auf Grund fehlender Konkurrenz sich nur wieder mit irgendwelchen Features (PhysiX_2?) im Markt festzubeißen und so hinterrücks den einzigen echten Konkurrenten weiter ins Abseits zu treiben als sich mal wieder einem echten Leistungskampf zu stellen.
 
@happylol, oh man das wäre richtig upgefuckt wenn sie die alte kartengeneration mit den treiber kastrieren um den besitzern einer 10xx"ti" die kaufentscheidung zu erleichtern
 
Gut das ihr für die 1000 serie ein 399 treiber genommen habt :)
Nvidia muss ja angeblich die 1000 Serie per Treiber verlangsamen, weil es zu wenig Käufe gibt.

Wenn das stimmt dann ist das natürlich eine absolute Frechheit.
 
TopAce888 schrieb:
Ich kann mich noch erinnern, dass Vega bei Erscheinen vermöbelt wurde und jetzt heißt es auf einmal Vega ist besser? :freak:

Vega ist im Vergleich zur 2070 ein ziemlicher Rohrkrepierer, die 2070 bringt pro Watt satte 92% mehr FPS auf den Bildschirm als eine Vega 64 stock. Das sind WELTEN.
 
neofelis schrieb:
Wie auch die C't gerade beim Test der RTX-Karten geschrieben hat, ist der Vorsprung gegenüber AMD beim konventionellen Gaming mittlerweile so groß, dass man es sich erlauben kann, neue Technologien mal so eben in den Markt zu drücken.
Wenn RT DAS neue Feature wird, hat man den großen Zug gemacht und AMD steht bei den GPUs noch deutlich schlechter da. Denn eine vergleichbare Technologie einzubauen gelingt nicht so schnell.
Scheitert RT, bricht man sich keinen Zacken aus der Krone und behält trotzdem die marktbeherrschende Stellung.

Gerade in dieser Position erschiene es mir nur logisch diese Brecher-Technologie möglichst breit in den Markt zu streuen. Das wird nV mit diesem Vorgehen nicht erreichen.
 
auch wenn meine 1060 öfter mal im Limit hängt: Nö.

Wobei ich die MSI-Armor gar nicht mal so schlecht finde.
 
Zurück
Oben