Test Asus GeForce RTX 2070 Strix im Test: Kleiner Turing gegen GTX 1080 GLH und RX Vega 64 Nitro+

PickNick schrieb:
Auch wenn ich den Zorn jetzt auf mich lenke: Ich fand damals die Launchpreise von Pascal akzeptabel, immerhin war eine 1080 40% schneller als eine 980TI und die 1080TI sogar 75% flotter.

maxwell und pascal haben genau die gleiche leistung pro takt - das war ein shrink mit ein paar anpassungen für mehr takt. aus der architektur selber kommt kaum mehr leistung.

eigentlich hätte pascal günstiger werden müssen als maxwell, und nicht teurer.

der performancesprung von maxwell auf pascal (stock vs stock) war ziemlich groß - aber der technische hintergrund ziemlich unspektakulär.

ist ca so wie sandybridge mit 3,6 ghz allcore vs ivybridge mit 4,8 ghz allcore. sieht toll aus für ivy, bis sandy auch auf 4,5 ghz läuft.
 
Ich befeure meinen 1440p monitor a mit ner 1070er OC. Manchmal langts, manchmal nicht. Dürfte scho bissle mehr sein hier und da. Klar, alles eine sache der Regler, aber wer will scho gerne hier und da abstriche machen ? :D ( Klar muss nicht überall ultra super extrem settings sein )

Selbst bei meinem heftigst gemoddetem Skyrim bekomm ich nicht überall brauchbare fps bei der Auflösung zustande.
 
Minutourus schrieb:
Für UHD mit Reserven ist die 2070 auch nicht das gelbe vom Ei meiner Meinung nach..

Nee, gewiss nicht. Aber für WQHD bestimmt ne gute Karte.

Für 4K wäre ne 1080Ti das Minimum für mich.

Aber so viel Geld gebe ich einfach nicht für ne GPU aus, prinzipiell. Von der 2080Ti ganz zu schweigen.
 
  • Gefällt mir
Reaktionen: Minutourus
Das mit den Preisen wird langsam echt abartig, allerdings sind mit RX 570 für FHD und Vega 56/64 (teilweise gibt es Vega 64 die günstiger sind wie Vega 56) sowie 1070 (ti) für WQHD Karten die potent genug sind. Das irrsinnige ist, dass die RX 570 ~ 150-180 € kostet (je nach Modell) und damit etwa 10 evtl. 15 % der 2080ti .... Selbst WENN die in der Lage wäre die 10 fache Leistung auf die Straße zu bringen..... Sieht das immer noch nicht 10 mal so gut aus macht nicht 10 mal soviel Spaß usw. usw.
Es macht einfach gar keinen Sinn so eine Karte zu kaufen das ist ähnlich wie bei einem Bugatti Veron, der Golf ist wesentlich günstiger fährt auch usw usw.
Das sind reine Luxus Objekte also macht es auch wenig Sinn sich über die aufgerufenen Preise aufzuregen.

Die einzige Reaktion, die diese Preisanstiege bei mir hatten, war das ich meine Vega 56 verkauft habe (während des Mining Hypes für knapp 800€) und zwischen zeitlich mit einer GTS 450 (ja das geht) gespielt habe. Jetzt mit einer Sapphire RX 570 Pulse bin ich MEHR als zufrieden!

Banned schrieb:
Jo, wenn man auf Regler links und 30FPS steht, klar.

Ist immer die Frage, was kan will.

Wenn er die 1070 verkauft und ne günstige 2070 kauft, halten sich die Mehrkosten in Grenzen IMO.

In den meisten Fällen sieht ein Spiel in UHD mit den Reglern nahe am Minimum besser aus wie in FHD mit allen Reglern ganz rechts.... Wer einfach nur blind alles nach rechts schiebt weil es dann ja besser aussieht muss sich nicht wundern wenn eine 2080TI nicht für WQHD reicht ...
 
@duskstalker da hast du natürlich absolut recht, aber ich denke 99% der Spielerfraktion wären es egal wenn das Ding Röhren statt Transistoren hätte, Hauptsache die Karte ist flott bei akzeptablem Preis.
Und die gute alte Ivy hatte ja noch ein ganz anderes Problem außer das sie bei Taktgleichheit kaum flotter war. Mein alter 3770k war so mies, da hatte ich sogar 85°C trotz ner fetten Wasserkühlung mit D5 und 1080 Radiator auf Anschlag.
 
@DayMoe

Schlechte Konturen etc. werden nicht automatisch besser, wenn man die Auflösung erhöht.

Aber jeder, wie er meint.
 
Danke für den Test. Ihr habt ja das OC manuell betrieben, mich würde jedoch interessieren, wie das automatische OC-Tool hier seinen Dienst verrichtet im Vergleich zu eurem Auslooten? Wäre beim Kauf eines solchen Premium-Schätzchens zumindest einer meiner ersten Schritte, wenn mir schon jemand das Gefummel abnimmt :)

Mal sehen, wo sich die Dinger mittelfristig preislich einpendeln werden.
 
Banned schrieb:
Schlechte Konturen etc. werden nicht besser, wenn man die Auflösung erhöht.

besser nicht - aber schärfer
 
ab werk viel zu laut. mir ist unverständlich warum nicht ab werk das Quiet-BIOS aktiv ist. ansonsten wohl keine wirkliche überraschung.

@Wolfgang:
hat es nen bestimmten grund dass es bei den grakatests kaum noch bilder von der kühlerunterseite gibt?
 
duskstalker schrieb:
ich glaube man kann vega kaum schlechter darstellen als hier.

Wenn ich mir die Peak-Werte bei TH anschau, dann kommt mir so ein Verdacht.
 
Bei der Gamestar wurde imho eine Interessante Karte getestet, nämlich die MSI RTX 2070 Armor 8G, die eine UVP von 519 € hat, aber trotzdem einen guten Lüfter drauf hat, wo laut Test im Leerlauf 38 dB entstehen (wegen Lüftern die anhalten) und unter Last trotzdem nur 39,3 dB entstehen ... Gamestar Test
 
nun ja....ich hatte ja auf den kleinen turing für die notebooks gehofft. preis wäre mir persönlich schon "fast" egal.

wenn die oc rtx2070 225 watt verballert, muss ich wohl nicht hoffen, dass diese karte den weg ins notebook findet. oder die selektieren so hardcore die gpu´s und lassen sie zusätzlich uv laufen, bis der arzt kommt.

eigentlich bin ich nur auf diese neuen geräte gespannt. gesamt system leistung bei 150-220watt (laptop) gedeckelt und dann schauen, was mit rtx und 6core intel an leistung übrig bleibt. :evillol:

ein 400watt notebook werden wir wohl (hoffentlich) in den nächsten jahren nicht sehen.

mfg
 
Mich würde interessieren, wieviel Mhz bei der Vega 64 Nitro hier wirklich anliegen. Angegeben werden 1.727 MHz. Die liegen wohl nicht an.
 
Preis wie immer eine Frechheit, also das ist langsam nicht mehr tragbar was Nividia da betreibt.
 
warum nicht @Sun-Berg wenn die leistungsaufnahme egal ist und die kühlung das mit macht, denke ich schon, dass die karte die 1.727 mhz stemmt. daher hat die nitro haudieschaufeldrauf dröfltausendübertaktet auch locker 400+ watt stromverbrauch incl. (ohne) cpu. bin mir noch nicht ganz sicher, in wie weit ich den tests hier immer trauen kann....aber z.b. war mein erstes system, was die 600 watt gesprengt hat, ein c2quad mit hd2900xt. da hat die graka auch locker 400+watt verballert, oc :D

cb test:

https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/35/

"Geradezu erschreckend ist die Stromaufnahme unter Last. Satte 356 Watt Verbrauch können wir auf dem Strommessgerät ablesen.....Gemessen wird die Gesamt-Stromaufnahme des Testsystems. "

ich konnte im oc locker 580-620 watt ablesen :confused_alt:

mfg
 
Zuletzt bearbeitet:
[wege]mini schrieb:
ich konnte im oc locker 580-620 watt im oc ablesen
Genial. Hatte damals nur die 8800 Ultra. Die war ja anscheinend wirklich ein Effizienzwunder dagegen. :D (ohne Übertaktung) Obwohl die mit dem Standardkühler unter Last doch düsentriebwerkartige Geräusche gemacht hat. Damals hatte ich insgesamt nicht wirklich Ahnung von Hardware, daher waren mir die wirklichen Realverbräuche und der Kühlungsaufwand nicht so bewusst.

Was mich an dem alten Test aber ein wenig schockiert sind die Idle-Verbräuche. Echt irre was damals die PCs verbraten haben wenn man nichts gemacht hat. Das hatte ich damals wohl noch nicht so auf dem Schirm.
 
Zuletzt bearbeitet:
DayMoe schrieb:
DOCH, genau das ist der Sinn einer höheren Auflösung ...

Google dochmal die Definition von Konturen ?!


Wenn du damit Verkleinerung bis du es nicht mehr siehst meinst, dann vielleicht. Aber guck dir z.B. mal 1080p oder 720p Videomaterial auf 4K an. Es wird nicht besser. Eher im Gegenteil. Wo keine hohe Qualität ist, kannst du auch mit höherer Auflösung nix herzaubern. Es ist auch der generelle Denkfehler, zu glauben, 4K sei prinzipiell qualitativ hochwertiger. Dabei ist z.B. bei Videos hauptsächlich die Bitrate entscheidend. Ein FullHD-Video mit 15MBit/s Datenrate wird immer besser aussehen als ein 4K-Video mit 4MBit/s Datenrate.

Deine Ansicht ist also, dass man mit Mittelklasse-GPUs eher 4K mit wenig Details als FullHD mit vielen Details zocken sollte, weil das besser aussieht?

Die Meinung wirst du sehr exklusiv haben. ;)
 
Zuletzt bearbeitet:
Zurück
Oben