Test RTX 2060 Super & 2070 Super im Test: Nvidias schnellere Antwort auf Radeon RX 5700 (XT) mit RDNA

Hallo zusammen,

@ RYZ3N

RYZ3N schrieb:
Wenn AMD sich der Konkurrenz stellt, dann muss man auch liefern. Ganz einfach.

Genauso ist es. Und AMD hat vor allem aus den Fehlern der Vergangenheit gelernt. Sowas verdient Respekt. In meinem Fall werde ich voraussichtlich wieder zu AMD Greifen, wenn ich die Plattform wieder wechseln bzw. erneuern werde.

Noch dazu hat sich AMD für das Preis- / Leistungsverhältnis als auch Innovation bei den CPU`s verdient gemacht.
Von meiner Seite besten Dank AMD.

So long....
 
  • Gefällt mir
Reaktionen: han123 und SVΞN
muzafferamg58 schrieb:
Der TU104 Chip ist nicht gerade sehr UV fahig, bzw. der Verbrauch macht keinen großen Unterschied

30W weniger mit UV: https://www.hardwareluxx.de/index.p...eistungsaufnahme-und-dennoch-leichtes-oc.html

Dazu ist der 12nm Prozess sehr fortgeschritten und der 7nm sehr neu und Vega ist nicht gerade effizient im Vergleich zu Touring/Pascal.
Also so sieht das UV bei meiner 2080 aus (Witcher 3, max. Details inkl. Hairworks, UHD):

796305


Ich würde jetzt nicht davon sprechen, dass Turing nicht sehr UV-fähig ist. Vega hat aufgrund des standardmäßig höheren Verbrauchs (und der damit einhergehenden zu hohen Standardspannung) mehr "Spielraum" nach unten, aber auch bei Turing ist einiges möglich. Eine 2080 FE verbraucht rund 25% mehr als meine UV-2080, das finde ich schon durchaus einen großen Unterschied.
 
  • Gefällt mir
Reaktionen: Alex1966, han123 und SVΞN
Hallo zusammen,

@ Linmoum

Linmoum schrieb:
Eine 2080 FE verbraucht rund 25% mehr als meine UV-2080, das finde ich schon durchaus einen großen Unterschied.

Laß mich mal Raten, deine Undervoltete 2080 ist ein Custom Modell, kein FE-Modell, oder? Könnte fast Wetten darauf abschließen.

So long...
 
Linmoum schrieb:
Also so sieht das UV bei meiner 2080 aus (Witcher 3, max. Details inkl. Hairworks, UHD):

Anhang anzeigen 796305

Ich würde jetzt nicht davon sprechen, dass Turing nicht sehr UV-fähig ist. Vega hat aufgrund des standardmäßig höheren Verbrauchs (und der damit einhergehenden zu hohen Standardspannung) mehr "Spielraum" nach unten, aber auch bei Turing ist einiges möglich. Eine 2080 FE verbraucht rund 25% mehr als meine UV-2080, das finde ich schon durchaus einen großen Unterschied.

Deine lauft mit 0.85V und auf HW auf 0.9V.
Turing ist mit dem T106 sehr effizient, hab von 215W auf 130W UV. Das sind ganze 40%
Klar ist 180W ein guter Verbrauch, aber für eine ineffiziente Vega sind 205W echt gute Ergebnisse
 
DriveByFM schrieb:
Was mich bei AMD auch mega aufregt, war z.B. auch dieses „poor Volta“ Marketing aber dann nur so einen Rotz abliefern, da hat man sich eigentlich nur blamiert.

Mal ganz ehrlich, wen interessiert dieses Geschwätz von gestern? Natürlich hat sich AMD da - ohne wenn und aber - verschätzt und den Mund reichlich voll genommen.

Beispiele für eine solche Fehleinschätzung gibt’s zu Hunderten.

"Das Internet ist nur ein Hype."

Wer hat das gesagt? Microsoft-Mitgründer und Harvard-Abbrecher Bill Gates 1993. Er verordnete seinen Mitarbeitern deshalb, sich erst mal um andere Dinge zu kümmern.

Wie war's am Ende wirklich? Im Jahr 2011 war geschätzt ein Drittel der Weltbevölkerung online. Bill Gates wurde mittlerweile die Ehrendoktorwürde der Universitäten Harvard und Cambridge verliehen.

:D
 
  • Gefällt mir
Reaktionen: han123 und Luxmanl525
@Luxmanl525
Das hat nichts mit Respektlosigkeit sondern mit Realismus zu tuen.
Wer so viel Zeit hat um so viel zu Zocken dass es ins Gewicht fällt dann hat man offenbar ganz andere Probleme.

Rechnen wir mal hoch, mit den vorgegebenen 50€ Mehrkosten pro Jahr kämen wir grob gerundet auf 4 € pro Monat bzw. 0,13€ pro Tag. Bei 0,3€ pro kWh wären wir bei einem Mehrverbrauch von ca. 450W und wie hoch war der Mehrverbrauch nochmal? Sagen wir für eine einfachr Rechnung einfach mal 100 bzw. 150W, damit müsste man also pro Tag gute 3 bzw. 4,5 Stunden zocken um auf diesen Betrag zu kommen. Zieht man dann noch 8 Stunden Arbeitszeit, eine Stunde Fahrzeit und eine Stunde zum Aufstehen vom Tag ab und geht spontan noch von 8 Stunden Schlafenzzeit aus dann bleibt abseits der Zockerei nicht mehr allso viel Zeit für die Familie übrig und schon kommt der besagte tritt ins Spiel.
 
  • Gefällt mir
Reaktionen: TheUngrateful und muzafferamg58
Wadenbeisser schrieb:
@Luxmanl525
Das hat nichts mit Respektlosigkeit sondern mit Realismus zu tuen.
Wer so viel Zeit hat um so viel zu Zocken dass es ins Gewicht fällt dann hat man offenbar ganz andere Probleme.

Rechnen wir mal hoch, mit den vorgegebenen 50€ Mehrkosten pro Jahr kämen wir grob gerundet auf 4 € pro Monat bzw. 0,13€ pro Tag. Bei 0,3€ pro kWh wären wir bei einem Mehrverbrauch von ca. 450W und wie hoch war der Mehrverbrauch nochmal? Sagen wir für eine einfachr Rechnung einfach mal 100 bzw. 150W, damit müsste man also pro Tag gute 3 bzw. 4,5 Stunden zocken um auf diesen Betrag zu kommen. Zieht man dann noch 8 Stunden Arbeitszeit, eine Stunde Fahrzeit und eine Stunde zum Aufstehen vom Tag ab und geht spontan noch von 8 Stunden Schlafenzzeit aus dann bleibt abseits der Zockerei nicht mehr allso viel Zeit für die Familie übrig und schon kommt der besagte tritt ins Spiel.
Es ist unglaublich einfach, mit was für Argumenten er kam. Im schlimmsten Falle stellste ein FPS Lock ein und UV und es passt. Dazu wird sein Xeon schon in manchen spielen limitieren (jenach Auflösung) und dann lauft die Grafikkarte natürlich auch nicht auf 99% auslastung.
 
Hallo zusammen,

@ Wadenbeisser

Wadenbeisser schrieb:
Sagen wir für eine einfachr Rechnung einfach mal 100 bzw. 150W, damit müsste man also pro Tag gute 3 bzw. 4,5 Stunden zocken um auf diesen Betrag zu kommen. Zieht man dann noch 8 Stunden Arbeitszeit, eine Stunde Fahrzeit und eine Stunde zum Aufstehen vom Tag ab und geht spontan noch von 8 Stunden Schlafenzzeit aus dann bleibt abseits der Zockerei nicht mehr allso viel Zeit für die Familie übrig und schon kommt der besagte tritt ins Spiel.

Du kannst nicht dein Profil auf andere als Schablone anlegen. Wie kommst du eigentlich dazu? Ich habe nicht umsonst dargelegt, daß man das differenzierter Sehen muß. Dein Profil trifft für mich nicht zu. Und es geht dich schlichtweg nichts an, wieso und warum. Es geht sehr wohl um Respekt. Genau das zeigst du jetzt wieder auf.

"Jedem das Seine" ist für dich leider nicht tolerierbar, ganz offensichtlich.

So long...
 
  • Gefällt mir
Reaktionen: Alex1966 und McTheRipper
Ist schon jemanden anhand der Überschrift aufgefallen das CB schon indirekt gesagt hat das die "Super" Karten die schnellere Antwort auf die AMD Karten sind ? Im Endeffekt hat man die Ergebnisse schon mehr oder weniger verraten.

Nvidia ist mit der Super Serie weit an die Grenze gegangen, selbst der Stromverbrauch ist hoch nur um einen gewissen Vorsprung vor AMD zu haben. Nvidia weiß das Balken alles sind und leider meist auch nur nach Balken gekauft wird.

@Linmoum

Das ist ja alles schön und gut. Ich weiss nicht welcher Karte du hast, meine Taktet ohne UV bei 1995 - 2025. Verbrauch liegt dann halt bei ca 250 Watt. UV tue ich nicht, ist mir nicht effektiv genug. Ich setze ein PT bei 85% und die Karte taktet dann effektiv bei 1920-1980 mit 40 Watt weniger.
Du hast 1815 Takt bei 180 Watt. Das sind 10% weniger Leistung, aber wahrscheinlich deutlich weniger Stromverbrauch. Weniger verbrauch. weniger Leistung

Der unterschied zur Vega aber ist das die Vega sich UV lässt und sogar noch Leistung dazu gewinnt bzw stabil bleibt. Demnach kann man schon sagen das die Vega das bessere UV Potential hat.
 
  • Gefällt mir
Reaktionen: russianinvasion, McTheRipper, danyundsahne und eine weitere Person
RYZ3N schrieb:
Vollkommen richtig, aber sie ist schon wieder [ausgehend von einem ohnehin schon hohen Preisniveau] teurer als eine RTX 2070.

Wie lange wollen wir diese Preisspirale nach oben hin noch mitmachen?

Ist sie halt nicht wirklich. Die 2070 waren anfangs teurer als die jetzige 2070 Super. Preise zum Start mit bereits geregelten Marktpreisen zu vergleichen macht halt wenig Sinn. Warte halt ab, was die 2070 Super nach gleichem Zeitraum kosten wird.
 
@muzafferamg58
Unglaublicher finde ich mit welchen Beträgen argumentiert wird, es geht schließlich um ca. 4€ pro Monat. Mir fallen spontan 10 Punkte ein die ich mir sparen könnte um die 4€ pro Monat zu sparen die allesammt gesünder für mich oder mein Familienleben wären und noch weitere die ich noch nicht einmal ernsthaft vermissen würde.

Kleiner Tip, wer am Ende des Jahres 50€ von den Stromkosten zurück haben will bezahlt einfach beim monatlichen Abschlag entsprechend mehr und bezieht das bei seinen geplanten Umkosten mit ein. Dann fällt man auch nicht bei der nächsten Strompreis Erhöhung oder wenn man mehr verbraucht hat als erwartet aus allen Wolken.
 
  • Gefällt mir
Reaktionen: muzafferamg58
schkai schrieb:
Demnach kann man schon sagen das die Vega das bessere UV Potential hat.
Was nur 1% der Leute wahrscheinlich nutzen. Wenn’s ab Werk so wäre, gut, aber ich kenne keinen normalen Menschen, der seine Karte mit Undervolting betreibt. 99% bauen die Grafikkarte ein und fertig.

P.S. Dieses Stromspar Argument egal ob Nvidia ist effizienter oder AMD kann man besser undervolten, ist zwar ganz nett, aber das man da ja Geld spart. OMG ja Strom ist auch so teuer XD

Meine CPU ballert über 200W (AVX Prime95) raus und die GPU ist leider auf 380W begrenzt und mich juckts einfach nicht.
 
  • Gefällt mir
Reaktionen: Esenel
RYZ3N schrieb:
Nenn es ruhig Befangenheit, aber TechPowerUp kann ich nun wirklich nicht als Referenz anerkennen.

In unserem Parcours liegt die die RTX 2070 bei 174 Watt und die RTX 2070 SUPER bei 222 Watt, da vertraue ich dann doch eher auf @Wolfgang.

Das ganze wird doch von Igor bestätigt!


Die 2070 Super schluckt ziemlich gut!
 
  • Gefällt mir
Reaktionen: McTheRipper und pilzsammler2002
Luxmanl525 schrieb:
Du kannst nicht dein Profil auf andere als Schablone anlegen. Wie kommst du eigentlich dazu?
Würde ich mein Profil als Schablone nutzen sähe es nochmal deutlich mieser beim Zeitmanagement aussehen.
 
SKu schrieb:
Ist sie halt nicht wirklich. Die 2070 waren anfangs teurer als die jetzige 2070 Super.

Das stimmt nicht.

Sowohl die Zotac als auch die INNO3D [wie 90% aller Customs] sind mit 519,— Euro in den Markt gestartet. Es gibt also keinen Grund bei den SUPER-Modellen nun mit einem nochmals höheren Einführungspreis von 529,— Euro in den Markt zu starten. Als die RTX-Serie herauskam konnte ich den Preis auf Grund „neuer Featueres“ und die Verschiebung in die nächste höhere Preisklasse noch halbwegs nachvollziehen, jetzt nicht mehr.

Aber mittlerweile kann ich nachvollziehen weshalb Nvidia solche Preise aufrufen kann, denn du bist ja das beste Beispiel dafür dass Konsumenten die Preispolitik sogar verteidigen.
 
  • Gefällt mir
Reaktionen: McTheRipper, Revan1710, GHad und 5 andere
Wadenbeisser schrieb:
Zieht man dann noch 8 Stunden Arbeitszeit, eine Stunde Fahrzeit und eine Stunde zum Aufstehen vom Tag

Soll denn schon wieder dieses blödsinnige Diskussion weiter getrieben werden? Es soll Leute geben die unter der Woche gar keine Zeit zum Zocken haben, dafür aber am Wochenende gleich 20h durchspielen. Es soll auch Menschen geben die zusammen mit der Freundin spielen oder wie auch immer auf die durchschnittliche Zeit kommen.

Muss doch jeder für sich entscheiden, Fakt ist nur, dass man die Kosten nicht unterm Tisch kehren sollte, wenn man nicht gerade maximal 2-3h pro Woche oder weniger spielt.

Selbst wenn man auf 50€ Unterschied beim Stromverbrauch in 4 Jahren kommt und diese Summe eigentlich auf so eine lange Zeit unerheblich ist. Ist diese Zahl nicht irrelevant, wenn man zwei Karten vergleicht, die sonst preisgleich sind.

Schaue dir doch mal die schöne Grafikkarten-Rangliste an.
796317


Würdest du auf alle diese Karten auch nur 50€ draufrechnen, würde für keine diese Karten mehr eine Empfehlung gelten, abgesehen vielleicht von der Vega 56 die abverkauft wird.
 
  • Gefällt mir
Reaktionen: KlaraElfer
@RYZ3N
Wird doch eh alles teurer, egal wo man hinschaut, da zahlt es sich aus den richtigen Beruf gewählt zu haben. ^^
 
@Wadenbeisser - Ich vermute einfach, dass das rumgetrolle ist, welcher Mensch dreht hier wegen 4€ durch??

@xexex - 50€ in 4 Jahren sind 1.04€ pro Monat das ist jetzt nicht dein Ernst oder? Eine Grafikkarte ist auch nicht im dauer gaming Zustand. So ein blödsinn hier wegen paar Euro so ein Aufstand zu machen. Im Endeffekt kostet dann die Mittelklasse nach 2-3 Jahren wegen solchen Leuten das Doppelte, die 1€ pro Monat sparen wollen. Toll gespart
 
Zurück
Oben