Test Nvidia GeForce RTX 3070 FE im Test: 2080-Ti-Leistung mit 8 GB für 499 Euro UVP

Laphonso schrieb:
https://www.computerbase.de/forum/t...eine-zielgruppe.1970978/page-41#post-24665489

3090 = 77 fps.
nospheratos brachial 2080Ti oc = 79 fps

Alles klar? :)


Ohne Kotzgrenzen OC bereinigt sind die 3080 rund 15% schneller und die 3090 so 25% schneller als die 2080Ti.

Thats it. Der Ampere Puffer entsteht mehr bei RTX on aufgrund der Masse an Chipausbau-Vorteil, Architektur kann OC da nicht mehr ausgleichen.

Mag sein, aber die 3090 schafft in UHD mit maximalen Settings auch mehr als 77 Fps.
Hier mal die Stock 2080Ti vs. Stock 3090. Das man mit der 2080Ti mit OC auf 79 Fps kommt ist beeindruckend, aber die 3090 knackt man dann doch nicht.

1603880462040.png
 
  • Gefällt mir
Reaktionen: KlaraElfer
rafiibs schrieb:
Und wenn DLSS 2.0 im Einsatz ist, ist das ein Top Bild mit einer Top Performance!
Das ist m.E. ohnehin der Trumpf Nvidias, der auch die Turing Generation relevant hält. Da nochmal deutlich mehr Performance "einfach so" zuschalten zu können, ist schon irre.
20 % Zusatz fps for free, die quasi den Standard Sprung einer next gen GPU der gleichen Modellreige mitnehmen

Sollte sich DLSS 2.0 durchsetzen, ist das Nvidias Blockbuster Feature. Nicht Gsync, nicht Raytracing oder sonstwas.

Edit @rafiibs hat recht, wir reden eher von 50 % plus minus 10% mehr fps bei gleichen gfx Settings.
 
  • Gefällt mir
Reaktionen: foo_1337
Laphonso schrieb:
Weil ich den Ampere Marketingschwachsinn tatsächlich kurz geglaubt hatte.

Marketing macht Werbung.

Der Zocker als Zielproband schaut sich die konsumorientierte Werbung an und glaubt was diese ihm sagt, weil er ohne Hürden dem Hobby fröhnen will.

Dass er selber durch bestimmte Versprechen abgezockt wird, will er ja überhaupt nicht glauben, weil die Werbung und das Marketing ihm eine Art Placebo-Effekt unterjubeln, der ihn funktional für das Angebot macht.

Viele können sich dabei noch an das rettende Ufer ziehen, weil sie den Schwachsinn erkannt haben und die, die diesen nicht erkennen konnten oder wollten, treiben auf hoher See und verschwinden mit ihrer Schönrederei frei nach Goethe im Bermudadreieck.

Überzeugung soll dir niemand rauben;
Wer's besser weiß, der mag es glauben.
 
Grafikkartentests lesen sich zunehmend wie Sportwagentests: Spannend, aber an meiner Lebensrealität vorbei.

Schade finde ich, dass über den Bereich 100 bis 200 Euro quasi gar nicht mehr berichtet wird, kaum Ankündigungen oder Nachfragen, die Produkte keinen in der Presse ernsthaft zu interessieren scheinen. Da ist die Autopresse besser dabei: Da werden auch Golfs und Polos ausführlich getestet und vorgestellt.

Grafikkartenberichterstattung ist da dem Fußball näher. Da interessieren auch nur die Profiligen. Aber da berichtet man auch für Fans und nicht für Kunden.

Anyway: Wechseln wir das Lager und werden Konsolero. Oder gleich das Hobby, Let's Plays kosten weniger Zeit.
 
  • Gefällt mir
Reaktionen: downforze und Immerfreundlich
Laphonso schrieb:
20 % Zusatz fps for free, die quasi den Standard Sprung einer next gen GPU der gleichen Modellreige mitnehmen

Sollte sich DLSS 2.0 durchsetzen, ist das Nvidias Blockbuster Feature. Nicht Gsync, nicht Raytracing oder sonstwas.

Mit 20% mehr pokerst du niedrig. Das sind ja bei manchen Titeln 40 - 60%, und ja, es ist beeindruckend wie viel das bringt und welche Bildqualität das liefert. Inzwischen gibt es viele Beweise, dass es sogar besser als natives Bild aussieht. Und das ist wirklich das USP von Nvidia. RT ist nice, aber DLSS 2.x ist wirklich top!
 
  • Gefällt mir
Reaktionen: foo_1337 und Laphonso
Fraggball schrieb:
aber dann behalte doch einfach die 2080ti wenn die ampere zu lahm ist. wo ist das problem? die 2080ti kann man doch ganz entspannt noch 2 jahre nutzen und dann kommt rtx4000 oder ähnliches.
Kennst Du etwa nicht das "ich WILL aber nach 2 Jahren etwas Neues, ich war darauf eingestellt, ich möchte mein Hobby ausbauen" -Konsumopfer- Enthusiasten Dilemma, fraggball :D

Ist ja auch nicht so, dass die 2080Ti unter 1440p überhaupt irgendwo ins Straucheln käme.
Mit der Brechstange treten Metro Exodus und RDR2 sie unter 50 fps bei mutwilligen fps Killer Settings, man kann hier und "unter 60 avg fps" provozieren, auch bei SotTR oder Watchdogs 2 soagr etc, aber ja. Harmlos.

Aber naja. Eine 3090 Kingpin sähe ich gerne im Test. Macht den Umstieg auf 34 Zoll dann schmackhafter.
 
rafiibs schrieb:
Das ist der schlaueste Kommentar hier! Viele vergessen, wie oft sie vermeintlich "günstigere" Karten kaufen, um am Ende die selbe Leistung über die Jahre zu "erkaufen", wie jemand, der von vorne herein eine teurere Variante genommen hat!
Das kann man meiner Meinung nach so nicht vergleichen, das sind zwei völlig verschiedene Zielgruppen. Die meisten kaufen sich ja keine 2070, um direkt mit der nächsten Generation wieder aufzurüsten. Genauso kaufe ich eine 2080 Ti ja nicht um massig Reserven für FHD zu haben.

Dass man auf lange Sicht Geld spart, weil man immer zum Top-Modell greift ist in meinen Augen ein völliger Irrglaube. Nach dieser These müsste man jetzt also eine 3090 mit total mieser P/L kaufen und bezahlt dann wohl so viel wie für 3070, 4070 und 5070 zusammen.
 
  • Gefällt mir
Reaktionen: downforze
Auf jeden Fall insgesamt tolle Karten (egal, ob 3070/80/90), wenn man in der Vergangenheit sehr viel mehr Geld für eine solche Leistung zahlen musste.

Schauen wir jetzt mal, was heute abend von AMD kommt und dann wie die Liefersituation beider Hersteller in den nächsten Monaten sein wird.

Bei mir steht ein komplett neuer PC an und eigentlich hätte ich ihn gern jetzt (Weihnachtsgeld gibt es in zwei Wochen) und nicht erst im Frühjahr.
Aber das wird wohl eher um Ostern rum, denke ich
 
Revan1710 schrieb:
Das kann man meiner Meinung nach so nicht vergleichen, das sind zwei völlig verschiedene Zielgruppen. Die meisten kaufen sich ja keine 2070, um direkt mit der nächsten Generation wieder aufzurüsten. Genauso kaufe ich eine 2080 Ti ja nicht um massig Reserven für FHD zu haben.

Dass man auf lange Sicht Geld spart, weil man immer zum Top-Modell greift ist in meinen Augen ein völliger Irrglaube. Nach dieser These müsste man jetzt also eine 3090 mit total mieser P/L kaufen und bezahlt dann wohl so viel wie für 3070, 4070 und 5070 zusammen.
Ich gebe dir absolut Recht! Dieses Beispiel hat jetzt nur auf die 2070 - 3070 Thematik gepasst, bezogen auf eine FE 2080Ti. Aber es passt hier eben. Insgesamt macht es natürlich langfristig keinen Sinn.

Aber ich handhabe das in der Regel so, dass ich mir die schnellste Karte kaufe, und mit einem relativ geringen Preisverlust verkaufe, und dann nur das Delta re-investieren muss (meistens sind das dann etwa 50%). Dieses mal geht das nicht so glatt auf wie die anderen Male, da die Unterschiede im Preis eben immens sind im Vergleich zum Anschaffungspreis der EVGA Karte, aber die Unterschiede zu den 30xx FE sind eben auch nicht so gewaltig, wie NVIDIA es einem verkaufen wollte.
 
Laphonso schrieb:
Kennst Du etwa nicht das "ich WILL aber nach 2 Jahren etwas Neues, ich war darauf eingestellt, ich möchte mein Hobby ausbauen" -Konsumopfer- Enthusiasten Dilemma, fraggball
klar, hab ich doch auch! aber ich hatte das glück "nur" eine 2080 im rechner zu haben. das upgrade auf die 3080 strix ist absolut fantastisch.
 
  • Gefällt mir
Reaktionen: Laphonso
serval schrieb:
Anyway: Wechseln wir das Lager und werden Konsolero. Oder gleich das Hobby, Let's Plays kosten weniger Zeit.

Warum so pessimistisch? Es gibt doch mehr als genug Karten, die Käufer in diesen Preisbereichen interessieren sich ggf. nicht so sehr für diesen Techtalk und hunderte Seiten Detaildiskussion.

Wenn die neuen Generationen beider Hersteller in ausreichendem Umfang im Markt angekommen sind, wird sich das auch auf die unteren Segmente massiv auswirken. Gerade Karten wie die GTX 1080 werden in größerer Stückzahl gebraucht zu kaufen sein, da wird man schöne Karten für wenig Geld bekommen können.
Zudem stehen die kleineren Modelle der 3000er Serie ja noch aus, würde mich wundern, wenn es bei Release keinen Test dieser Modelle gibt.

Ich zocke seit Mitte der 80er, so viel Leistung, so viel Auswahl und Möglichkeiten, so viele Spiele für so wenig Geld gab es noch nie zuvor. Kein Grund sich zu beschweren aus meiner Sicht.
 
  • Gefällt mir
Reaktionen: piccolo85 und Coenzym
Fraggball schrieb:
klar, hab ich doch auch! aber ich hatte das glück "nur" eine 2080 im rechner zu haben. das upgrade auf die 3080 strix ist absolut fantastisch.
Auf 34 Zoll bzw 3440*1440 würde ich auch in jedem Falle die 3080 nehmen, die 2080Ti strauchelt hier dann doch merklich in den neuesten Titeln. Und ja, ich denke in maxed Ultra Szenarien, dann dazu bin ich PC Gamer, weil ich hier die Slider habe :D
 
@sethdiabolos
Hm, ist das tatsächlich 2x das gleiche System?
Wundert mich nur, dass es z.B. verschiedene Treiber sind und unterschiedlich viel RAM.
(Unabhängig jetzt davon, dass die 3090 natürlich schneller ist. Andere Videos zeigen ja oft um die 92-94fps rum.)
 
Philanthrop schrieb:
da Nvidia bereits den TSMC Refresh angekündigt hat.
Ich bitte um Quellenangabe. Ich bin der Meinung, dass es nur ein Gerücht ist.
 
  • Gefällt mir
Reaktionen: Aduasen
nospherato schrieb:
@sethdiabolos
Hm, ist das tatsächlich 2x das gleiche System?
Wundert mich nur, dass es z.B. verschiedene Treiber sind und unterschiedlich viel RAM.
(Unabhängig jetzt davon, dass die 3090 natürlich schneller ist. Andere Videos zeigen ja oft um die 92-94fps rum.)

Das ist aus einem Video von YT, da wird der Screen der 2080Ti bestimmt auch in einem anderen früheren Video Verwendung gefunden haben. Der Ram wird einfach auf 16GB getauscht worden sein, vielleicht weil dieser schneller taktete.
 
Laphonso schrieb:
Ich war da vielleicht einfach ungenau in meiner Darstellung.

Stock vs Stock testen, ja logo!
Stock vs oc? Nein.
Stimme ich Dir voll zu, poly

Separat: oc Headroom testen!
Bekomme ich 3 % mehr raus? Oder gar 30 %?
Das ist HIER unter "uns" und unter den Gamern, die mehr als 3 Gedanken in eine GPU investieren, schon ein Preis-Leistungs-Faktor und eine Performancefrage, zu wissen, ob ich out of the box mal eben 1 oder 30% Reserven freischalten kann, die "da" sind und stabil abrufbar.

Achte mal drauf, wieviele in den Signaturen hier "oc" stehen haben ;)
Beim Release vom Zen 2 gab es auch die Feststellung, dass die CPU an ihrer physischen Grenze arbeitet und quasi nicht übertaktet werden kann. Dem Verkauf hat es nicht geschadet. Offensichtlich ist das Interesse an OC doch nicht so entscheidend, wie du annimmst. OC bedeutet mehr Lautstärke, mehr Abwärme und mehr Stromkosten.
Ich fahre ein Auto, das baugleich zu seinem leistungsstärkeren Bruder ist und nur durch den Turboladerdruck limitiert ist. Niemand würde da auf die Idee kommen den großeren Wert anzugeben, auch wenn nur ein Parameter per Softwareupdate geändert werden müsste.
Verglichen werden sollte immer der Ausgangszustand. Bei meiner AMD-Karte muss ich schließlich sogar einwillen, dass ich die Karte auf eigenen Willen ohne Gewährleistung übertakte. Schon aus dem Grund bevorzuge ich da die CB-Testmethodik. Eine 1200€ 2080 ti hätte ich im Rahmen der Gewährleistung garantiert nicht hochgeschraubt.

Da Igor die Ampere bis 2200 Mhz bekommen hat und damit deutlich höher als CB, ist die ganze Diskussion ohnehin müßig.
 
calippo schrieb:
Ich glaube, dass wir hier ein ganz unterschiedliches Verständnis von Zeiträumen haben. Wenn ich plane, mir demnächst eine 3070 (oder was von AMD, wir werden sehen) zu kaufen, dann kann das bei Verfügbarkeit in den nächsten Wochen sein (eher unwahrscheinlich) oder auch nach Weihnachten. Ist für mich dann aber trotzdem noch "demnächst". Selbst wenn man Karten normalerweise nur 2 Jahre hält, kommt es auf ein paar Monate +/- nicht an.
Wenn die 3070 im Februar oder März immer noch nicht regelmäßig für 500€ verkauft wird, kann man das Thema noch mal aufrollen.

Und bis dahin hat eine RTX2080ti immer noch 11 GB-Speicher und ist OC-bereinigt 10% schneller. Da ändert sich auch nichts.
Natürlich kann man immer warten. Du kannst auch 5 Jahre warten und dann sehen was so auf dem Markt los ist.

Aber wer sich Heute eine RTX2080ti für 500 Euro gönnt, der braucht sich doch nicht wegen einer irgendwann verfügbaren RTX3070 zu ärgern, zumal er ja auch die fast gleiche RT-Leistung besitzt.
Der kann sich einfach zurücklehnen, abwarten und sagen, ich kaufe erst wieder bei der kommenden RTX4070/5070.
 
@Laphonso
Wir wissen teilweise gar nicht, über was wir uns heute beschweren. Ich will nicht wie der alte Mann klingen, der sich aus dem Fenster und lehnt mit erhobenem Finger krächzt "Früher war alles besser" - nein, das Gegenteil ist hier zweifellos der Fall.

Wie viele Jahre wollen wir denn zurückgehen? Ich werfe mal knappe 25 Jahre in den Raum!

Als Quake released wurde, als Duke Nukem 3D auf den Markt kam sowie die ganzen anderen Build Engine-Spiele, gab es - auch für alles Geld der Welt - KEINEN PC (zumindest im Konsumenten-Bereich soweit mir bekannt), der auch nur annähernd in der Lage gewesen wäre, diese Spiele bei maximalen Details und hoher Auflösung zu spielen.

Zugegeben, damals gab es noch längst nicht so viele Frickeleien in den Grafikeinstellungen wie heute, aber nebst der nativen Auflösung boten einige dieser Spiele ebenfalls schon Einstellungen für Bodenobjektdichte oder z.B. Sichtweite.

1996 waren PCs noch richtig, RICHTIG teuer! Ein "Gaming-PC" hat hier schnell mal 3000 DM gekostet, ohne Monitor! Oh, richtig, der Monitor. Ein 17" Belina 103010 Röhrenmonitor hat hier schnell 1000 DM gekostet. Was hat man dafür bekommen? Eine maximale Auflösung von 1280x1024 (5:4-Format) mit 60 Hz oder 1024x768 (4:3-Auflösung) mit immerhin 85 Hz.

Tatsächlich spielte man die erwähnten Spiele aber eher in 800x600 oder gar in 640x480, da die verbreiteten 2D-Grafikkarten (3D gab es noch nicht wirklich) mit ihren maximal 4 MB RAM einfach viel zu überfordert waren und dem Prozessor kaum Arbeit annehmen konnten beim Rendern dieser Spiele.

Fast Forward? Kein Problem -> 2005, TES Oblivion
Ich zitiere mal Anandtech:
Our highest end X1900 XT CrossFire setup can't even run our most stressful real world Oblivion test at 1280 x 1024 with all of the detail settings set to their highest values. That's right, $1200 worth of GPUs will get you less than 50 fps at less than the highest image quality, and we're not talking about having AA enabled either.

Wir springen mal weitere 7 Jahre nach vorn, 2012 und Far Cry 3, diesmal direkt hier von Computerbase
Eine GTX 680 liefert bei Full HD, sehr hohen Details und aktiviertem Antialiasing (FXAA) über 60 FPS, eine Mittelklasse-Grafikkarte in Form der 650 Ti kommt hier immer noch auf knappe 30 FPS - in einem Triple A-Titel mit sehr hohen Grafikeinstellungen und der für 2012 noch nahezu "utopischen" Full HD-Auflösung.

Quick Reminder: Noch Mitte 2009 hat ComputerBase seine Grafiktests in der damals deutlich verbreiteteren Auflösung von 1680x1050 durchgeführt.

Unterm Strich beschweren wir uns heute darüber, dass wir nicht jedes noch so obskure Spiel am Markt in 4K-Auflösung bei über 60FPS, Raytracing und am Besten noch 8-fachem Antialiasing spielen können - selbstverständlich immer bei höchsten Ingame-Settings und am Besten mit einer Grafikkarte, die die 400 Euro Kaufpreis nicht überschreiten darf.

Das ist der Punkt, der es für mich einfach so lächerlich erscheinen lässt. Der Spieler von heute (offensichtlich ein junger und von der Geschichte nicht gebrandmarkter Mensch) versteht gar nicht, welch große Schritte das Thema "Gaming" in den letzten Jahren und Jahrzehnten vollzogen hat.

Es ist heute - zugegeben mit etwas Geldaufwand - möglich, ein High End-System zusammenzustellen, das vor höchsten Settings in 4K überhaupt keine Angst mehr haben muss. Selbst ohne Inflationsbereinigung kostet ein solches System heute dennoch weniger als das von mir angesprochene von 1996 - das eben seinerzeit nicht einmal in der Lage war, die damals aktuellen Spiele auch nur annähernd in hohen Auflösungen und/oder maximalen Details flüssig darstellen zu können.

Guys, come down!
 
  • Gefällt mir
Reaktionen: Banjo, .Sentinel., Phil201 und 10 andere
Zurück
Oben