Test Nvidia GeForce RTX 3070 FE im Test: 2080-Ti-Leistung mit 8 GB für 499 Euro UVP

Breaking News - NVIDIA verdoppelt die Menge der Launchkarten um 100% .. die Händler erhalten nun 8 statt 4 Karten welche damals beim Launch der 3080 zur Verfügung standen! :schluck:

... Aber bestellen sie schon heute um ihre 3070 zu Ostern 2021 ihr Eigen nennen zu können!
 
  • Gefällt mir
Reaktionen: ComputerJunge, Mcr-King und Bright0001
lol, mmh dann doch lieber eine 3090 :D
 
  • Gefällt mir
Reaktionen: Mcr-King
Tornavida schrieb:
Eben,ausser mehr FPS sehe ich in Bezug auf Gaming jetzt keinen grossen Vorteil bei der 3070,dafür aber Vieles was für die Konsole spricht,wie z.B. dass alles garantiert bis zur nächsten Gen in akzeptabler Qualität laufen wird etc...

Na ja, es gibt ja trotzdem sehr viele Games die man lieber mit Maus und Tastatur Spielt oder eben die PC exklusiv sind. Sämtliche Shooter z.B. würde ich nicht auf Konsole spielen wollen und gerade sowas wie Doom Eternal macht halt auch erst bei deutlich über 60 FPS und Maussteuerung so richtig spaß.

Ich werd mir ziemlich sicher die 3070 holen oder halt was vergleichbares von AMD.
Eigentlich kann mir der VRAM egal sein. Ich hab die letzten Tage immer wieder gegen den VRAM wahn argumentiert und werde das hier nochmal wiederholen:

Für mich gibts drei Faktoren, die dafür Sprechen, dass die 8GB eigentlich genug sein sollten:

1.
8GB entspricht 50% des Next-Gen-Konsolen-Gesamt-RAM.
2013 hatten die Konsolen 8GB RAM, aber am Desktop gabs nur 2-3GB VRAM, was damals nur ca. 20-38% des Konsolen RAMs waren. Die 8GB Karten stehen also im Verhältnis heute viel besser da und sollten, nein MÜSSEN daher im Hinblick auf next-gen Games zukunftssicherer sein, als z.B. eine damalige HD7970.
Man darf nicht vergessen, dass wir bei den Konsolen nur eine Speicher Verdoppelung haben. Wenn man also 2013 eine GPU mit ausreichend VRAM hatte, dann muss das jetzt für die nächsten Jahre eigentlich nur das doppelte von damals sein. Das wären theoretisch 6 GB.

2.
Die Konsolen zielen auf 4K ab. 3070 Käufer, mich eingeschlossen, werden eher 1440p anvisieren.
2013 war hingegen Gleichstand bei den Auflösungen. PC Spieler nutzten 1080p, manchmal 1440p. Während die Konsolen auf 1080p limitiert waren. Die 3070 steht mit ihren 8GB für 1440p somit wieder deutlich besser im Verhältnis zu den neuen 4K Konsolen da, als eine HD7970 im Jahre 2013 zur PS4.

3.
DX12 Ultimate Sampler Feedback Streaming reduziert wohl die VRAM Nutzung drastisch. Hier hat zwar der PC keinerlei Vorteil zur Konsole, da das auf beiden Plattformen genutzt wird. Aber wenn das wirklich genutzt wird und so funktioniert, wie beworben, dann wären die 8GB deutlich mehr "wert", als sonst. Im Endeffekt müsste das ganze VRAM Thema und das Gefühl dafür, was "viel" ist neu bewertet werden.



Natürlich bereitet mir das Thema genauso Bauchschmerzen wie den meisten anderen auch. Einfach weils die 8GB jetzt schon ewig gibt. Es fühlt sich falsch an, im Jahr 2020 so eine Karte zu kaufen.

Aber wenn man mal rein logisch an die Sache rangeht und nicht alles stets auf Ultra knallen will (dafür braucht man eh jedes Jahr ne neue GPU), dann ist es eigentlich Unsinn in 16GB zu investieren. Also zumindest für mich. Ich brauche weder stests maximale Details, die die Performance so oder so auf jeder Karte vernichten und ich brauch keine 4K.

Der Punkt ist eben: Ich will mich nicht von AMD "Ködern" lassen, nur weil die 16GB verbauen. Das darf angesichts meiner Argumente nicht das Ausschlusskriterium für Nvidia sein. Für mich hat das irgendwie was von Bauernfängerei.
Wäre z.B. eine HD7970 länger spieletauglich geblieben, wenn sie statt 3GB 6 GB gehabt hätte?
Also ganz ehrlich. Auch wenn die 3GB im Verhältnis zur Konsole weniger VRAM war als heute die 8GB VRAM, so hatte ich nie Probleme wegen der 3GB. Mir ist irgendwann die GPU Leistung ausgegangen, aber sicher nicht der VRAM. Es ergibt daher keinen Sinn, davon auszugehen, dass 8GB zu knapp sind.

Es ist echt ne seltsame Situation. Ich bin hin und her gerissen. Die 3070 ist ne tolle GPU, sparsam, effizient und "eigentlich" auch genug VRAM nach meiner Argumentation. Nur das ist eben der psychologische Konflikt. Wir sehen hier alle ein Problem wo es vielleicht gar keines gibt, weil jeder nur noch hysterisch schreit "ZU WENIG!!". Und ja, dieses Bauchgefühl hab ich eben auch...

Die Antwort wirds dann wohl in 2-3 Jahren geben.
 
Zuletzt bearbeitet von einem Moderator:
hamsi61 schrieb:
hab mir die benchmarks von igors lab angesehen. dort wird die 2080ti klar geschlagen...

Ja der CPU ist aber Max OC und trotzdem zu langsam ist mal auf den R9 5900 Warten. ;)
 
  • Gefällt mir
Reaktionen: Benji18
Bin mal gespannt was da noch im Mix zusammenkommt bei den verschiedenen Seiten/YTern. Bei Igor ist bei der Benchauswahl der Spiele der Abstand in FHD / WQHD zur 3080 nicht so hoch wie bei CB, aber egal: die 3070 scheint bisher das rundere Produkt zu sein, was die ganzen Fragen zum Thema "FHD mit 3080???" angeht.

VRAM: Ob die 8GB "reichen" oder nicht, sei dahingestellt. Uralte Diskussion. Fakt ist, das gibts schon mit der aktuellen (noch immer) Einsteigerkarte, ne genausoalte Polaris für 3,80 D-Mark. Wird langsam schal, dieses leidige NV-Thema und AMD könnte hier morgen bei den letzten fehlenden % oder € Unterschieden den Ausschlag geben.
 
  • Gefällt mir
Reaktionen: Mcr-King
gut und richtig schrieb:
Sind sich hier manche überhaupt bewusst was für ein Geld verbrennen das ist?

Es gibt wohl kaum ein Produkt, bei dem die Leistungsfähigkeit so tief analysiert und verglichen wird, wie bei Grafikkarten bzw. PC Bauteilen im Allgemeinen.

Was man für 500€ bekommt, was man für mehr oder weniger Geld bekommt, kann man doch an den Benchmarks und Preissuchmaschinen bis auf die Nachkommastelle ablesen.

Wenn man sich umfangreich mit der Materie auseinander gesetzt, die Tests gelesen hat und mal grob über den Daumen peilt, was man in nächster Zukunft unter welcher Auflösung und FPS-Ziel spielen will, dann sehe ich da gar keine Gefahr, Geld zu verbrennen.

Klar, was AMD bringt, schaut man sich noch an, aber wenn die nichts vergleichbares in der 500€ Klasse zu akzeptablem Verbrauch (für mich ist der Verbrauch der 3070 die absolute Obergrenze in den nächsten Jahren) bringen, dann ist die 3070 eine gute Wahl.
Selbst wenn dann zunehmend der VRAM limitiert und Modelle mit mehr Speicher auf den Markt kommen, ist die 3070 immer noch eine Karte auf 2080TI Leistungsniveau und damit leistungsfähiger als der aller größte Teil der im Einsatz befindlichen Karten in Gamer PCs (siehe Steam Stats)

Ist aber auch eine Frage der Perspektive und natürlich auch des verfügbaren Einkommens und dem Spaß, den man für Spiele und Hardware noch aufbringen kann (der nimmt im Alter auch oft ab, dann ist jeder Euro zu viel)
 
B3nutzer schrieb:
Sämtliche Shooter z.B. würde ich nicht auf Konsole spielen wollen
Ich auch nicht.
CoD und Konsorten verkaufen sich dennoch vielfach besser auf Konsolen.
Wir sind eine Randgruppe :)

Mal anhand von Black Ops 3:
Breaking down the sales by platform, the game has sold best on the PlayStation 4 with 14.15 million units sold (56%), compared to 7.27 million units sold on the Xbox One (29%). It also sold 1.78 million units on PlayStation 3 (7%), 1.75 million units on the Xbox 360 (7%), and 0.23 million units on Windows PC (1%).
https://www.vgchartz.com/article/26...estimated-25m-units-sold-worldwide-at-retail/
 
  • Gefällt mir
Reaktionen: foo_1337, Mcr-King, DannyA4 und eine weitere Person
calippo schrieb:
Klar, was AMD bringt, schaut man sich noch an, aber wenn die nichts vergleichbares
Stellen die den morgen nur vor oder gibt es auch direkt Tests und was zu kaufen? Wenn die morgen sagen launch anfang Dezember hilft das ja auch nicht viel Oo
 
danke für den test.

leistung weiß zu gefallen, die speicherausstattung absolut nicht. 8GB gab es schon vor gut 5 jahren mit der 390 und auch bei Nvidia seit über 4 jahren.

kühler ist für ne refkarte echt ordentlich.

bei nem maximalen PL von 240W nur einen 8pin zu "verbauen" finde ich... interessant.
grundsätzlich, verbrauch. der entwickelt sich mMn in ne völlig falsche richtung. die 1070 kam mit 150W aus. 4 jahre später sind wir bei 220W für ne (technisch gesehen) mittelklassekarte und 320-350W für highend. ja, der chip war bei der 1070 deutlich stärker beschnitten als bei der 3070, aber auch ne 1080 war (deutlich) sparsamer. fortschritt!:freak:

edit @Drexel: nur wenn Nvidia das erlaubt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
calippo schrieb:
Es gibt wohl kaum ein Produkt, bei dem die Leistungsfähigkeit so tief analysiert und verglichen wird, wie bei Grafikkarten bzw. PC Bauteilen im Allgemeinen.

Mein Punkt ist doch folgender:
Ich war selber mal Enthusiast, hatte früher sogar Dual-GPUs im Betrieb.
Wirklich sinnvoll genutzt hat man das (wenn man sich ehrlich macht) nie, da schon lange Games für Konsolen erstellt werden.

Und diese 3070 hier genügt einem vielleicht 1 Jahr wegen dem zu geringen und vor allem langsamen VRAM, die Rohleistung würde aber sicherlich ein wenig länger genügen.

Jetzt kann es schon limitieren, daher nochmal die Frage:
Was ist in 1 oder 2 Jahren?

8 GB mit der Speicherbandbreite für 500 Euro ist ein Witz.

Oder anders gesagt:

Ich kaufe mir nicht eine Komponente für 500 Euro und wechsle in 1 Jahr wieder, gerade weil ich vernünftig bin und etwas möchte das in dem Preisbereich wenigstens 3 oder 4 Jahre hält.
Verschwenderischer Konsum ist auch nicht mehr der Zeitgeist, dieser Stromverbrauch der Karten darüber sowieso nicht.

Was ist die Zielgruppe für den ganzen Müll?

Wer kauft sich 850 Watt Netzteile außer Kids die kein Plan haben oder gefrustete Typen die mit 40 noch bei Mama wohnen?

Ich kenne von mehr als 100 Leuten niemand der das machen würde sich eine Karte für 500+ Aufwärts in den PC setzen und nach 1 Jahr wechseln müssen. Selbst als Nerd muss man da doch sagen, das lohnt sich nicht.
 
  • Gefällt mir
Reaktionen: .Ake und Mcr-King
Cl4whammer! schrieb:
Stellen die den morgen nur vor oder gibt es auch direkt Tests und was zu kaufen? Wenn die morgen sagen launch anfang Dezember hilft das ja auch nicht viel Oo

Ich erwarte morgen in etwa die gleiche Präsentation und Informationsgehalt wie bei der Nvidia Vorstellung. Für mich ist vor allem der Preispunkt und die Speicherausstattung und die grobe Positionierung der Karten im Vergleich zur 3070 interessant.
Die Verfügbarkeit aller Karten und vor allem die Preisentwicklung wird sich erst in den nächsten Wochen und Monaten zeigen
 
Kann jemand mit Praxiserfahrung sagen wie stark sich die 8GB vs. die 11GB bei der RTX 2080Ti im Bereich AI etwa auswirken?
(Also sowas wie: AI Upscaling, Deepfakes, Objekterkennung über Deep Learning bzw. eben ähnliche Themen man auf dem YT Kanal "Two Minute Papers" findet.)
Ich möchte mich zukünftig mit diesem Bereich beschäftigen und habe gelesen, dass der VRAM hier oft den Flaschenhals darstellt.
Wie ist eure Einschätzung dazu?

edit.
gut und richtig schrieb:
Und diese 3070 hier genügt einem vielleicht 1 Jahr wegen dem zu geringen und vor allem langsamen VRAM, die Rohleistung würde aber sicherlich ein wenig länger genügen.
Na mach mal halblang.
Das Ding ist deutlich schneller als die GPU in den neuen Konsolen. Da diese die zukünftige "Baseline" darstellen wird man mit der RTX 3070 noch viele Jahre spielen können, auch wenn nach einer Weile selbstverständlich die Details herunter geschraubt werden müssen. (Die Konsolen werden zukünftigen Grafikkartengenerationen ja auch immer deutlicher unterlegen sein.)
Der VRAM wird sicherlich irgendwann eine begrenzende Komponente und insbesondere in 4K werden schon recht früh einige Details heruntergeschraubt werden müssen aber die Spiele werden trotzdem noch mindestens so gut wie auf den Konsolen laufen.
Von "genügt einem vielleicht 1 Jahr" kann also keine Rede sein, außer man möchte immer das Schnellste und Beste. (Dann ist eine "kleine" RTX 3070 aber eh die falsche Karte.)
 
Zuletzt bearbeitet:
gut und richtig schrieb:
Ich kaufe mir nicht eine Komponente für 500 Euro und wechsle in 1 Jahr wieder, gerade weil ich vernünftig bin und etwas möchte das in dem Preisbereich wenigstens 3 oder 4 Jahre hält.
Details reduzieren?
Erinnere dich mal an früher.
Da haben die anspruchsvollen Leute jährlich aufgerüstet, weil "maxed out" mit der Karte vom Vorjahr nicht mehr möglich war, wenn es überhaupt je der Fall gewesen ist.
 
  • Gefällt mir
Reaktionen: foo_1337
8GB mag dem ein oder anderen sicherlich noch reichen, aber für eine Neuanschaffung ist mir das zu wenig.
Der Preis ist mir für ein Mittelklassemodell aber echt zu hoch. Hoffentlich wird AMD da ein attraktiveres Paket schnüren.
 
  • Gefällt mir
Reaktionen: gut und richtig und Numrollen
@(-_-)
Stimmt so nicht ganz, das Stichwort sind Dual-GPUs.
Da konnte man locker eine Gen überspringen, da man locker die Leistung der nächsten Enthusiast GPU bereits ein Jahr vorher hatte.
Und so weiter.... aber außer für Benches hat es eh kaum etwas gebracht.

Und ah ja... wir haben nicht mehr "früher" als jeden Monat CPUs mit 100 MHz mehr erschienen und das einen Unterschied gemacht hat - heute ist das völlig egal - kannst selbst mit einem Sandy noch easy zocken wenn du die GPU entsprechend prügelst. Und die CPUs sind wie alt? 8 Jahre? Wäre früher undenkbar gewesen noch Games mit so alten CPUs überhaupt starten zu können. Zeiten ändern sich. Umweltbewusstsein auch!
 
  • Gefällt mir
Reaktionen: .Ake
Ich meine ... eines muss man jetzt aber definitiv sagen - bevor ich 600€ für ne 2080 ti löhnen würde, es sei denn die ist gerade 3 mon. gebraucht und quasi volle Garantie - würd ich lieber die 499€ für die zahlen...

....der Fall ist nun eingetreten :P
 
  • Gefällt mir
Reaktionen: ComputerJunge, foo_1337 und Benji18
Simariqcocuq schrieb:
Irgendwie kann ich die benchergenisse gar nicht nachvollziehen. Vergleicht man in den alten tests, beispielsweise die 1080 ti mit der 3090, ist der prozentuale unterschied in full hd 40 Prozent. Aber vergleicht man den Unterschied hier zwischen einer 1080 ti und der 3090, soll der unterschied bei satten 72% liegen.

Benötige Aufklärung.
Push
 
Drexel schrieb:
Könnte es nicht von Drittherstellern potentiell 16GB Varianten geben?

Nein da du immer GPU plus VRAM kaufst und es so nehmen must außer bei AMD GPU only. ;)
 
  • Gefällt mir
Reaktionen: Drexel und Benji18
Zurück
Oben