Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 3070 FE im Test: 2080-Ti-Leistung mit 8 GB für 499 Euro UVP
Biedermeyer
Commander
- Registriert
- Apr. 2005
- Beiträge
- 2.396
Dank an die Test-Crew, dass auch wieder FHD getestet wurde .
F
foo_1337
Gast
Erste Aufzählung bei Sony:flappes schrieb:Ja ernsthaft, bitte zeige mir wo Microsoft oder Sony das massiv bewerben, du behauptest das.
Irgendwelche Artikel von irgendwelchen Seiten kann jeder nennen.
Bei der xbox auch weit oben:
- Registriert
- Dez. 2012
- Beiträge
- 2.546
Achso, die 5700XT war/ist auf dem Leistungsniveau einer 2080 Ti?sialickiz schrieb:Die 5700XT ist doch auch noch sehr jung und da hat sich auch niemand über die 8Gb beschwert, warum jetzt auf einmal ?
calippo
Vice Admiral
- Registriert
- Juli 2015
- Beiträge
- 7.017
Gute Frage, wenn eine renommierte Hardware-Seite einen hervorragenden vierseitigen Test veröffentlichen würde, könnte ich Dir diese Frage beantwortenHobojobo schrieb:Benötigt die 3070 FE nur 1x 8 PIN für die Stromversorgung?
Landet man da nicht bei max. 180 Watt?
F
foo_1337
Gast
Das ist erstmal nur eine API, steht btw. auch so in deinem verlinkten Artikel.HerrRossi schrieb:Nennt sich DirectML, guckst du hier: https://www.overclock3d.net/news/so...on_game-changer_that_nobody_s_talking_about/1
...hätte ich einen aktuelleren I7, dann würde ich auch direkt sagen : "COME TO DADDY"abduladarula schrieb:Komm zu Papa
2600k wird aber den Dienst verweigern ! Das machte die CPU bei Pascal schon und für mich sind konstante 60FPS must have.
Nein, nein ein CPU upgrade kommt nicht in frage. Neue CPU, neue GPU, murdered by Girlfriend.
Zu Riskant !
F
foo_1337
Gast
PCIe liefert weitere 75W.Hobojobo schrieb:Benötigt die 3070 FE nur 1x 8 PIN für die Stromversorgung?
Landet man da nicht bei max. 180 Watt?
M
matty2580
Gast
Unterm Strich ist das Ergebnis sehr gut für die 3070 FE.
Der Verbrauch ist niedriger als bei der 2080ti, und trotz deutlich kleineren Chip erreicht man in vielen Games die gleiche Performance.
Kritisieren kann man an dem Chip nicht viel, bis auf die 8GB VRAM.
Da bietet die PS5 zum gleichen Preis ein komplettes Paket an, Gehäuse mit vielen Anschlüssen, Mainboard, guter Lüfter, 16 GB VRAM für GPU und CPU, eine leistungsstarke Mittelklasse CPU und GPU, eine super schnelle SSD, Betriebssystem, und einen hochwertigen Kontroller.
Bei der 3070 dagegen bekommt man einzig eine neue GPU.
Vergessen sollte man auch nicht, dass eine GTX 970 vor nicht so langer Zeit ~320€ gekostet hat, also viel weniger als die 3070 heute.
Trotzdem finde ich die 3070 von den bisher vorgestellten Ampere GPUs bis jetzt am besten.
Sie ist so schnell wie das Top Modell der letzten Generation, und so gar etwas effizienter.
Der Verbrauch ist niedriger als bei der 2080ti, und trotz deutlich kleineren Chip erreicht man in vielen Games die gleiche Performance.
Kritisieren kann man an dem Chip nicht viel, bis auf die 8GB VRAM.
Da bietet die PS5 zum gleichen Preis ein komplettes Paket an, Gehäuse mit vielen Anschlüssen, Mainboard, guter Lüfter, 16 GB VRAM für GPU und CPU, eine leistungsstarke Mittelklasse CPU und GPU, eine super schnelle SSD, Betriebssystem, und einen hochwertigen Kontroller.
Bei der 3070 dagegen bekommt man einzig eine neue GPU.
Vergessen sollte man auch nicht, dass eine GTX 970 vor nicht so langer Zeit ~320€ gekostet hat, also viel weniger als die 3070 heute.
Trotzdem finde ich die 3070 von den bisher vorgestellten Ampere GPUs bis jetzt am besten.
Sie ist so schnell wie das Top Modell der letzten Generation, und so gar etwas effizienter.
Zuletzt bearbeitet von einem Moderator:
HerrRossi
Fleet Admiral
- Registriert
- Apr. 2014
- Beiträge
- 12.041
Ja, das ist richtig, ML steht für Machine Learning.foo_1337 schrieb:Das ist erstmal nur eine API, steht btw. auch so in deinem Artikel.
HighDefinist
Lt. Junior Grade
- Registriert
- Nov. 2019
- Beiträge
- 433
Ja, aber die RT-Kerne der 3000er Serie sollten ja eigentlich doppelt so schnell pro Kern sein, wie die der 2000er Serie - bei einem effektiven Verhaeltnis von 92 zu 68 wuerde man also eigentlich mehr erwarten.David_B schrieb:Hat ja viel weniger RT Kerne. 46 auf der 3070 vs. 68 auf der 2080ti so gesehen ist die Leistung doch top?
DocWindows
Vice Admiral
- Registriert
- Mai 2013
- Beiträge
- 6.818
HerrRossi schrieb:Nennt sich DirectML, guckst du hier:
Schön. Dann hat man eine Machine Learning Schnittstelle. Jetzt fehlr nur noch das neuronale Netz, das genau das machen kann was nVidias Technik macht. Wer entwickelt es, wer trainiert es, wer updatet es, wer bezahlt es?
Ich finde das neue nVidia-Lineup nicht sonderlich Netzteil-freundlich. Warum nicht einfach den 3 Cent teureren 2x8-Pin auf 12Pin Adapter beilegen statt nur 1x8 Pin? Können dann ja die Kunden auswählen ob sie 2 Stecker und damit eine zusätzliche 12V-Leitung anstecken, aber dieses laufen außerhalb der Spezifikation kann doch auf Dauer nicht gut sein. Vielleicht zeigt die mit zwei 12V-Leitungen dann auch nicht schon ab 74Mhz extra Abstürze.
Gibts schon irgendwo Tests ob die 3070 auch so krasse Spannungsspitzen produziert wie die 3080/90 und man beim Netzteil besser nochmal 150Watt draufschlagen sollte?
Gibts schon irgendwo Tests ob die 3070 auch so krasse Spannungsspitzen produziert wie die 3080/90 und man beim Netzteil besser nochmal 150Watt draufschlagen sollte?
borizb
Rear Admiral
- Registriert
- Nov. 2011
- Beiträge
- 5.187
Nach der Präsentation ja, aber vielleicht nicht nach Reviews. Soweit ich es verstehe, ist es unklar, obfoo_1337 schrieb:Du kannst die 3070 erst nach der AMD Präsentation kaufen.
das Marktstart oder nur ein "wir haben ne Karte konstruiert, und die kommt wann auch immer" ist.
https://www.computerbase.de/2020-09/termine-amd-zen-3-rdna-2-oktober/
Für mich ist eher die Frage: Wenn Nvidia den Start der 3080/3090 überstürzt hat, um als erste den
High End Markt bedienen zu können, warum würden sie mit der "Brot und Butter Midrange Karte"
bis nach der AMD Präsentation warten? Um nochmal nachträglich den Preis anpassen zu können?
F
foo_1337
Gast
Ach.... mit DLSS hat das dann trotzdem wenig zu tun. DLSS könnte übrigens relativ einfach über diese API zugänglich gemacht werden. Aber die API alleine ist erstmal in diesem Kontext nichts wert.HerrRossi schrieb:Ja, das ist richtig, ML steht für Machine Learning.
Ergänzung ()
Um die Lager besser befüllen zu können.borizb schrieb:Um nochmal nachträglich den Preis anpassen zu können?
Die werden zeitnah in den Abverkauf gehen (oder bei Giveaways, Gewinnspielen etc. unter Leute gebracht) und dann vom Markt verschwinden.Hobojobo schrieb:Frage: Was passiert mit den Preisen der RTX 2070S?
Die werden wohl kaum bei 450,- bleiben, oder?
Könnte mir vorstellen, dass am black Friday die Preise dort attraktiv sein werden.
borizb
Rear Admiral
- Registriert
- Nov. 2011
- Beiträge
- 5.187
Wir alle kennen den offiziellen Grundfoo_1337 schrieb:Um die Lager besser befüllen zu können.
HighDefinist
Lt. Junior Grade
- Registriert
- Nov. 2019
- Beiträge
- 433
foo_1337 schrieb:Da du Raytracing hier kritisierst, wirst du bei AMD sicher nicht fündig werden. Die 6800xt wird bei RT nur knapp über der 3070 liegen. Und DLSS gibt es da nicht.
Ja, nur haette ich vorher eher sogar die 6800xt hinter der 3070 eingeschaetzt... wenn man nun bedenkt, dass in "normalen" Raytracing-Titeln das Raytracen ja nur einen Teil der Gesamtleistung ausmacht, werden die AMD-Karten wohl beim Zuschalten von Raytracing nur sehr wenig gegenueber Nvidia verlieren.
H
h3@d1355_h0r53
Gast
Die ist besser als erwartet. Von meiner 2070 Super lohnt sicher das aber irgendwie auch nicht richtig. Schön ist der eher geringe Verbrauch. Mit etwas UV lässt die sich bestimmt auch mit 160 Watt rum betreiben ohne Leistungseinbußen, oder wie ist das bei der neue Generation so?
Wenn es da ein schönes Custom Modell gibt für das Ncase M1 und es entsprechend preislich attraktiv ist wäre das was. Aber mein Geld gebe ich lieber AMD. Denen gönne ich den Höhenflug und die technische Überlegenheit gegenüber Intel. Jetzt noch Nvidia abzocken und dann hat der Kunde endlich wieder die Wahl während die Hersteller zu Innovationen gezwungen werden und die Preise purzeln.
Wenn es da ein schönes Custom Modell gibt für das Ncase M1 und es entsprechend preislich attraktiv ist wäre das was. Aber mein Geld gebe ich lieber AMD. Denen gönne ich den Höhenflug und die technische Überlegenheit gegenüber Intel. Jetzt noch Nvidia abzocken und dann hat der Kunde endlich wieder die Wahl während die Hersteller zu Innovationen gezwungen werden und die Preise purzeln.
Ähnliche Themen
- Antworten
- 1.421
- Aufrufe
- 138.685
- Antworten
- 1.726
- Aufrufe
- 169.025
- Antworten
- 966
- Aufrufe
- 118.175
- Antworten
- 686
- Aufrufe
- 169.428