Test GeForce RTX 3070 Ti FE im Test: Das Mini-Upgrade, das nur 2021 funktioniert

Drop: 300x 6900XT, 95x 6800XT, 75x 6800XT Midnight Black, 250x 6800, 300x 6700XT

Manchmal besser, wenn man sich net auf eine Marke festlegt und halt auch bei der Anderen schaut.

btw.
Und mal ein Blick auf UWQHD-RT=off hilft auch bei der Entscheidung.
(ist mir realistischer als 4k, wo zu sehr das PL+Vram reinfunkt)
 

Anhänge

  • Coldwar.PNG
    Coldwar.PNG
    81,6 KB · Aufrufe: 334
  • CP2077.PNG
    CP2077.PNG
    80,7 KB · Aufrufe: 340
  • H3.PNG
    H3.PNG
    79,2 KB · Aufrufe: 310
  • SS4.PNG
    SS4.PNG
    79,4 KB · Aufrufe: 336
Zuletzt bearbeitet:
Zwiebelsoße schrieb:
Sie ist in einigen Disziplinen besser als die Radeon 6800 - wieso sollte sie nicht gekauft werden?
Wer mit einer 3070 nicht glücklich wird, wird es mit einer 3070Ti auch nicht und sollte sich gleich nach einer 3080 umschauen. Deswegen.
 
JanMH schrieb:
Absolut richtig. Mir ist klar das der schnöde Mammon leider zu oft den gesunden Menschenverstand schlägt.

Ich hatte gern zwei RX 6700XT, eine für einen Kumpel und eine für mich. Wir schauen immer mal abwechselnd ob wir was ergattern können. Wenn ja, kauft der eine die Karte für den anderen mit.
Ihr braucht nicht „immer“ gucken. Die AMD Karten gibt es jeden Donnerstag zwischen 17-19 Uhr, meisten so 17:30. Es darf nur eine Karte pro Kunde bestellt werden sonst Storno. Viel erfolg.
 
Mein Gott was seit ihr für Tränen.:heul::heul::heul:
Ich bin zwar bekennender Maßen eher etwas rot angehaucht :grr:, aber wenn dafür das Geheule, wegen den exorbitant, gigantischen +/- 3% endlich ein Ende hat, dann soll man diese doch der 3070ti zuschlagen damit dies endlich ein Ende hat.

Was bezweckt ihr eigentlich damit. Glaubt ihr das ihr mit eurer Tränendrüsennummer beim nächsten Review aus mitleid eine bessere Bewertung abstauben könnt?

Die 3070ti ist und bleibt der letzte Rotz, da machen die paar Prozent den Braten auch nicht mehr fett.

Ich mein eine 300W Karte mit gigantischen 8GB Speicher für einen Straßenpreis von > 1400€ noch Fragen?
 
ZeroStrat schrieb:
Welche Szenen, welche Settings, welche Capture Tools, welche Messdauer? Gähnende Leere...
Warum sollte man sich die Arbeit machen alles durchzubenchen, man könnte doch auch einfach ein paar Zahlen erfinden, die man sich von anderen Quellen abschaut, minimal abändert und dann einfach die Balken im Video präsentiert. ^^
 
Also ich hätte mich in dem Zusammenhang mal für einen Generationenvgl. interessiert:

2080TI@290W = 290/250=+16%
-->GPU-Takt +8% sollte doch zu schaffen sein, selbst bei ganz schlechter Skalierung
--> Vram-Takt +15% ???

Mal sehen, ob dann noch der 50...100% Effizienzsprung ala Jensen zu sehen ist?
Zwiebelsoße schrieb:
man könnte doch auch einfach ein paar Zahlen erfinden...

Um mal den fiktiven Vgl. vorab zu nehmen, ein simpler Shrink 12nm-->8nm der 2080Ti wäre sicher deutlich performanter gewesen und man hätte sich den kleinen Ampere sparen können samt GDDR6x.
Ganz nebenbei gäbs außerdem die 11GB mit preiswertem Vram.
(durch nen Shrink hätte die 2080Ti vermutlich auch mind. 100Mhz Takt durch bessere Temps gewonnen)
 

Anhänge

  • TS.PNG
    TS.PNG
    123,1 KB · Aufrufe: 284
Zuletzt bearbeitet:
GerryB schrieb:
Mal sehen, ob dann noch der 50...100% Effizienzsprung ala Jensen zu sehen ist?
Wo hat Jensen denn einen solchen Effizienzsprung der 3070Ti behauptet?
Was du mir mit dem Bild oben sagen möchtest, verstehe ich nicht.
 
Zuletzt bearbeitet:
Als die 3070 als 4k-Wunder für Jederman zum kleinen Preis angekündigt wurde.

Jetzt, ist halt nur in der neuen Watt-Ausbaustufe weiter gedacht, falls ich mir das als Laie mal so erlauben darf.
Eigentlich ist die 3070Ti ja nur ne aufgebrezelte 3070 und Das geht auch bei der ollen 2080Ti.(siehe Customs)
 
Zuletzt bearbeitet:
GerryB schrieb:
Als die 3070 als 4k-Wunder angekündigt wurde.
Quelle zu den 50 bis 100?
Und was willst du mir mit deiner Grafik sagen?
 
Ich antworte mal mit der Promo-Folie von Jensen, da ich als Laie die Bilder besser verstehe als gefakte, ausgesuchte Benchmarks gegen unpassende Gegner.
Wenn Vgl., dann doch bitte immer bei gleichen W und Chips mit ähnlicher Rohleistung.
(der Vgl. damals mit 2080s o.ä. war sinnlos an den Haaren herbeigezogen, ... besagt nix zur Effizienz)
 

Anhänge

  • RTX-3000-Keynote.jpg
    RTX-3000-Keynote.jpg
    80,3 KB · Aufrufe: 277
  • 2080Ti vs 3070Ti.PNG
    2080Ti vs 3070Ti.PNG
    24,7 KB · Aufrufe: 298
Zuletzt bearbeitet:
Zwiebelsoße schrieb:
Warum sollte man sich die Arbeit machen alles durchzubenchen, man könnte doch auch einfach ein paar Zahlen erfinden, die man sich von anderen Quellen abschaut, minimal abändert und dann einfach die Balken im Video präsentiert. ^^
Das wäre natürlich richtig böse, aber das macht kein seriöser Tester. HWU zähle ich jetzt mal zu den seriösen. Ich habe mal gehört, dass man als Patreon Member mehr Infos bekommt. Aber das wäre mir zu doof um ehrlich zu sein. Ich müsste mir dann quasi Transparenz erkaufen? Ne, sorry.
 
Laphonso schrieb:
3070Ti vs 3070:
3% faster @ 1080p
5% faster @ 1440p;
7% faster @ 2160p. (4K)
Danke für deine Übersicht.
Das ist exakt das Ergebnis, was @Wolfgang ermittelt hat.
Und @Zwiebelsoße hat hier behauptet, CB ermittelt falsche Testergebnisse. Damit wäre das ja widerlegt. 😉
 
GerryB schrieb:
2080TI@290W = 290/250=+16%
-->GPU-Takt +8% sollte doch zu schaffen sein, selbst bei ganz schlechter Skalierung
--> Vram-Takt +15% ???

Mal sehen, ob dann noch der 50...100% Effizienzsprung ala Jensen zu sehen ist?

Das davon im Mittel der Spiele nicht viel bei rum kommt, gabs doch schon in CB Tests. 1.25x Perf/Watt bei identischem Verbrauch sind es. Jensen (wie eben alle anderen beim Marketing) bezieht sich in der Folie halt auf einen speziellen Spezialfall in ideal geschaffener Testumgebung. Das Ampere den Leistungssprung überwiegend über die Leistungsaufnahme "erkauft" ist ja mittlerweile kein Geheimnis.
1623424015402.png
 
MasterAK schrieb:
Das ist exakt das Ergebnis, was @Wolfgang ermittelt hat.
'türlich ist das das Ergebnis von @Wolfgang, schließlich hat er früh Morgens alle anderen angerufen und angeordnet, wie das Ergebnis auszuschauen hat...
Aluhut aufsetz, "Wir sind die Leser!" propagier, von anderen verlang mir nicht ins Gesicht zu Quoten...
:king:

Davon mal ab... ich verstehe einfach nicht, wie man sich als Erfahrener Hardware Geek auf die Benches der einzelnen Seiten versteifen kann, wenn man doch so extra langsam mal mitbekommen haben sollte, dass die Werte immer unterschiedlich sind und im Endeffekt die Meta Benches wie bei 3dcenter.org das einzig wahre sind, um die Leistung einzuschätzen.
 
  • Gefällt mir
Reaktionen: MasterAK
MasterAK schrieb:
Das ist exakt das Ergebnis, was @Wolfgang ermittelt hat.
Und @Zwiebelsoße hat hier behauptet, CB ermittelt falsche Testergebnisse. Damit wäre das ja widerlegt. 😉
Wieso sollte es damit widerlegt sein? Es bleiben weiterhin die Ergebnisse unter 4K und WQHD mit ~0% stehen und diese sind nicht reproduzierbar.
 
  • Gefällt mir
Reaktionen: ZeroStrat
Zwiebelsoße schrieb:
Marc Sauter spekuliert auf ein schlechtes Sample.
Ich sagte nur, ein schlechtes Sample sei denkbar ... gibt jedoch mehrere Kollegen wo die Ti niedriger taktet als die non-Ti, weil Nvidia es bei der GPU-Spannung offenbar übertrieben hat.
Wolfgang schrieb:
Ich hab nur 2 Minuten gesucht und dabei schon das gefunden. Sind die jetzt auch alle falsch die Tests?

https://scr3.golem.de/screenshots/2...aester-(1440p,-ultra-preset,-d3d12)-chart.png
Ich hab mir stellenweise auch gedacht, WTF ist da kaputt, aber die Ti und die non-Ti liefen am selben Tag im selben System mit dem selben Treiber usw ... sprich die performt halt einfach so. Wenn die paar zusätzlichen ALUs sich durch einen niedrigeren GPU-Takt quasi ausgleichen und die GDDR6X-Bandbreite parallel nichts bringt, kommt eben genau das bei rum, was ich gemessen habe.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, ZeroStrat, DonL_ und eine weitere Person
Zwiebelsoße schrieb:
Wieso sollte es damit widerlegt sein? Es bleiben weiterhin die Ergebnisse unter 4K und WQHD mit ~0% stehen und diese sind nicht reproduzierbar.
Mach dich bitte jetzt nicht lächerlich. Irgendwann sollte jeder einsehen, dass er auch mal daneben liegt...
 
TheOpenfield schrieb:
Das davon im Mittel der Spiele nicht viel bei rum kommt, gabs doch schon in CB Tests. 1.25x Perf/Watt bei identischem Verbrauch sind es. ... RTX 3080 vs RTX 2080Ti @270W
Das ist nur ein Teil des Problems, weil die 3080 ne höhere Leistungsklasse ist und daher mit weniger W
effizienter wird, während die 2080TI mit mehr W ineffizienter wird.
(mit RTX 3090 vs RTX 2080 SUPER würde vermutlich noch größerer Blödsinn rauskommen, um das mal
übertrieben darzustellen ... nur weil beide Chips mit 270W können, heisst Das noch gar NIX)


Deswegen ja mein Hinweis Chips aus einer Leistungsklasse zu verwenden.
Die effektive FP32-Leistung incl. ca. 30% INT-Nutzung wie in Games muss halbwegs passen
Alles Andere führt schon wieder zu Marketing-Ergebnissen.

Am Ende gibt Jensen ja gute Randbedingen vor:
Die 3070(Ti) soll die 2080Ti für 4k-Gaming ersetzen.
 
Zuletzt bearbeitet:
@GerryB Was wäre denn deiner Meinung nach der korrekte Vergleich der Effizienz zwischen den Generationen? Den optimalen Arbeitspunkt bezogen auf die Effizienz nutzt von Haus aus ohnehin keine Karte mehr.
 

Anhänge

  • DaHell_3070@270W.PNG
    DaHell_3070@270W.PNG
    1,5 MB · Aufrufe: 269
Zuletzt bearbeitet:
Zurück
Oben