Test GeForce RTX 4070 Ti Super im Test: Etwas schneller und endlich mit genug Speicher

Taxxor schrieb:
Und du hast die Verbräuche mit PCAT oder Powernetics gemessen, wie CB es tut?
223, 226 und 229W in 1080p, 1440p und 2160p kamen für die 4070 Super FE raus
Das sind keine average werte sondern max. :)

Niemals wirst du in Full HD 220 watt brauchen. Das Teil ist nicht umsonst effizienter als die ur 4070.
 
PhantomGamingYT schrieb:
Das sind keine average werte sondern max. :)
Das sind average werte über die Benchmarkdauer, die max werte siehst du im Diagramm und in der Tabelle mit den Perzentilen darunter, sowie auch das komplette Diagramm mit jedem einzelnen Messwert.
(Hier natürlich nur für die Ti Super weils deren Test ist)
 
  • Gefällt mir
Reaktionen: MoinWoll

Für die Vram Diskussion ;). Komisch reicht fast durchgehend auf max settings. :)
Ergänzung ()

Taxxor schrieb:
Das sind average werte über die Benchmarkdauer, die max werte siehst du im Diagramm und in der Tabelle mit den Perzentilen darunter.
Screenshot (255).png


Was nun mein Freund?
 
Immer noch zu teuer. Es gab mal eine Zeit da hat eine 70er Serie um die 300€ gekostet. Mehr würde ich auch niemals ausgeben ...
Die sollen mal ihre Preise wieder in Reihe kriegen
 
  • Gefällt mir
Reaktionen: SweetOhm und JarlBallin
PhantomGamingYT schrieb:
Ich sagte was nun? Rechthaberisch?

Average 195 watt in Full HD. Oder ist CB oder Igorslab falsch? Nicht einmal in UHD Average 230 Watt. Wie gesagt.
Also ignorierst du CBs Werte und glaubst nur Igors Werten?

Du sagtest niemals würde sie so viel in FHD verbrauchen, aber CB hat es nun mal gemessen. Dann sagtest du CBs Zahlen seien Max Werte, ich hab dir dann mit dem Bild extra noch mal die Detailanalyse aus dem 4070S Test gepostet wo du siehst, dass die Werte aus dem Diagramm keine max. Werte sind.
Der Median aller Messwerte in 4K lag bei 229W und wie man an dem schön gleichmäßigen Graphen sieht, ist das entsprechend auch der Durchschnitt all dieser Messwerte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MoinWoll, Fallout667 und Vitche
Hurricane.de schrieb:
Die Super hat jetzt mit den eklatanten Schwächen aufgeräumt und ist tatsächlich eine empfehlenswerte Grafikkarte,
Im Grunde ist das so, ja. Nur nicht für den Preis, den Nvidia dafür haben möchte. Einfache Modelle für 889€ UVP, bessere Customs für deutlich über 900€, und wirklich gute Custom Modelle werden bei oder über 1000€ liegen. Durch die weiterhin einfach absurd hohen Preise (eine XX70TI Super für fast 1000€ :rolleyes:) wird das nichts mit empfehlenswert. Es bleibt eine gute Karte, die jedoch weiterhin deutlich zu teuer ist.

Diese Karte für 100-120€ weniger wäre der Renner schlechthin. Das wäre ein Preis/Leistungskracher, den man Nvidia aus den Händen reißen würde.
 
  • Gefällt mir
Reaktionen: SweetOhm, Hurricane.de und JarlBallin
Taxxor schrieb:
Also ignorierst du CBs Werte und glaubst nur Igors Werten?
Nein aber es deckt sich mehr mit meinen werten. 🤷‍♂️

Das mag sein trotzdem schaffe ich das nicht, vielleicht hatten die ja was extrem Forderndes zur Hand was mir nicht bekannt ist. Wobei nicht einmal Cp 2077 mit PT oder Alan Wake 2 mit PT das schaffen.

Aber es lohnt sichauch nicht darüber zu reden, bringt ja eh nichts :) du glaubst halt diesen werten dann halt mehr und ich diesen. Darauf können wir uns doch einigen ;)
 
PhantomGamingYT schrieb:
Das sind keine average werte sondern max. :)

Niemals wirst du in Full HD 220 watt brauchen. Das Teil ist nicht umsonst effizienter als die ur 4070.

Kann auch nur Zufall sein, hat oft was mit der Chip Güte zutun, selbe Architektur und strukturbreite sollte nicht wirklich was ändern in der effizient´s


Und Igor wie auch CB können recht haben, der eine erwischt einen guten chip der andere einen schlechten, deshalb sollte man auch alle test anschauen und nicht nur einen
 
shaboo schrieb:
Sorry, aber das, was dort gesagt wird, hat mit der Aussage, "dass 12 GB für 4K + Raytracing absolut ausreichend sind", nicht mal grobe Ähnlichkeit. Ist dein Textverständnis echt derart miserabel?
Warum denn so aggressiv? Du musst schon den entsprechenden Threadverlauf verfolgen, um den Hintergrund richtig verstehen zu können.
 
  • Gefällt mir
Reaktionen: SweetOhm
Easy1991 schrieb:
Kann auch nur Zufall sein, hat oft was mit der Chip Güte zutun, selbe Architektur und strukturbreite sollte nicht wirklich was ändern in der effizient´s
Bis auf ein paar % nicht nein. Mirt scheinen die 4070S extreme krücken zu sein man merk das es abfall Chips sind undervolting bringt auch oft nicht viel obwohl 0.9250mv weniger geht nicht trotzdem 200 Watt bei spielen die wirklich gas geben

. Die Mrsp Karten schaffen mit ach und krach 2700mhz eher 2650mhz mit Standard PL. Die 4070 TI locker 2.8 und drüber. Vielleicht ist die Super Ti auch deswegen so kacke und weil sie noch immer die gleiche Menge Cache hat wie die 4070s und Ti. Das macht viel aus auch wenn Nvidia angelächelt wurde als die erklärten das es vram grenzen verzögert. Sieht man aber an der 4070s das es sehr viel bringt. Die 4070 geht extrem in die Knie in 4k die 4070s nicht mehr so.
 
Quidproquo77 schrieb:
Und vor allem keine 7900XT für 899 Dollar, obwohl der Vorgänger 649 Dollar kostete.
Hmmm, das ist ja total an mir vorbeigegangen.
 
saku schrieb:
Es gab mal eine Zeit da hat eine 70er Serie um die 300€ gekostet.
Es gab ja auch mal eine Zeit, da hat eine sehr gute Wohnung 60.000€ gekostet. Und nun? Die Zeiten sind vorbei und ständig rumzuheulen und von alten Zeiten zu träumen bringt dich auch nicht weiter.

Nette Karte. Mich schmerzt es zu sehen wie meine GPU immer weiter hinterher hinkt🤣 bald wird es echt Zeit für was neues.
 
  • Gefällt mir
Reaktionen: calippo
PhantomGamingYT schrieb:
Klar in Ratchet und Clank geht es nicht wie CB auch darauf hingeweisen hat aber das waren auch nur MAX SETTINGS. Stelle Dlss runter und/oder Texturen auf Hoch( was in Ratchet und Clank keine sichtbaren unterschied macht in bewegung). Es sieht immer noch fantastisch aus. Cyberpunk braucht viel weniger als Alan Wake mit PT. Hogwarts ist ein mies optimiert da sieht nichts gut genug aus um mehr als 12GiB Vram zu rechtfertigen. The Last of Us wurde gepatcht und läuft selbst mit 8gb in 4k aktuell.

Ich verteidige keinesfalls Nvidias Vram Geiz aber das Problem ist auch nicht wirklich ein Problem.
Dann solltest du dir Wolfgangs Fazit zur RTX 4070 Ti Super im CB-Test mal durchlesen und ihm die gleiche Botschaft vermitteln wie mir... Fakt ist, dass es bereits Spiele gibt, deren Performance ab einer gewissen Grafikqualität von 16GB gegenüber 12GB profitieren (siehe Ratchet & Clank). Und das wird sich in den kommenden Jahren nicht plötzlich wieder zurück entwickeln. Hinzu kommt der Punkt, dass Spiele sich adaptiv auf den verfügbaren Grafikspeicher anpassen können. Das macht sich dann etwa in schlechteren Texturen bemerkbar, was kein üblicher GPU-Benchmark abbildet.
 
  • Gefällt mir
Reaktionen: Solavidos, SweetOhm und JarlBallin
Ich habe eine 4070 und spiele auf 1440p und hatte noch nie VRam Probleme.
Bei The Last of Us und einigen anderen Spielen werden die 12 GB zwar recht voll, aber Stuttering oder schlechte Frametimes hatte ich deswegen noch nicht.
Ich denke auch immer noch das 12 GB für 1440p genug sind.

Hätte ich noch keine 4070, würde ich jetzt wohl die 4070 Super kaufen, statt der 4070 Ti Super, da der Mehrwert an FPS mMn. keine 230€ Aufpreis rechtfertigt und ich in Tests auf 1440p auch keinen nennenswerten Unterschied zwischen 12 GB und 16 GB VRam feststellen konnte.
Sicher haben die 16 GB bessere Frametimes, die ich als Konsument aber nicht bemerke, da sie nur in einem sehr kleinen, messbaren Bereich liegen.
 
  • Gefällt mir
Reaktionen: inge70, SonyFriend und Experte18
w0wka schrieb:
Es gab ja auch mal eine Zeit, da hat eine sehr gute Wohnung 60.000€ gekostet. Und nun? Die Zeiten sind vorbei und ständig rumzuheulen und von alten Zeiten zu träumen bringt dich auch nicht weiter.

Nette Karte. Mich schmerzt es zu sehen wie meine GPU immer weiter hinterher hinkt🤣 bald wird es echt Zeit für was neues.
Es ist nur armselig, dass die Leistung der Klassen darunter nicht weiter steigen und es durch Limitierungen auch noch künstlich gedeckelt wird. bei dieser Entwicklung gibt es zwar >700€ immer mehr Leistung, aber darunter wird es scheinbar ewig dauern, bis man mal was anständiges bekommt. ich hoffe man versteht, was ich meine..!? Man braucht keine Max-Performance-Karte für unter 700, aber das Level an Perf. sollte mehr steigen als bisher..
 
  • Gefällt mir
Reaktionen: SweetOhm, Krazee und w0wka
Cohen schrieb:
Nur weil ich mehr ältere AAA-Spiele und Indie-Spiele habe als neue AAA-Spiele, richte ich mich bei einem Grafikkartenkauf ja nicht primär nach den genügsameren Spielen sondern nach den fordernderen.
Das ist richtig wenn Geld bei der Abwägung keine Rolle spielt dann ists einfache Entscheidung einfach 4090 kaufen und gut, die Frage ist doch wenn man abwägen muss, wo spart man eher.

Und nur weil du das anhand der neuen AAA Titel abhängig machst heißt das ja nicht das die alle Raytracing unterstützen, oder alternativ viel Raytracing brauchen.

Wenn ich mich nicht verzählt hab sind das 23 Titel alles neue AAA Titel und nur 7 haben davon Raytracing, und davon wiederum gewinnt oder zieht die 7900XT bei 2 gleich. also man hat nur bei 5 von 23 Titeln durch RT einen Vorteil, aber in den meisten durch mehr Rasterspeed und das ist nicht nur 90 statt 70fps.
Gut hab jetzt bei 4k geschaut, die bisherigen zahlen, aber kann auch bei 1440p schauen, und dort gibt es welche wo die Karten unter 60fps rutschen zumindest bei 1% und die Radeon ne bessere Figur macht, bei Cities Skylines 2 sogar bei den Durchschnitts FPS.

Aber irgendwie glaubt ihr alle auch das man einfach glauben kann das die Hardwareanforderungen genau 0 weiter steigen werden, das halte ich für Naiv.

Selbst Konsolen können das nicht komplett stoppen, mit Baldurs Gate musste man schon irgend ein komischen Ausnahmedeal machen das Baldurs Gate irgend ein Feature fuer die S nimmer bringt und die Pro Konsole kommt auch noch dieses Jahr raus und die Entwickler porten ja auch nicht 1:1 die Konsolengrafik immer nur fuer den PC sondern bringen mehr, dafuer brauchts mehr Hardware.

Ich mein ich kann ein Stück weit noch verstehen das man jedes jahr ne neue Karte kauft und alles darueber hinaus einem egal ist, abre slebst ueber 6 Monate wuerde ich nicht drauf setzen das Raster-anforderungen aller Spiele 100% identisch bleiben, das war auch letztes jahr nicht der Fall die Spiele wo 2023 raus kamen haben mehr Hardware gefressen wie 2022 das wird vielleicht langsamer vielleicht gleich schnell aber es wird weiter gehen.

Wenn vielleicht Spiele anfangen Directstorage zu nutzen haben die Entwickler wieder mehr Daten mit dem sie die GPU fuettern koennen und dann muss das schneller abgearbeitet werden.
 
  • Gefällt mir
Reaktionen: SweetOhm und JarlBallin
Zurück
Oben