Test Nvidia GeForce RTX 4070 Ti im Test: AD104 muss sich mit 12 GB für 899 Euro UVP beweisen

So als Gamer ohne Ahnung. Was genau macht den Unterschied bei der Asus 4070 TUF Normal vs OC? Sind die identisch bis auf das von Haus aus OC? Könnte man die Normale selbst auf die OC Specs bekommen? "Lohnt" sich der Aufpreis, also sprechen wir hier von 1-2% mehr oder >6%?
Außerdem, wie kann ich am besten auf Spulenfiepen testen, wenn ich mir eine Karte geholt habe? Oder haben gewisse Modelle garantiert weniger Spulenfiepen? Oder könnte es eher sein, dass wenn ich zwei identische Modelle kaufe, die eine Fiepen hat, die andere nicht?
 
@invwar
es lohnt sich definitiv nicht, im besten Falle wenn noch PL nicht greift sinds 1-2% Mehrleistung
um Spulenfiepen zu testen: am besten ein Game-Menu aufrufen, da wo Du sehr hohe dreistellige FPS hast
das Spulenfiepen ist meist vom Exemplar und nicht vom Modell abhängig
 
  • Gefällt mir
Reaktionen: MrUnchained
invwar schrieb:
So als Gamer ohne Ahnung. Was genau macht den Unterschied bei der Asus 4070 TUF Normal vs OC? Sind die identisch bis auf das von Haus aus OC? Könnte man die Normale selbst auf die OC Specs bekommen? "Lohnt" sich der Aufpreis, also sprechen wir hier von 1-2% mehr oder >6%?
Außerdem, wie kann ich am besten auf Spulenfiepen testen, wenn ich mir eine Karte geholt habe? Oder haben gewisse Modelle garantiert weniger Spulenfiepen? Oder könnte es eher sein, dass wenn ich zwei identische Modelle kaufe, die eine Fiepen hat, die andere nicht?
mMn lohnt sich der Aufpreis nicht. Ich meine der Kühler ist auch etwas anders aber glaub mir, lohnt nicht. Ich hab die Palit Classic und die reicht mehr als genug.
 
MrUnchained schrieb:
Power Limit hat’s auch angezeigt im HW Monitor (650W NT 80+ Gold). Muss 750W oder besser 850W her
Das hat doch mWn nicht mit dem Netzteil zu tun.

Bei meiner 2060 kann ich per Afterburner das Power Limit (power target) von 65%-105% einstellen.
Bei 100% habe ich ca. 160W verbauch. Bei 65% max. 125W. Und das bei deutlich unter <10% Leistungsverlust.
Heisst in etwa 1900Mhz statt ~2000MHz Chiptakt.

Das Limit kommt also von der Karte selbst und nicht weil dein Netzteil zu wenig "Strom" liefert.
Bei Falschheit meiner Aussagen bitte korrigieren, aber das müsste so stimmen glaube ich =)

MfG, R++
 
  • Gefällt mir
Reaktionen: MrUnchained
Spiele mit dem Gedanken mir vielleicht die Palit 4070TI zu holen.... hab mir gerade ein neues Board gegönnt mit CPU Ryzen 7 5800X3D. Spiele nur in WQHD.... sollte doch passen oder?..... oder kann hier jetzt ein CPU Limit kommen?
 
  • Gefällt mir
Reaktionen: Gortha und MrUnchained
Ne, hab selbst mit dem 3700X keinerlei Limit. GPU arbeitet ihre 90-99% und CPU macht ihre 30-35% :)
 
  • Gefällt mir
Reaktionen: Gortha
Floppy5885 schrieb:
WQHD ist hier schon fast Standard geworden. In ein paar Jahren wird 4k, WQHD ersetzen. Und WQHD wird Full HD ersetzen. Versuch doch Mal heute einen 720p oder 1680* 1050p Monitor zu bekommen. Alle abgelöst von Full HD.

In einem Computerforum wie diesem vielleicht. Generell? Nein.
 
  • Gefällt mir
Reaktionen: Gortha und MrUnchained
Floppy5885 schrieb:
WQHD ist hier schon fast Standard geworden. In ein paar Jahren wird 4k, WQHD ersetzen. Und WQHD wird Full HD ersetzen.
WQHD wird definitiv kein FullHD "ersetzen", diese krumme Auflösung hatte eigentlich nur für die Monitorhersteller eine Bedeutung, da die Hardware und das Drumherum noch nicht für 4K soweit war. Bei TV Geräten hatte man sich diesen Schritt ganz gespart und die einzig sinnvolle Entwicklung ist auch 1080p->2160p.
 
MMn ist WQHD bis max. 32 Zoll, erst recht bei 27 Zoll fein/detailliert genug - aufgrund kleiner Pixelgrößen - um ein feines Spielerlebnis zu bieten, bei dem die Pixelgrößen nicht unangenehm auffallen, weil man z.B: wie in Star CItizen sehr feine HUD Displays lesen will.

UHD/4K hat erst ab 32 Zoll plus eine Daseinsberechtigung. Wer sich so große Monitore auf den Schreibtisch zum Spielen stellt, kann nur bestimmte Genres darauf sinnvoll zocken oder hat den Monitor so weit von sich weg aufgestellt, dass er selbiges mit einem kleineren WQHD Monitor erreicht hätte, wenn er ihn näher zu sich positioniert hätte.

Bei Fernsehern fällt es auch sehr schwer einen Unterschied zwischen FullHD und QHD auszumachen. Erst ab sehr großen Fernsehern und wenn man auf sehr langsame Szenen achtet oder gar Standbilder betrachtet.

Für mich geht im PC-Gaming Bereich bei 4K einfach unnötig viel Rechenleistung in diese mMn nach zu hohe Auflösung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro, Cyberbernd, calippo und 2 andere
Gortha schrieb:
Für mich geht im PC-Gaming Bereich bei 4K einfach unnötig viel Rechenleistung in diese mMn nach zu hohe Auflösung.
+1!
4k bei 40" zu 2k bei 40" absolut null Unterschied fürs Auge. Bei 55" ist das natürlich anders, aber wenn ich hier beim zocken sitze, ist der Abstand gerade mal max 60 cm...

Da spielt es aber dann auch keine Rolle wieviel Leistung in Watt verbran...verrechnet wird :) Ne 4090 mit 5800X3D und 55 " OLED - gib ihm
 
Was spricht nochmal dagegen sich einen ordentlichen Laptop (1.450€) plus PS5 (550€) zu kaufen, anstatt einen "Gaming-PC" für 4.000€ zusammenzubasteln? Ich frage für einen guten Freund. Danke!
 
@Juventino1
Das man für 1450€ keinen ordentlichen Gaminglaptop bekommt. Zumindest nicht die 3D Leistung einer 4070Ti ;)
Wer alles nur auf Mittel und in FullHD oder auf Mittel in WQHD spielen will und ohne RT, bitte gerne.
Leute die PC Spiele aber inklusive ihrer Grafikpracht genießen wollen, müssen eben etwas flotteres ihr Eigen nennten.

Nebenbei sind PS5 Spiele sauteuer. Und es gibt auf dem PC 10000x mehr Games.
 
  • Gefällt mir
Reaktionen: Cyberbernd, MrUnchained und jaCk_owned
MrUnchained schrieb:
Endlich mal auch was handfestes für die Hater 😛
Ergänzung ()


Ja ich, lag aber bei mir daran, dass ich zu Faul war, um in den Keller zu gehen und ein zweites Stromkabel zu holen 😄

Merkst du, dass das Windows bootet? Falls nein, hast du einen BIOS reset probiert?

Windows bootet normal. Der Monitor ging vorher gar nicht, oder irgendwann an.
Ich konnte ein Bild erzwingen indem ich den Monitor vom Stromgetrennt habe.
Mein anderer Monitor, zeigt per DP allein angeschlossen, alles ganz normal an.
Ein anderes DP Kabel als auch verschienende Anschlüsse, als auch eine andere RTX 4070 Ti haben das Problem nicht voll behoben.
Aktuell geht der Monitor recht schnell an, kurz bevor der Desktop erscheint. Das dauert ein paar Sekunden.
Samung konnte mir nicht helfen, sie haben sich das aber notiert. Asus meinte Karte tauschen, das war keine Lösung. Neues Kabel half auch nicht. Andere Graka (RTX 3080 + 3070 laufen ganz normal)

Liegt es vllt an dem neuen Chip?
 
Gortha schrieb:
Nebenbei sind PS5 Spiele sauteuer.
Wenn man direkt zu Release kauft ja. Ein halbes Jahr danach bekommt man die meisten Spiele um ~30€ neu und sonst gibts auch noch Gebrauchtkauf.
 
Bartgeier schrieb:
Ich konnte ein Bild erzwingen indem ich den Monitor vom Stromgetrennt habe.
Wenn der Monitor einmal läuft, eventuell G-Sync im Treiber deaktivieren und Mal schauen, ob das Problem dann immer noch auftritt - ist nur eine Idee. Wie sehen deine weiteren Settings aus 10bit, Subsampling, RGB etc? Da könnte man ja auch nochmal testen.
 
Ich habe ein Sidegrade von einer Asus TUF 3080ti auf die 4070ti gemacht für 100 Euro echt verschmerzbar und bin sehr entzückt von der GPU. In den Bereichen wo vorher Power fehlt, liefert sie ab. Raytracing und DLSS. Dazu kommt Frame Generation, dass meiner Meinung nach fantastische Arbeit in Witcher3 macht.
Was mich aber am meisten verblüfft ist wie gut sich der Chip kühlen lässt. Ich lasse bis jetzt die Karte Stock laufen und höre nix, wirklich nix. Sie ist leiser als die alte mit UV und Quiet Bios bei mehr Leistung. Also ich bin begeistert und meiner Meinung nach die beste GPU von Nvidia diese Generation. Die 4080 hat ein schlechtes P/L Verhältnis und die 4090 ist einfach initial für mich zu teuer. Die 4k Schwäche ist mir persönlich dabei egal, weil ich bei noch eine Weile UWQHD bleibe.
 
  • Gefällt mir
Reaktionen: Nachos HW Tipps, iSight2TheBlind, Gortha und eine weitere Person
MrUnchained schrieb:
Ne, hab selbst mit dem 3700X keinerlei Limit. GPU arbeitet ihre 90-99% und CPU macht ihre 30-35% :)
Kommt wohl auch aufs spiel an. Der ms flight sim ist da könig, aber ja sonst ist cpu Limit schob eher selten.
Ergänzung ()

xexex schrieb:
WQHD wird definitiv kein FullHD "ersetzen", diese krumme Auflösung hatte eigentlich nur für die Monitorhersteller eine Bedeutung, da die Hardware und das Drumherum noch nicht für 4K soweit war. Bei TV Geräten hatte man sich diesen Schritt ganz gespart und die einzig sinnvolle Entwicklung ist auch 1080p->2160p.
Sehe ich auch so, otto normal würde max auf 4k wechseln, aber sehe eher selten gründe für die. Wers fürs arbeiten braucht, fährt auch besser mit 4k und super pixeldichte. Wqhd macht nur für gaming sinn
 
  • Gefällt mir
Reaktionen: MrUnchained
invwar schrieb:
Kommt wohl auch aufs spiel an. Der ms flight sim ist da könig, aber ja sonst ist cpu Limit schob eher selten.
Solche Spiele spiele ich nicht :)

Hab gestern nochmal geschaut, es sind sogar 3 - 5 % CPU Auslastung in den Games gewesen lol (B4B, Ark Survival Evolved). Die 30 - 35 % habe ich beim Laden einer neuen Map usw.
 
Bei dem Test wird DLSS nur bei 4k bewertet. Warum nicht bei WQHD? Wird das generell nur bei 4K genutzt? Spielt das bei WQHD keine Rolle?
Oder wie ist das?
 
Meine 4070 ti läuft jetzt auf 1V @ 2.884 MHz, VRAM mit +10% OC, PT = 100%.
Verbrauch in Quake II RTX @ 1440p jetzt 185 statt 230 Watt. (ohne RAM-OC ca. 180 Watt)
Damit fast auf dem Niveau meiner alten GTX 1070, aber mit großem Performancegewinn trotz schwachbrüstigem i5 8400. Das alte 550 Watt-Netzteil freut sich über die Lebensverlängerung, insgesamt ein sehr nachhaltiges Upgrade. ;)
 
  • Gefällt mir
Reaktionen: AssassinWarlord, iSight2TheBlind, whtjimbo und eine weitere Person
Zurück
Oben