Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro
Ob es optisch Nachteile gibt oder kaum?0ssi schrieb:100FPS mit FG und Reflex fühlen sich genauso an wie 60FPS nativ aber 100FPS sehen bei Bewegung
eben viel flüssiger aus.
Ergänzung ()
Klar kommt auf die games bzw. Regler an 🫡rtx4070 schrieb:Ich wäre auf 4k . Seit 2018 geht das locker. Weis nd was alle haben
Ergänzung ()
Jo die ti hat power der Preis is ne andere sachertx4070 schrieb:Keine echten 120. Es ist trotzdem rumgetrickse. :/ weis noch nicht was ich davon halten soll. Mir wäre rohe power viel lieber als dlss und fg. Aber gut.
Ergänzung ()
Mit ner konsole geht das günstiger0ssi schrieb:RTX4090FE 1869€ ganz ohne Crack
Irgendwann ändert man seine Prioritäten und dann zählt nur noch der Nutzen den man vom Produkt hat !
Ergänzung ()
Hoffe amd ändert seine Pläne noch nach meinen Infos kommt erstmal die 7600 xt und erst im 3!Quartal die 7800 xt...rtx4070 schrieb:Ist noch nicht Final. Ich warte auf die 7800xt. Der Name war spontan mur egal was da steht.🙂🤣
AMD schweigt ja noch...
Zuletzt bearbeitet:
ThirdLife
Commander
- Registriert
- Aug. 2019
- Beiträge
- 3.071
Ganz schwache Ausrede. 😂rtx4070 schrieb:Nein da zu hoher verbrauch. Würde ich sie wollen würde ich sie kaufen. Ganz einfach.💪🏼
Du kannst sie ja genauso auf 200W limitieren und hast dennoch mehr Performance als eine 4070. Davon mal abgesehen wird Leistung halt nicht aus dem Nichts generiert. Wenn du mehr Power haben willst als eine 4070 liefert kostet das halt auch mehr Strom. Wenn du 500 statt 50PS willst kostet das auch mehr Sprit. Alles haben wollen aber nix dafür tun, die neue Mentalität scheints.
Wenn dich Stromverbrauch so stört spiel am Besten gar nicht - das verbraucht am Wenigsten.
wtfNow
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.378
Jupp, das scheinen viele hier nicht zu verstehen.Mimir schrieb:Lol, das ist genau der Punkt, den ich nicht verstehe. Da wird über DLSS und FG gemeckert, weil die damit erreichten 120 oder 240 FPS nicht so perfekt sind wie "echt", dass man aber in der Realität oft nicht in diese Performancebereiche kommt, vor allem nicht mit mittelklasse GPUs. Daran denkt scheinbar keiner.
Ich war mit meiner 3060ti heil froh, dass ich damit erstmals Upscaling via DLSS nutzen konnte (FSR2 gabs da noch nicht), weil ich damit in aktuellsten Spielen Frameraten mit einer Mittelklasse (!!) GPU erleben konnte, die ich sonst bisher bei neuen GPUs selbst im High End nicht erlebt hatte bzw. dann nur in älteren Spielen erreichen konnte. CPU Limits waren trotz nagel neuer CPU jetzt so präsent wie noch nie.
Bei den High End Karten sind DLSS und FG aktuell natürlich meist nur dazu da, um die hohen Ansprüche weiter zu befriedigen, bei mittelklasse und Low end ist das aber das beste was passieren konnte.
Ich zocke nicht so viel dass ich mir eine 4090 kaufen würde, hätte die Leistung aber trotzdem gerne weil ich einen UHD@144Hz Monitor auf dem Schreibtisch habe.
Und nun kommt da eine 4070 Ti für 880€ und zaubert mir dreistellige fps in AAA-Titel mit maximalen Grafikeinstellungen dank DLSS 3.
FG Latenz und "Artefakte" sind in Single Player Titeln mit 100fps+ absolut null komma null ein Thema und DLSS ist mit leichten Schwankungen vergleichbar mit nativer Qualität wie man oben sehen kann. Diese Leistung bekomme ich sonst nirgendwo.
Und dann muss man sich teilweise noch echt schräge Dinge anhören weil man eine 4070 TI wegen der Software Features gekauft hat. Manche Leute sind irgendwie ziemlich dämlich oder einfach nur neidisch.
Und was VRAM betrifft, in 2 Jahren hole ich mir ohnehin die nächste Mittelklasse Generation, abzüglich Verkauf komme ich mit meiner Kasse für mein Schlechtwetter Hobby wunderbar damit zurecht
marodeur schrieb:@R++ Danke für deine Posts, ich nutze auch ein be quiet! 400 Watt Netzteil und habe mir die Palit JetStream (kostet 20€ über UVP) bestellt welche hoffentlich morgen bei mir ankommt.
Die MSI Ventus 3x ist zwar die meist verkaufte Karte auf Mindfactory aber laut Igors Beitrag scheint die Karte nicht die tollste zu sein, er erwähnt zwar den Namen der Karte nicht aber wenn man sich die Bilder anschaut erkennt man das es die MSI ist von der er schreibt.
Hab hier mal in FH5 in 5K mit RT (5220x2880) für maximale Last per GPU-z die Hotspot Temps und so auslesen lassen.
Powertarget zu testzwecken auf 100% gelassen.
Siehe Screenshots.
~65°C Chip und Memory
~81°C Hotspot
Geht eig. Bei 19-20°C Raumtemperatur.
VRAM wird in dieser Auflösung z.B. in FarCry 6 mit HD-Texture Pack und max Settings geschlachtet
1fps.
12,2GB VRAM-Belegung.
23GB RAM-Belegung.
Es werden - gerade bei der Vegetation - nicht alle Sachen korrekt geladen.
MfG, R++
Anhänge
ThirdLife
Commander
- Registriert
- Aug. 2019
- Beiträge
- 3.071
Womit jetzt nix neues klar wäre: es ist keine 5K Ultra Details-Karte. Irgendwie so gar nicht unerwartet.R++ schrieb:Hab hier mal in FH5 in 5K mit RT (5220x2880) für maximale Last per GPU-z die Hotspot Temps und so auslesen lassen.
Powertarget zu testzwecken auf 100% gelassen.
Es werden - gerade bei der Vegetation - nicht alle Sachen korrekt geladen.
Mit meiner 3080 Ti hatte ich damals mit ebenfalls "nur" 12GB VRAM aber irgendwie keine Probleme (in 4K).
Ja klar, sollte nur mal zeigen, was passiert wenn man es (sinnlos) übertreibt
Alles über 4K wird auch je nach Spiel und Settings ggf. mit ner 4090 "ungemütlich".
EDIT: Nachtrag: Das mit der Vegetation und Darstellungsfehler gilt für Far Cry 6! Da wohl 16-18GB+ VRAM benötigt werden würde.
In FH5 gibt es keine Texturprobleme in 5K. Da wollte ich nur die Temperaturen testen, da ja die MSI Ventus als "schlechte" Karte (Kühler nicht mit Pads verbunden?) gelten soll gem. dem Kommentar über Igorslab.
MfR, R++
Alles über 4K wird auch je nach Spiel und Settings ggf. mit ner 4090 "ungemütlich".
EDIT: Nachtrag: Das mit der Vegetation und Darstellungsfehler gilt für Far Cry 6! Da wohl 16-18GB+ VRAM benötigt werden würde.
In FH5 gibt es keine Texturprobleme in 5K. Da wollte ich nur die Temperaturen testen, da ja die MSI Ventus als "schlechte" Karte (Kühler nicht mit Pads verbunden?) gelten soll gem. dem Kommentar über Igorslab.
MfR, R++
Zuletzt bearbeitet:
RTX hat Forza Horizon 5 auch erst seit kurzem...ThirdLife schrieb:Mit meiner 3080 Ti hatte ich damals mit ebenfalls "nur" 12GB VRAM aber irgendwie keine Probleme (in 4K).
Der Unterschied zu heute ist aber auch die in Spielen verwendete Texturauflösung. Der Speicherbedarf für Texturen ist seit dem Release der 3000er Karten auch gestiegen und wird auch die nächsten Jahre weiter steigen. Bei Karten mit 8 GB (bspw. der 3070) muss man in einigen neuen Spielen ja schon die Texturqualität selbst in FullHD runterstellen, damit man keine Laderuckler oder sonstige Performanceprobleme hat.ThirdLife schrieb:Mit meiner 3080 Ti hatte ich damals mit ebenfalls "nur" 12GB VRAM aber irgendwie keine Probleme (in 4K).
Neronomicon
Captain
- Registriert
- Dez. 2009
- Beiträge
- 3.218
mibbio schrieb:muss man in einigen neuen Spielen ja schon die Texturqualität selbst in FullHD runterstellen, damit man keine Laderuckler oder sonstige Performanceprobleme hat.
Was auch an der fehlenden Optimierung liegen kann.
marodeur
Ensign
- Registriert
- Feb. 2005
- Beiträge
- 227
Auch guru3d hat von den Problem mit den sehr heißen VRMs dieser Karte berichtet, die Temps wirst du aber nicht in Tools wie GPU-Z sehn da dort keine Sensoren sind. Ich wollte dich halt nur innerhalb deiner 14-Tagefrist darauf hinweisen das diese Karte durch hohe VRM Temps möglicherweise eine niedrigere Lebenserwartung hat, vorallem wenn man die Karte oft am Limit betreibt.R++ schrieb:... wollte ich nur die Temperaturen testen, da ja die MSI Ventus als "schlechte" Karte (Kühler nicht mit Pads verbunden?) gelten soll gem. dem Kommentar über Igorslab.
Davon hat doch niemand gesprochen. Es ging doch rein um die Tatsache, dass keine 720p Texturen verwendet werden. Würde das anders laufen, dürfte es sich nicht Super Sampling schimpfen.Eli0t schrieb:Ultra Texturen mit ultra performance würde aber null Sinn machen.
Das mag sicherlich stimmen und sollte eigentlich auch nicht vorkommen. Ändert für die Praxis aber nichts daran, dass mit 8 GB Karten unabhängig von deren Rechenleistung bei manchen aktuellen Spielen selbst in 1080p schon Abstriche bei der Texturqualität machen muss.Neronomicon schrieb:Was auch an der fehlenden Optimierung liegen kann.
Hab mir jetzt auch endlich mal das Video angeguckt.ArrakisSand schrieb:12GB sind bereits Heute viel zu wenig (und Morgen?) und wer auf wilde Ruckelorgien und und eine mangelhafte Texturqualität steht ist mit dieser Karte bestens bedient.
Die RTX3070 (8GB) knickt gegen die RX6800 (16GB) im folgenden Hardware Unboxed Video gnadenlos ein.
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Schon irre, dass selbst mit RT die 6800 in einigen Spielen schneller ist als die 3070. Und das Selbst DLSS Performance in Hogwarts Legacy das Vram Problem der 3070 nicht lösen kann.
Also jedem das seine. Aber wer heute eine GPU 12 GB Vram kauft, darf sich in 2..3 Jahren nicht beschweren.
Lurtz
Lt. Commander
- Registriert
- Sep. 2005
- Beiträge
- 1.252
Dieses VRAM an der Auflösung Festmachen war in meinen Augen eh schon immer eine Lüge und hat nur nVidias Marketing in die Karten gespielt. Das trifft vielleicht mal zu wenn eine eh schon knapp bemessene Karte bei 1440p vs 2160p über einen gewissen Punkt geschoben wird. Sobald der Content mal entsprechend VRAM-hungrig ist, rettet einen Auflösung nicht mehr.Casillas schrieb:Und das Selbst DLSS Performance in Hogwarts Legacy das Vram Problem der 3070 nicht lösen kann.
Man sieht ja jetzt sehr gut, dass man die Auflösung gar nicht genug senken kann, um den grundlegenden Bedarf der Spiele noch zu befriedigen.
- Registriert
- Dez. 2021
- Beiträge
- 1.366
Ich muss unbedingt noch etwas zum Punkt Benchmarkparcour von ComputerBase loswerden:
Das Thema Raytracing ist oftmals eine subjektive Geschichte. Die einen sind absolut euphorisch, die anderen kümmert es überhaupt nicht, oder man befindet sich irgendwo zwischen diesen beiden Extremen. Ich selbst gehöre zu letzteren.
Die Entscheidung von den verantwortlichen Redakteuren bei ComputerBase, den Anspruch an die RT-Hardware zurückzuschrauben, begrüße ich voll und ganz. Auf der anderen Seite zeigt es meiner Meinung nach aber auch den falschen Fokus der Redaktion auf die Bedeutung von Raytracing im Generellen. Wenn man rein objektiv und nüchtern auf die neue Technik schaut, sollte klar sein, dass sie trotz aller Fortschritte in den letzten Jahren immer noch sehr am Anfang steht. Das heißt also: Raytracing bereits jetzt eine viel zu hohe Bedeutung bei der Leistungsbeurteilung von Grafikkarten zukommen zu lassen, ist aus Sicht der Vernunft einfach falsch. Derzeit ist Raytracing im Vergleich zur Rasterisierung immer noch mehr ein zusätzliches optisches Gimmick als eine gefestigte und etablierte Beleuchtungstechnik am Spielemarkt. Dementsprechend hätte schon im Vorfeld klar sein sollen, dass der Benchmarkparcour mit maximaler RT-Last nicht der richtige Weg sein kann. Denn siehe da, es gibt auch noch Grafikkarten mit schwächerer RT-Leistung als Nvidias 1500€+ Riege. Wer hätte das gedacht.
Von daher wünsche ich mir von den verantwortlichen ComputerBase-Redakteuren für die Zukunft etwas mehr Objektivität und etwas weniger Subjektivität.
Das Thema Raytracing ist oftmals eine subjektive Geschichte. Die einen sind absolut euphorisch, die anderen kümmert es überhaupt nicht, oder man befindet sich irgendwo zwischen diesen beiden Extremen. Ich selbst gehöre zu letzteren.
Die Entscheidung von den verantwortlichen Redakteuren bei ComputerBase, den Anspruch an die RT-Hardware zurückzuschrauben, begrüße ich voll und ganz. Auf der anderen Seite zeigt es meiner Meinung nach aber auch den falschen Fokus der Redaktion auf die Bedeutung von Raytracing im Generellen. Wenn man rein objektiv und nüchtern auf die neue Technik schaut, sollte klar sein, dass sie trotz aller Fortschritte in den letzten Jahren immer noch sehr am Anfang steht. Das heißt also: Raytracing bereits jetzt eine viel zu hohe Bedeutung bei der Leistungsbeurteilung von Grafikkarten zukommen zu lassen, ist aus Sicht der Vernunft einfach falsch. Derzeit ist Raytracing im Vergleich zur Rasterisierung immer noch mehr ein zusätzliches optisches Gimmick als eine gefestigte und etablierte Beleuchtungstechnik am Spielemarkt. Dementsprechend hätte schon im Vorfeld klar sein sollen, dass der Benchmarkparcour mit maximaler RT-Last nicht der richtige Weg sein kann. Denn siehe da, es gibt auch noch Grafikkarten mit schwächerer RT-Leistung als Nvidias 1500€+ Riege. Wer hätte das gedacht.
Von daher wünsche ich mir von den verantwortlichen ComputerBase-Redakteuren für die Zukunft etwas mehr Objektivität und etwas weniger Subjektivität.
Zuletzt bearbeitet:
So wie bei dem TLOU Märchen? In 1080P 14/12GB VRam?Lurtz schrieb:Man sieht ja jetzt sehr gut, dass man die Auflösung gar nicht genug senken kann, um den grundlegenden Bedarf der Spiele noch zu befriedigen.
2560x1440p geht auch mit 8GB VRam
...es geht auch höher
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 141
- Aufrufe
- 13.064
- Antworten
- 808
- Aufrufe
- 78.891
- Antworten
- 1.726
- Aufrufe
- 168.824
- Antworten
- 599
- Aufrufe
- 71.360
- Antworten
- 962
- Aufrufe
- 116.326