Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia zur GeForce RTX 4060: Grafikkarte bringt 13 mal mehr Leistung* und „Less Power“
Discovery_1
Rear Admiral
- Registriert
- März 2018
- Beiträge
- 5.713
Ich hoffe, es kommen beim Test auch ältere Mainboards mit PCIe 3.0 vor. Bin bei der 4060 mal auf den Leistungsverlust gegenüber PCIe 4.0 gespannt.
Geil, der Versuch, englisches mal einzudeutschen wird garantiert klappen.Laphonso schrieb:BpS, wer kennt ihn nicht, den etablierten Wert
Der SPeicher geht NVIDIA sowieso aus die tricksen und "optimieren" nur was das ZEug hält um das zu verschleiern, was teilweise schon grenzwertig ist.ThreepQuest64 schrieb:Ein paar GB zu wenig Speicher (:
Wir kommen langsam in die Zeit, in der der Speicher ausgeht, bevor die Fps in den Keller gehen. Und hochauflösende Texturen kosten selten so viel Performance wie andere Effekte.
Ich weiß nicht ob man hier verlinken darf aber ich tue es einfach mal
https://www.igorslab.de/testreihe-m...r-speicher-der-grafikkarte-nicht-mehr-reicht/
Wäre interessant ob sich Computerbase dem Thema auch nochmal annimmt. Das schmeckt der 8 GB sind genug Fraktion aber vermutlich nicht wirklich die würden eher loben wie elegant der Mangel versucht wird auszugleichen.
Tharan
Lieutenant
- Registriert
- Sep. 2007
- Beiträge
- 988
Was mir wichtig wäre bei dem Test: Vergleich 3060 12GB (und vollem PCIe x16-Anschluss) mit den 8GB und PCIe x8-Anschluss. Denn wenn die Leistung sonst gleich ist wäre eben die Frage, ob sich der geringere Stromverbrauch lohnt oder man doch eben mit der Anbindung der 12GB sich einen größeren Gefallen tut, größerer Cache hin oder her.
wtfNow
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.393
Aussage gegen Aussage, das sehe ich mit den ersten 3 Punkten ganz anders.Gerithos schrieb:Naja die ersten 3 Punkte kann man aber vergessen. Die RT Leistung ist nicht ausreichend um relevant zu sein, selbst mit FG nicht. Die 6700XT kann FSR 2 nutzen, was ebenfalls gut ist.
Der 4te Punkt ist keiner weil selbst wenn die 8gb der 4060 10gb einer Radeon entsprechen, die 6700XT hat 12 GB.
Der 5te Punkt ist valide
1. RT Leistung ist vorhanden und hat mit der Ada Architektur noch deutliches Optimierungspotential (z.B. Shader Execution Reordering), siehe bestcase Cyberpunk Pathtracing.
2. FSR ist gut, DLSS ist aber durchgehend (teils deutlich) besser.
3. Frame Generation spricht für sich selbst, dazu unten mehr.
Meine 4. und 5. kann man vernachlässigen, war eine Reaktion auf genauso belanglose Punkte wie mehr Cache bzw. (theoretisch) Bandbreite oder 16 statt 8 Lanes (was bei PCIe 4.0 ja Banane ist). Am Ende kommt es auf die Bildqualität und fps an.
Perdakles schrieb:Nach aktueller Hochrechnung (basierend auf dem RX 7600 Test, sollten 6700XT und 4060 etwa gleich schnell bei RT sein. Da wird zumindest keine relevante Differenz bei rumkommen.
Anhang anzeigen 1369302
Möglich dass sie zu Beginn im Schnitt auf ähnlichem Level liegen.
Ada Lovelace hat aber hardwarebedingt noch viel mehr RT Optimierungpotential, siehe hier und das trotz 8GB! Nvidia ein entsprechend großes Treiberteam, da ich rote und grüne Karten regelmäßig einsetze kann ich aus Erfahrung sprechen dass Nvidia da nochmal eine andere Hausnummer ist.
FG kostet pauschal 10% vom Spiel genutzten Speicher, im Zweifelsfall ein paar Regler bisschen runter schieben und dafür fps erhalten die mehrere Klassen drüber liegen. Also ich finde das ist schon ein standfestes Argument und wird in Zukunft den Unterschied machen ob etwas spielbar ist oder nicht. Wer dreht dann um wem Kreise?Perdakles schrieb:FG kostet VRAM wovon die 4060 schon jetzt nicht genug hat. Das ist also keine Lösung für das Problem des zu kleinen Speichers. Außerdem kann es auch gut sein, dass die 6700XT noch FG mit FSR3 erhält. Aber zugegeben, das ist Spekulatius.
Sagen wir mal 9,5 GB Nvidia zu 12 GB Radeon.Perdakles schrieb:Du sagst es ja selber: 9-10GB sind immer noch weniger als 12GB.
Klar, Nvidia wird früher einknicken! Dafür gibt es Regler und es sollte sich schon herum gesprochen haben dass Hoch selten von Ultra zu unterscheiden ist. Plötzlich wird die 8 GB also wieder nutzbar! Und ja es ist auch schade daran zu sparen weil es keine Leistung kostet etc.... 9,5 GB zu 12 GB sind jetzt aber keine Welten. Wenn man bereit ist die Regler mit einer 4060 8GB nur ein bisschen weiter nach unten zu stellen als mit einer 6700XT 12GB dann reicht der VRAM und als ganz großen Bonus kommt in den Genuss von deutlich mehr fps mit DLSS, FG (und ggf. RT Optimierung). Also kurz gesagt minimal schlechtere Bildqualität aufgrund sagen wir mal eine Stufe geringerer Texturqualität gegen deutlich spürbar mehr fps.
Ich würde daher zwischen den beiden Karten keine pauschale Empfehlung abgeben wollen. Beides hat Vor- und Nachteile, sehr individuell auf bestimmte Spielerprofile zugeschnitten.
Bei der Rechnung wurde eine Intel Arc mit 8GB als Referenz gewertet, allerdings stimme ich der groben Rechnung auch nicht zu. Der Unterschied ist nach meinem Empfinden größer und in Prozent von der Gesamtkapazität zu messen statt absulut mit GB werten, Milchmädchenrechnung. Mein letzter mir bekannter Test war FH5, mit 8 GB @maxSettings bei einer Radeon überfordert, mit 8 GB bei Nvidia läuft es dagegen rund.C0rteX schrieb:8 GB bei nvidia entsprechen 8,5 GB bei AMD und 9 GB bei Intel. Hat pcgh erst getestet. Da wir bei der 6700xt von 4 GB mehr reden, erledigt sich die Diskussion sofort.
Und hier auch ein kleines Statement vom GPU Chef bei PCGH.
9,5 GB zu 12 GB sind realistisch.
Zuletzt bearbeitet:
|SoulReaver|
Fleet Admiral
- Registriert
- Feb. 2011
- Beiträge
- 11.074
"Die GeForce RTX 4060 richtet sich an Spieler, die schon länger nicht mehr aufgerüstet haben"
Und dann ist man wieder geizig und baut nur 8GB rauf? im Jahr 2023..........
Und dann ist man wieder geizig und baut nur 8GB rauf? im Jahr 2023..........
F
flappes
Gast
Die ist bestimmt 100x schneller als eine GTX 460.
Ganz tolles Marketing. Die Karte kann nur schlecht sein, wenn man schon solche Zahlen und Vergleiche heranzieht.
Ganz tolles Marketing. Die Karte kann nur schlecht sein, wenn man schon solche Zahlen und Vergleiche heranzieht.
SIR_Thomas_TMC
Captain
- Registriert
- Aug. 2014
- Beiträge
- 3.269
Danke für die klaren Worte im Test.
Selten so wenig Argumente für den Kauf einer Grafikkarte gelesen.
Selten so wenig Argumente für den Kauf einer Grafikkarte gelesen.
Tja, wenn man sehenden Auges ein schlechtes Produkt auf den Markt wirft, dann muß man auch zu komischen Methoden greifen, um den Leuten den Mist schmackhaft zu machen.
Sie hätten auch schreiben können, daß die Karte, trotz schlechter Hardwareausstattung, durch Magie schneller ist.
Sie hätten auch schreiben können, daß die Karte, trotz schlechter Hardwareausstattung, durch Magie schneller ist.
Wenn man Texturdetails von Treiberseite reduziert wundert das nicht. Sowas nennt man cheaten oder Verarsche aber gut. Nvidia Käufer sind ja einiges gewohnt. Nvidia geht eben nicht besser mit dem Speicher um, sie lassen Inhalte weg:wtfNow schrieb:Mein letzter mir bekannter Test war FH5, mit 8 GB @maxSettings bei einer Radeon überfordert, mit 8 GB bei Nvidia läuft es dagegen rund.
"Man sieht auch, dass das von NVIDIA beschworene Speichermanagement immer genau dann versagt, wenn sich Speicherbedarf und Speicherausbau ziemlich genau decken. Dann ist komplett Schicht im Schacht. Erst bei 8 GB läuft des Spiel wieder und selbst mit mickrigen 6 GB ist alles noch smoother und spielbarer als mit 10 GB. Allerdings sieht man dann auch Fehler im Stream, Texturen bleiben matschiger und ab und zu fehlt auch etwas komplett oder ploppt irgendwann mal auf."
"Die NVIDIA-Karten laufen bei identischem Speichermangel zumindest smoother als die AMD-Karten, wobei eben ein paar Inhalte verloren gehen." --> Nvidia "Magie"
https://www.igorslab.de/testreihe-m...speicher-der-grafikkarte-nicht-mehr-reicht/4/
Zuletzt bearbeitet:
Das ist ein leichter Marketing-Bluff, außerdem sind die Faktorn nicht miteinander vergleichbar, da diese Karten in alten PCIe Slots nicht ihre ganze Leistung abgeben, da man nicht von der erhöhten Bandbreite profitiert. Also GTX 1060 raus und RTX 4060 rein und direkt über PCIe 3.0 vergleichen bringt nichts.
K
KudammCity
Gast
Evht schöne Karte. Für 720p spieler
S
s1ave77
Gast
PCIe 3.0 ist kein Problem, gerade mal die 4090 schafft es die Bandbreite zu nutzen. Selbst PCIe 2.0 sollte nur ein paar Prozente ausmachen bei einer 4060.GOOFY71 schrieb:Also GTX 1060 raus und RTX 4060 rein und direkt über PCIe 3.0 vergleichen bringt nichts.
Probleme entsehen hauptsächlich bei reduzierter physischer Anbindung (8 von 16 Lanes) und wenig VRAM, dann fällt die fehlende Bandbreite ins Gewicht.
Hab es in ein paar Spielen ausprobiert (VR), war immer nur ein schlechter Kompromiss. Ich hab am Ende immer bessere Lösungen gefunden, wie foveated Rendering.Chismon schrieb:Daß angeblich nur 20% der nVidia GeForce Käufer DLSS (in irgendeiner Form) und RealTime-Raytracing nutzen, ...
Die Verarsche beim Abverkauf von Ampere vergessen?Pheenox schrieb:Dann kommt noch die absurde Bepreisung als Nachwehen der Chipkrise dazu.
Für mich ist es ne gebrauchte geworden, um die PoS abzuspielen, dann Konsole. Glaub nicht mehr daran das der PC Markt für Spieler noch mal besser wird.
Der Wolle P
Cadet 3rd Year
- Registriert
- Apr. 2023
- Beiträge
- 61
Mal ehrlich Leute! Das ist einfach nur schön reden.
Nvidia hat von Anfang an Mist gebaut.
Es ging mit 2 4080 los, einmal 12gb und 16gb. Dann wurde aus der 12gb die 4070ti. Ok, das kann man noch verkraften.
Dann kam die 4070, die knapp an die 3080 ran kam und nur mit Effizienz punkten kann.
Als dann aber die 4060ti mit 8gb kam wurde es einfach nur lächerlich weil Besitzer z.B einer 3060ti oder 3070 keinen Vorteil mehr sehen auf die 4060ti aus sinnlos wieder Geld auszugeben und das durch die Effizienz irgendwie wieder reinspielen müssen.
Aber mit der 4060 hat sich selber in Knie geschossen weil diese beim heutigen Stand der Anforderungen bei Spiele selbst in FullHD sinnlos erscheint. Wer zockt freiwillig mit 60fps und verzichtet auf Details weil der Speicher nicht hinterher kommt.
Geile Nummer Nvidia, verarschen kann ich mich selber.
Nvidia hat von Anfang an Mist gebaut.
Es ging mit 2 4080 los, einmal 12gb und 16gb. Dann wurde aus der 12gb die 4070ti. Ok, das kann man noch verkraften.
Dann kam die 4070, die knapp an die 3080 ran kam und nur mit Effizienz punkten kann.
Als dann aber die 4060ti mit 8gb kam wurde es einfach nur lächerlich weil Besitzer z.B einer 3060ti oder 3070 keinen Vorteil mehr sehen auf die 4060ti aus sinnlos wieder Geld auszugeben und das durch die Effizienz irgendwie wieder reinspielen müssen.
Aber mit der 4060 hat sich selber in Knie geschossen weil diese beim heutigen Stand der Anforderungen bei Spiele selbst in FullHD sinnlos erscheint. Wer zockt freiwillig mit 60fps und verzichtet auf Details weil der Speicher nicht hinterher kommt.
Geile Nummer Nvidia, verarschen kann ich mich selber.
Leider hoffe ich bei NVidia nicht allzu sehr auf Besserung. Die nutzen den Markt richtig aus...Michael vdMaas schrieb:Das ist gleichsam kreatives wie blendendes Marketing. Wahnsinnig lustig einerseits, betrüblich für nicht versierte andererseits.
Hoffen wir mal, dass die Verkaufszahlen weit unter den Erwartungen bleiben. Nur dann kann man auf Besserung hoffen.
Ja die kommt dann recht zeitgleich mit der 7800TR2013 schrieb:Kommt in absehbarer Zeit auf eine 7700 von AMD? Lese immer nur von der 7800.
Ähnliche Themen
- Antworten
- 226
- Aufrufe
- 24.462