News Eckdaten und Preise: GeForce RTX 4060 Ti 16 & 8 GB und RTX 4060 8 GB sind offiziell

Redirion schrieb:
was hat es mit den 554GB/s und 453GB/s "effective" auf sich? wo kommen die her? Gibt Nvidia diese magischen Zahlen auch bei den anderen Karten an?
Vermutlich hat NVIDIA endlich zahlen rausgerückt, wie effektiv ihre Caching Implementation über den L2 Cache ist. Ada hat sich da einiges vom Infinity Cache als Konzept abgeschaut.

"Sind doch auch zwei GPUs mit dem gleichen Namen. Die 4060 ist eine 4050 Ti. Das 4060er Label ist falsch. Reines Marketing von Nvidia."

Das war nie anders.
Die Labels hat NVIDIA immer nach Marktlage und nicht nach technischen Details vergeben. In vielen Generationen hatten vergleichsweise kleine Mittelklasse Chips das xx80 Label (680, 1080) und große Chips kamen in den Consumer Bereich entweder nur auf billigen und schlechteren Nodes, erst deutlich später oder gar nicht.
 
  • Gefällt mir
Reaktionen: simosh
MalWiederIch schrieb:
Das ist nicht der Fall, die RTX 3060 lag bei 329€ und Überraschung, die RTX 4060 liegt ebenfalls bei 329€.
RTX 3060: GA106, 276mm²
RTX 4060: AD107, 146mm²
Leistungszuwachs laut nvidia +20%, was für einen Generationensprung von Samsung 8nm auf TSMC N4 lächerlich wenig ist. Reminder: Die 3090 -> 4090 hat +73% zugelegt.

Aber lass dich ruhig von nvidia veräppeln und dir den 4050 Die als 4060 verkaufen.
 
  • Gefällt mir
Reaktionen: scheru, Rock Lee, up.whatever und 8 andere
Verak Drezzt schrieb:
DLSS3 können sie gern behalten, mit zusätzlich berechneten Zwischen-Pseudo-FPS.
Is doch nur für tolle FPS Balken in Vergleichsdiagrammen = Marketing.
In echt taugt das doch nix, da mit DLSS3 die FPS Anzeige hinfällig, bzw. obsolet ist, da es nicht mehr heißt mehr FPS = weniger inputlag und besseres Bild/Spielgefühl, wie davor.

PS: Und wer sich nicht auskennt, freut sich über "mehr FPS". :D Ja, von denen kannst du dir gern noch 250 dazu berechnen lassen, falls du das dann noch sehen möchtest, bzw. spielen. ;)
 
  • Gefällt mir
Reaktionen: Eli0t, Rock Lee, phil76 und 3 andere
[wege]mini schrieb:
Mal schauen, wo AMD hin will. Ihre 7900er Reihe war aber echt "suboptimal".
Naja war aber auch was neues mit Chiplet was NV auch noch machen muß dafürt kein Weg dran vorbei Intel ist dort auch schon weiter. 😉
Ergänzung ()

SCP-067 schrieb:
Hatten die 60er Karten nicht schon immer um die 300€ rum gekostet?
Ja und nein zumindest waren sie mal besser ausgestattet jetzt sind sie im Prinzip 50er Karten für den Preis von 60er.
 
  • Gefällt mir
Reaktionen: Rock Lee, Orok91, [wege]mini und eine weitere Person
@Rickmer, nicht mit dabei sind ein teures 192bit SI und 50% mehr Speicher der 3060!

Im Grunde ist das alles die Schuld von AMD mit ihrem Ineffizienten RDNA3 Design.
Mit Jahrzehntelanger Erfahrung darf sowas nicht passieren, zumal RDNA2 ja ok war.
Hat mit Chiplet nichts gemeinsam, ist ja Pipeline unabhängig.

Jim Keller sagt ja immer Gebetsmühlenartig ein Chip Design so einfach wie möglich zu gestalten und nicht wie Navi 3x über den Ar….die Augen korrigieren.
 
BaluKaru schrieb:
Vermutlich hat NVIDIA endlich zahlen rausgerückt, wie effektiv ihre Caching Implementation über den L2 Cache ist. Ada hat sich da einiges vom Infinity Cache als Konzept abgeschaut.

Yes, haben sie
https://www.nvidia.com/en-us/geforce/news/rtx-40-series-vram-video-memory-explained/

Ein paar technische infos durchsetzt mit marketing sprech und sie versuchen den knappen VRAM zu verteidigen. Der Artikel hat mich dadurch auch etwas zum Lachen gebracht…

Letztendlich wird die geringere Bandbreite durch das schmale interface mit dem deutlich vergrößerten L2 cache kompensiert. Die Effizienz steigt damit.

Aber das war ja eigentlich schon bekannt.
Der Effekt ist halt ähnlich der CPUs mit 3D Cache und AMD nutzt ja bei den GPUs ne ähnliche Technik.
Es ist ja allgemein bekannt wie Caches funktionieren und was mehr davon bewirkt… Das sollte jetzt niemanden überraschen.
 
  • Gefällt mir
Reaktionen: Mcr-King und Redirion
Cleric schrieb:
Ich meinte eher DLSS 2.
Aber da hast du mich auf dem falschen Fuß erwischt. Ich hab mal nach Vergleichen gesucht, wo der VRAM-Verbrauch von nativer Darstellung mit DLSS 3 bzw. DLSS 2 + 3 vergleichen wird. Und hab nichts gefunden. Wie hoch ist denn der Mehrverbrauch gegenüber der nativen Darstellung?
Ehrlicherweise kann ich nur mit Sicherheit sagen, das DLSS 3.0 und FG zusätzlich VRAM benötigt, im Gegensatz zu DLSS 2.0 - das findet man durch Googlen schon.
Man findet jedoch nicht quantitative Aussagen wieviel genau das kostet, selbst PCGH hat das IMHO noch nie beleuchtet, aber eventuell finde ich nur nicht die Balkendiagramme dazu.
Meist ist es so, wer DLSS 3.0 und DLSS 2.0 nutzen kann, nutzt üblicherweise fast immer nur DLSS 3.0 - verständlich, weil es ja vordergründig mehr Frames pro Sekunde liefert. Dass die dazu generierten Frames u.U. gar nicht vom Spiel selbst stammen, ist den meisten Spielern egal.
Vielleicht erbarmt sich ja mal ein Forumleser mit RTX 40x0 Karte und macht den Vergleich bei gleicher Auflösung und gleicher Detailstufe bei einem Spiel, was beide Optionen (also DLSS 2.0 und DLSS 3.0) anbietet.
 
  • Gefällt mir
Reaktionen: Mcr-King
Grundgütiger schrieb:
Im Grunde ist das alles die Schuld von AMD mit ihrem Ineffizienten RDNA3 Design.
Nee die Käufer sind immer noch selbst schuld und so in Effizient wie manche hier schreiben ist RDNA3 nicht und mit RDNA3+ könnte noch ordentlich was gehen.
 
  • Gefällt mir
Reaktionen: Rock Lee, up.whatever, Orok91 und eine weitere Person
Taurus104 schrieb:
informiert sich auch nicht
Exakt. Deswegen schaut er einen Spot oder lässt sich vom Streamer seiner Wahl ein oder zwei Spiele vorführen, bei denen FG funktioniert.
NV verkauft mittlerweile keine Hardware mehr, sondern Features, die nur auf ihrer Hardware laufen. So macht man Kohle (Hallo Apple) ;)
 
  • Gefällt mir
Reaktionen: Nine-tailed Fox und Mcr-King
NoNameNoHonor schrieb:
Vielleicht erbarmt sich ja mal ein Forumleser mit RTX 40x0 Karte und macht den Vergleich bei gleicher Auflösung und gleicher Detailstufe bei einem Spiel, was beide Optionen (also DLSS 2.0 und DLSS 3.0) anbietet.

Aber klar doch

RTX 4080Nativ + FGNativDLSS Q + FGDLSS QDLSS Q + rBAR off
Hogwarts Legacy
1440p Ultra (RT off)
8575 MB7779 MB7684 MB7007 MB6758 MB
Cyberpunk 2077
1440p Psycho RT
9770 MB8832 MB8687 MB7691 MB6981 MB


Hab das Spiel nach jedem Wechsel der Einstellung neu gestartet und die selbe Szene geladen und die VRAM Belegung nach 10 Sekunden ohne mich fortzubewegen notiert.


Interessant ist, wie viel man einsparen kann, wenn man rBAR deaktiviert. Für die 1-2 FPS, die das in manchen Spielen bringt, empfiehlt es sich auf 8 GB Karten das gleich komplett ausgeschaltet zu lassen.
 
  • Gefällt mir
Reaktionen: scheru, Einfallslos^99, Mcr-King und 5 andere
Nvidia-Benennungnachvollziehbare BenennungSpeichermenge & -interface
RTX 4090RTX 4090 (Ti)24 GiB @ 384 bit
n.a.RTX 4080 (Ti)20 GiB @ 320 bit
RTX 4080RTX 4070 (Ti)16 GiB @ 256 bit
RTX 4070 (Ti)RTX 4060 (Ti)12 GiB @ 192 bit
RTX 4060 (Ti)RT(X) 4050 (Ti)8 GiB @ 128 bit
... macht den Shareholder glücklich... hätte den Kunden glücklich gemacht
 
  • Gefällt mir
Reaktionen: catch 22, Draco Nobilis, Schneee und 4 andere
SCP-067 schrieb:
329€ für die 4060 8GB ist gar nicht so teuer wie von Nvidia gewohnt.
Ich hatte mindestens 399€ UVP erwartet.
Liegt auch daran das die 4060 8gb nur noch 33% der Leistung der 4090 erreicht.

2016 hat die 1050ti 31% der 1080ti erreicht, im Endeffekt hast du hier eine 4050ti für grandiose 329€
 
  • Gefällt mir
Reaktionen: Draco Nobilis, eXe777, Mcr-King und 5 andere
Mimir schrieb:
Warum Exklusiv Feature? Es wurde bereits auf Ada getestet.

Das wurde doch im Video von Graphically Challenged erklaert, die getestete RTX 4090 packt die Neuraltexturkompression leistungsmaessig nicht gut genug (es dauert immer noch ueber eine micro-s in 4K/UHD) und mit der RTX 5000er (Blackwell?) dGPU-Generation kommen ganz neue, deutlich aufgebrezelte (leistungsfaehigere) Tensorkerne als diese Ada Lovelace aktuell bietet.

Mimir schrieb:
... noch viel Jahre vergehen, weil es ein neues Texturformat ist. Das muss vom Entwickler auch bereitgestellt werden. Erzeugt also Aufwand und Kosten und benötigt mehr Speicherplatz, weil Texturen in unterschiedlichen Formaten ausgeliefert werden müssten.
Das glaube ich nicht, denn erstens bereitet man das jetzt wohl schon vor und zweitens vermutlich auch besser als damals mit der ersten RTX Generation (Turing) RT-RT (aus Fehlern der Vergangenheit lernt man auch bei nVidia).
Des Weiteren duerfte die Leistung neuer Tensorkerne eine Implemetierung massgeblich erleichtern und A.I. wird von nVidia (und eben dann auch Entwicklern) deutlich mehr und effizienter eingesetzt.

Mimir schrieb:
Direct Storage, Sampler Feedback Streaming und Mesh Shader nutzen. Damit wären auch heute schon x-mal mehr Details als aktuell möglich.
Das wird doch heute schon zum Teil genutzt, auch wenn das nicht so offensichtlich ist, und deswegen ziehen z.T. auf aktuelle Spiele soviel Leistung, was man (optisch) oft gar nicht unbedingt wahrnimmt.

Dahingehend gab es vor kurzem einen interessanten Podcast von MLID mit einem UE5 Spieleentwickler, wo es um die hohen und steigenden Leistungs- und Speicheranforderungen in Spielen geht, die eben nicht nur auf schludrige, faule oder zu sehr unter Zeit- und Profitdruck stehende Spieleentwicklung zurueck zu fuehren sein soll:

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Crifty
Mimir schrieb:
Letztendlich wird die geringere Bandbreite durch das schmale interface mit dem deutlich vergrößerten L2 cache kompensiert. Die Effizienz steigt damit.
Der Cache kompensiert aber halt auch nur eine mangelnde Bandbreite des Grafikspeichers, aber eben nicht eine zu knappe Größe. Wenn der Speicher voll ist, ist er nun mal voll und da kann der L2 Cache noch so gut sein, das Bottleneck wird dann das Nachladen von Daten in den Speicher.
 
  • Gefällt mir
Reaktionen: vti, Mcr-King, up.whatever und 2 andere
pacifico schrieb:
Und dann kann man nicht mehr zurück ans Reißbrett ohne mindestens eine Verzögerung von knapp einem Jahr zu verursachen.

Daher bringt man niemals alle Produkte zeitgleich und baut nicht alle Produkte mit den gleichen Prämissen.

Die "kleinen" Bumser, waren von Anfang an auf Effizienz getrimmt. Daher musste bei der 7600er Reihe auch nichts verändert werden und die liegen "im Plan".

Die "großen" Bumser hat man durchgezogen, da musste man in den sauren Apfel beißen.

Die mittleren, hat man (so wie ich das sehe) überarbeitet und versucht jetzt auf Zeit zu spielen. Dein Jahr kommt gut hin, das wäre 1 Jahr nach dem die ersten 7900er Chips vom Band gefallen sind dann im Verkauf so Juli oder sogar September, für eine überarbeitete Version der 7800er Chips.

Jetzt stelle dir aber ein Szenario vor, in dem AMD gar nichts gebracht hätte, weil ihre ersten Testmuster einfach nur "Müll" waren.

Das geht nicht. Dann lieber mit gaaaanz kleinem Gewinn verkaufen und Nvidia noch ein wenig ärgern. Nvidia hat nicht die Möglichkeit, mit CPUs wirklich gutes Geld zu verdienen und die finden 7900er im unter Tausend Euro Bereich, echt nicht gut, für ihr Geschäft. :evillol:

Die Tatsache, dass ChatGPT und der AI Hype plötzlich so kommt, wie es kam, hat doch vor einem Jahr auch niemand kommen sehen.

mfg
 
  • Gefällt mir
Reaktionen: Mcr-King
simosh schrieb:
Exakt. Deswegen schaut er einen Spot oder lässt sich vom Streamer seiner Wahl ein oder zwei Spiele vorführen, bei denen FG funktioniert.
NV verkauft mittlerweile keine Hardware mehr, sondern Features, die nur auf ihrer Hardware laufen. So macht man Kohle (Hallo Apple) ;)
Das machen aber doch eher dann die Technikaffinen oder innerhalb einer gewissen Altersklasse würde ich behaupten.

Der restlichen Aussage kann ich nur zustimmen.
 
Ich habe seit Ewigkeiten kein derart unattraktives Grafikkartenlineup mehr gesehen, wie es dieser Tage der Fall ist. Nvidia ist mittlerweile zu sowas wie Activision-Blizzard und Ubisoft, nur für Hardware geworden.
 
  • Gefällt mir
Reaktionen: Gene Jackman, Eli0t, eXe777 und 6 andere
zu dem preis sind beiden Karten Dead on launch. eine 8GB karte in 2023 maximal 300€ und die 16Gb sollte auch weit unter 500. eher bei 380-400 liegen, um hier irgendwie sinn zu machen. die werden nicht schneller oder gar langsamer als die 3070 sein. was soll man damit auf lange sicht. wenn man die für neue games kauft will man da wirklich nach 2 jahren schonwieder rann weil das teil sich selbst limitiert sei es nun bandbreite, VRAM oder 0% generation uplift bei der leistung?

andere plattfromfeatures lass ich nicht gelten als fortschritt. die waren immer schon inbegriffen und man bekam dennoch mehr leistung. da sollte man sich nicht für blöd verkaufen lassen. zudem sind viele dieser features kaum benutzbar auf breiter front und de rnutzen ist fraglich da sie mehr VRAM brauchen was die 8GB karte direkt abschießt.

insgesamt fühlt es sich gut an vom PC gaming weg zu sein. diesen weg gehe ich nicht mehr mit.
 
  • Gefällt mir
Reaktionen: vti, Rockstar85, JanMH und 4 andere
Zurück
Oben