News Nvidia GeForce RTX 4060: Gerüchte und Benchmarks umreißen Leistungsniveau

Replay86 schrieb:
8GB VRAM fand ich damals 2016 mit dem Kauf meiner GTX 1080 mega. Heute würde ich 8GB nicht mal mehr mit der Kneifzange anfassen. Es ist von vorne bis hinten zu wenig, auch für 1080p.
Was genau stört dich denn an 8 GB VRAM?
Hast du konkrete Beispiele aus deinen Spielen, wo es einen Unterschied macht und wenn ja, welchen Unterschied?
 
  • Gefällt mir
Reaktionen: serve1chilled, Klever und Smartin
DERLanky schrieb:
Das macht deine Aussage aber genau so wenig repräsentativ wie die auf die du reagiert hast. Ich mache die Erfahrung das mein Sohn einer der ganz wenigen mit einem PC ist. Für die Schule haben alle iPads umsonst und zum Zocken fast nur Konsolen. Auch viele Eltern spielen auf Konsole und haben zum Arbeiten Apple Geräte.
Bisher hält sich die PC-Plattform immer noch recht gut gegenüber den Konsolenplattformen (Xbox, PlayStation und Nintendo), sowohl bei den "monatlich aktiven Nutzern" als auch bei dem Gesamtumsatz von PC-Spielen:

maumau.png


newzoo.PNG

Oder auch die Entwicklung der Steam-Nutzerzahlen, die zeitgleich online sind bzw. zeitgleich spielen:

concurrent.PNG

Ergänzung ()

aklaa schrieb:
Fakt ist 4060 reicht nicht für Full HD Spieler aus.
Fakt ist, dass so eine Pauschalaussage ziemlich bescheuert ist. ;-)

Nicht jeder FullHD-Spieler spielt überwiegend die neuesten AAA-Spiele mit ihren "Day One"-Problemen und allen Reglern auf Maximum (abseits der Auflösung).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H6-Mobs, Öcher Tivoli und anarchie99
Replay86 schrieb:
Es ist von vorne bis hinten zu wenig, auch für 1080p.
Da du ja von "ist" redest, ist 8 GB für Full HD jetzt angeblich schon zu wenig, nicht erst in der Zukunft. Für welche Spiele reichen denn keine 8 GB jetzt in 1080p, bis auf Hogwarts Legacy mit (schlechtem) RT auf Ultra dass noch nicht mal einen richtigen Patch bekommen hat (und auf den Konsolen genauso schlecht läuft, wie am PC)?

Replay86 schrieb:
Wie schon das Ampere Line-up ist alles unter 90er-Karte ein stinkender Kompromiss. Nvidia macht das schon richtig. Die Leute kaufen ja eh.
Eine 4080 ist eine Super Karte und kein Kompromiss, genauso wie für 1440p eine 4070 Ti auch mehr als gut ist. Nur die Preise auf die sind viel zu hoch.

Eine 3080 mit 12 GB war auch eine gute Karte als sie rausgekommen ist.
 
Zuletzt bearbeitet:
Klever schrieb:
Wird Nvidia nicht machen. Wäre ja theoretisch eine Option wenn die 4070 Ti 16 GB gehabt hätte, was ihr durchaus gut gepasst hätte. Aber Nvidia wird nie im Leben eine 4060 Ti mit 12 GB ausstatten wenn die 4070 Ti 12 hat, damit würden sie ja eigene Produkte angreifen.
Klar, aber das ist es ja.. wie seht ihr das? Also meine Meinung ist, wieso Konkurrenz zu eigenen Produkten...
...es ist doch nur VRAM, deswegen macht eine 4060 Ti auch nicht mehr FPS als größere Modelle.
Also wer FPS und eine bessere Leistung nicht nur FPS-Technisch, sonder auch im RT möchte,
greift bzw. muss ja eh zu größeren Modellen greifen.
NVIDIA will uns damit ja nur nötigen, ehrlich. ^^ Jeder der Ahnung hat und in WQHD spielen will wird sagen,
neee, 8 oder 10 GB sind ja zu wenig und muss dann mindestens zur 4070 Ti greifen. Ist halt schon wieder
"In Your Face" von NVIDIA bzw. ne absolute Frechheit. Also sofern die 4070 non Ti auch nur 8GB oder10GB bekommen wird.

Desweiteren dürfte NVIDIA rein technisch gesehen bei der 4060 Ti nicht, absolut nicht, weniger als 12 GB
verbauen. Weil es definitiv ne WQHD Karte ist (selbst mit ner 3060 Ti konnte man shon Ausflüge in WQHD machen und erst recht mit der 3070) und ne 4060 Ti wird ja wohl schneller sein wie eine 3070.
3070 Ti Niveau darf man schon erwarten denke ich und dann was? Nur 8 GB? 10 GB?
Selbst 10GB können se stecken lassen, da 12 GB mMn Minimum sind für so ne Karte und für kommende Games.
 
  • Gefällt mir
Reaktionen: Mcr-King
qu1gon schrieb:
Desweiteren dürfte NVIDIA rein technisch gesehen bei der 4060 Ti nicht, absolut nicht, weniger als 12 GB
verbauen. Weil es definitiv ne WQHD Karte ist (selbst mit ner 3060 Ti konnte man shon Ausflüge in WQHD machen und erst recht mit der 3070)

Es hindert sie gar nichts daran da 10 oder 8 GB zu verbauen, bei einer 3080, zwei Leistungklassen drüber in der vorigen Gen gab es auch nur 10 GB (am Anfang), und ich denke nicht wenige würden die 3080 auch als 4K fähig bezeichnen oder haben sie sich auch bei 4K geholt. 10 GB sind für 4K eigentlich auch in 2020 zu wenig gewesen, na und? Verbaut haben sie es.

Nvidia interessiert es nicht, was du oder ich über die Ausstattung einer Karte für irgendeine Auflösung denken.
 
  • Gefällt mir
Reaktionen: Laphonso
SonyFriend schrieb:
Was genau stört dich denn an 8 GB VRAM?
Hast du konkrete Beispiele aus deinen Spielen, wo es einen Unterschied macht und wenn ja, welchen Unterschied?
Die Liste der Games unter Full HD, die nicht mehr gespielt werden können mit nur 8 GB VRAM:
0

Manche brauchen halt ein Narrativ, egal wie realitätsfern das ist.

Du willst 1440p oder UWQHD Gaming für Jahre mit allen Slidern auf Ultra und Raytracing:?
Dann kaufst Du keine 60er Klasse - auch nicht bei AMD.

Wie leicht manche "Probleme" lösbar sind durch persönliche valide Kaufkritierien .... ;-)
Ergänzung ()

Klever schrieb:
Nvidia interessiert es nicht, was du oder ich über die Ausstattung einer Karte für irgendeine Auflösung denken.
👆 Das hier
Ergänzung ()

qu1gon schrieb:
Weil es definitiv ne WQHD Karte ist
Sagt wer? Hast Du mit Nvidia darüber gesprochen? Verkauft man die nicht an Full HD Gamer?
"Abgabe nur gegen Nachweis eines WQHD Monitors!" :D
Bist Du da in einer Rolle solcher Entscheidungsprozesse?
Gibts da Protokolle?

Ach... nein? Ups Zwinkersmiley
 
  • Gefällt mir
Reaktionen: C16+4, shaboo, serve1chilled und 2 andere
Laphonso schrieb:
Die Liste der Games unter Full HD, die nicht mehr gespielt werden können mit nur 8 GB VRAM:
0
Das sagt keiner nur wenn ich Grusel-Texturen ala PS4 möchte klar auch was gerne passiert, dass Games einfach Texturen nicht richtig Laden auch kostet VRAM und Speicher nicht wirklich viel zur Zeit.

Was sagst du erst zur RTX4050 mit 6GB 96Bit die Über 720P Karte, nee Konsolen sind da günstiger was P/L angeht, nicht vergessen GPU alleine zählt nicht. ;)
 
  • Gefällt mir
Reaktionen: vti
@Mcr-King Nochmals, es zocken noch genug mit Maxwell und Pascal in den 50er, 60er und 70er Klasse; eine 980TI hat 6 GB VRAM und wurde für eBay Suchende mit ollen 500er , 600er und 700er Knochen der Geheimtipp im Jahr 2020/2021 Desaster für Full HD.
Mit 8 GB VRAM gibt es keine “Grusel Texturen”. Mal ganz im ernst….

Einige Kommentare sind echt hysterisch und lustig.
 
  • Gefällt mir
Reaktionen: serve1chilled und Pelzi
flappes schrieb:
Was glaubst du wohl was passiert, wenn das genug über 6 Monate machen?

Und dass man gute Grafik auch auf älterer Hardware zaubern kann, das geht! Nur warum sollten Entwickler sich arbeiten machen, wenn die Gamer so "schlau" sind und immer wieder neue Grafikkarten kaufen?
Grafikkarten sind aktuell aber auch nicht super teuer. Ordentliche Leistung gibt es für unter 400 Eur. Die gleiche Leistung hat vor einem Jahr noch locker das doppelte gekostet, eher mehr. Dass die es keine Schnäppchen gibt, ist offensichtlich und ist schon allein darin zu begründen, dass es aktuell bis auf 7900XT(X) keine Konkurrenz bei den neuen Karten von AMD gibt. Die Preise des Midrange werden nur dann sinken, wenn AMD kompetitive Konkurrenz liefert. Sonst gibt es wenig Argumente für NV, mit den Preisen runter zu gehen. Zumal Luxusgegenstände wie Grafikkarten, Handys etc. eher teurer werden dürften. Ist doch kein Wunder. Einerseits schreien alle nach Klima, Nachhaltigkeit, Sparen, etc. und denken zugleich, dass das keine Auswirkungen auf die Märkte hat? Bei Midrange Grakas geht es nicht um Butter o.ä. Und Du sagst es ja selbst. Die Leute zahlen es. Ist ja auch kein Drama, wenn man eine Karte über mehrere Jahre hat, und sich der Zeitraum eher verlängert.
Laphonso schrieb:
dass Nvidia auch sehr schmerzfrei auf maximum profits geht.
hab auch nicht behauptet, dass NV altruistische Engel sind. Umso unrealistischer ist es aber auch, dass manche erwarten, dass NV demnächst Schnäppchen mit großen Speicherpaketen auf den Markt bringt.
kawanet schrieb:
Logo, und der arme Aktionär wusste nicht, wie er seine Familie über die Runden bringen soll... ja nee, ist klar...
Ach Junge Du trollst doch. Es zeigt doch nur, dass Du an Dein eigenes Argument nicht glaubst. Denn dass Argument, dass AVR Receiver vorher zu billig waren, kam von Dir und ich habs nur übertragen. Der wahre Grund ist nachlassender Wettbewerb und weniger werdende Entwicklung. Und das erleben wir überall. Wenn es immer weniger Angebot gibt, steigt auch der Preis. Und bei Grakas gibt es halt im Grunde nachwievor i.e.L. AMD und NV, da Intel noch braucht. Bei den neuen Karten gibt es halt auch noch keine Konkurrenz. Zyklen werden länger, der Bedarf geringer...
kawanet schrieb:
Am meisten spare ich, wenn ich gar nichts kaufe. :stacheln:
Was soll ich mit 2.0 oder 2.1? Du willst mir einen Rückschritt als die neue Zukunft verkaufen. Während andere teilweise 7, 9 und mehr Boxen einsetzen (was ich nicht mal machen würde, weil ich keine Boxen an die Decke hängen möchte), verkaufst Du mir Stereo als den neuen heiligen Gral ? Meine Anlage, die ich jetzt habe, kam locker auf 4000 Eur. Da kaufe ich bestimmt keinen Einsteigerkram.
Du versuchst zudem eine Strohmannargumentation, denn Du redest mal so und mal so. Ich habe ich doch nicht über die hohen Preise beschwert und gefordert, dass es die neuen Karten zum Schnäppchenpreis geben muss. Das waren andere. Mir geht es darum, dass man realistisch mit den Preisvorstellungen sein muss und dass perspektivisch alles teurer wird. Da ist Dein Vorschlag eines 1600 oder 3500 nicht nur am Thema vorbei sondern trifft auch den Falschen.
 
Smartin schrieb:
Grafikkarten sind aktuell aber auch nicht super teuer. Ordentliche Leistung gibt es für unter 400 Eur. Die gleiche Leistung hat vor einem Jahr noch locker das doppelte gekostet, eher mehr.

Frei nach dem Motto, was regt ihr euch auf, bzw. was erdreistet sich der ein oder andere Forumsteilnehmer, anzuzweifeln, dass die Preisgestaltung nicht gerechtfertigt wäre. Schließlich steht Ostern vor der Türe und welcher Aktionär wünscht nicht, seine Liebsten reich zu beschenken.

Selbiges gilt natürlich auch, was die Kreativekünste der Grünen angeht, wurde doch seitens Nvidia bereits hinlänglich und mehrfach unter Beweis gestellt, dass es keinesfalls an Einfallsreichtum mangelt. Ergo sollte wir auch das zu würdigen wissen, anstatt uns so kleinlich zu geben.


Smartin schrieb:
Ach Junge Du trollst doch.

Mangelt's dir an Argumenten, dass wir jetzt persönlich werden? Zumal mir doch scheint, dass du dir diesen Schuh anziehen solltest. Sei es nun das Alter oder das Verhalten betreffend.

Smartin schrieb:
Meine Anlage, die ich jetzt habe, kam locker auf 4000 Eur. Da kaufe ich bestimmt keinen Einsteigerkram.

Spielen wir jetzt, mein Haus, mein Auto, mein Boot? Ich erspare dir wie mir mal, darauf weiter einzugehen....

mit frdl. Gruß
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Tiremo schrieb:
Ich habe mir für die Überbrückung dieser Generation eine Konsole gekauft und sehe mich mit dieser News darin bestätigt, dass die Generation verloren ist.
habs genauso gemacht. Aber zufällig. Weil ich die PS5 unbedingt haben wollte.
 
  • Gefällt mir
Reaktionen: Mcr-King
Noch eine unnötige Karte mehr auf dem Markt, welch eine Freude.
Aber ihr müsst aufhören euch im Kreis zu drehen.
Das Vram Gelaber nervt und es wird auch keine Schnapperkarten mehr geben. Alle meinen plötzlich 16 Gb haben zu müssen.
Willkommen in 2023.
Ich für meinen Teil zocke jetzt erstmal weiter, auch wenn ich nur 10 Gb Vram habe.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: H6-Mobs, Neubauten und Smartin
@kawanet
Ich beende das an der Stelle. Du willst offensichtlich nur provozieren und suchst Dir das aus, was in Deiner Argumentation passt, selbst wenn es gar nichts damit zu tun hat. Dabei drehst Du Dich wie ein Brummkreisel und widersprichst Deinen eigenen Aussagen. Mal von den persönlichen Bemerkungen ganz zu schweigen.
Du trollst nur und bist damit neuer Gast auf meiner Blockliste.
 
Klever schrieb:
Es hindert sie gar nichts daran da 10 oder 8 GB zu verbauen, bei einer 3080, zwei Leistungklassen drüber in der vorigen Gen gab es auch nur 10 GB (am Anfang), und ich denke nicht wenige würden die 3080 auch als 4K fähig bezeichnen oder haben sie sich auch bei 4K geholt. 10 GB sind für 4K eigentlich auch in 2020 zu wenig gewesen, na und? Verbaut haben sie es. Nvidia interessiert es nicht, was du oder ich über die Ausstattung einer Karte für irgendeine Auflösung denken.

Laphonso schrieb:
Sagt wer? Hast Du mit Nvidia darüber gesprochen? Verkauft man die nicht an Full HD Gamer?
"Abgabe nur gegen Nachweis eines WQHD Monitors!" :D
Bist Du da in einer Rolle solcher Entscheidungsprozesse?
Gibts da Protokolle?

Ach... nein? Ups Zwinkersmiley
Es geht icht darum ob Nvidia das kann oder nicht bzw. ob sie jemand daran hindern kann oder nicht.
Nvidia kann mit ihren Grakas machen was Nvidia möchte. Richtig, haben Sie ja auch.
Bei den 3000er war es schon eigentlich zu wenig aber war grade noch auf Kante genäht / vetretbar.

Natürlich kaufen die auch FHD-Gamer (ist ja ok), auch hier geht es ja nicht darum sondern einfach...
...kann man mit der in WQHD spielen? Klares ja - (braucht man nicht Nvidia fragen etc... liegt ja auf der Hand, mit der 3060Ti konnte man schon Ausflüge in WQHD machen und erst recht mit der 3070 und eine 4060 Ti
wird ja wohl schneller sein als ne 3070).
Also wenn ja, dann sollten bzw. müssten da auch 12GB verbaut werden. Wie gesagt rein vom technischen her,
damit der VRAM auch zur Leistung der Graka passt.

Man könnte ja z.B. eine 4060 Ti mit 8 oder 10GB und eine mit 12 oder 16GB rausbringen für FHD und WQHD.
Nvidia denkt natürlich viel eher Profit- als Kundenorientiert, klar. Hat sich mMn auch in letzter Zeit einiges
geleistet, grade bezüglich dem VRAM. Man kann wie man durch den Aufschrei im Netzt bezüglich der umgelabelten 4070 Ti als 4080 gesehen hat, sehen. das wir nicht ohne Einfluss dastehen.
Ist auch genauso bezüglich den Preisen... solange viele die Preise zahlen, wird sich Nvidia und Co auch nicht zurücknehmen.
 
  • Gefällt mir
Reaktionen: Laphonso und Mcr-King
Ich habe 12 GB VRAM und damit läuft auch Cyberpunk auf 1440p mit RT momentan noch gut.
Ich würde aber trotzdem sagen, das man eine Karte für 1440p und aufwärts jetzt eher mit 16 GB kaufen sollte -
sofern man sie die nächsten Jahre mit hohen bis höchsten Details nutzen will.

Die Hersteller bekommen doch mit, das AMD und Intel so spendabel mit dem VRAM sind, von daher muss sich doch niemand wundern wenn die Titel da nicht mehr so gut optimiert sind, sagen sich die Hersteller halt: wer max Details will kauft in Zukunft AMD / Intel (auf VRAM bezogen, Texturen kosten ja kaum Rechenleistung heisst es immer) oder holt sich eine 4080, ist doch denen eher egal.

Vil. sollten alle mal davon weg kommen die Karten einfach so als: ist ne 1080p / 1440p etc... von vorneherrein zu klassifizieren. Lieber Tests lesen, und selber ausprobieren, dann weiss man was man bekommt/ bekommen
hat.

Grüsse.
 
  • Gefällt mir
Reaktionen: Mcr-King
Laphonso schrieb:
Vorsicht: Solche "Fakten" sind immer die eigene Bewertung.
Ich finde auf reddit noch 970er full hd Zocker.
Die muss kein Hogwarts mehr stemmen können 9 Jahre später.

Elden Ring Medium full Hd auf 60 fps mit einer bald 9 Jahre alten GPU..
Einer GPU, die man hier 3.5 GB VRAM SPeicherkrüppel nannte/nennt.

Die 4060 hat 8 GB VRAM, nicht 3.5.
Die 4060 wird 3 mal schneller sein als eine 970 und hat DLSS und Frame Generation.
Dann kann ich ja mit meiner R9 390X mit 8 GB (2015) noch voll loslegen.
Zocke allerdings in 21:9 mit 2560 x 1080.
Oder für 400 € an den Mann bringen ... :cool_alt:

MfG Föhn,
 

Anhänge

  • R9 390X OC.jpg
    R9 390X OC.jpg
    467,5 KB · Aufrufe: 124
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Laphonso und Mcr-King
Ja dass ist so ein Problem mit Reddit und co dort wird schnell übertrieben nenne ich es mal um Aufmerksamkeit zu generieren. 😉

Dass ist wie mit E-Autos in keinem anderen Land in der EU ist man da so unsachlich wie in DE.

Auch die Medien zum Teil, gehen in die besagte Schiene was für absurde Sachen dort geschrieben werden man man.

So zurück zum Thema erstens ist es lustig dass es für die RTX4060/ti zwei Chips gibt, dann lässt dass den Schluß zu dass es für RTX4050/40 noch einen kleineren Chip gibt.

Also ich bin immer noch der Meinung dass alles unter RTX4070 einfach Mobile Chips sind weil man gesehen hat das es bei AMD funktioniert danke dafür. 😉

Dass heißt die Dinger sind halt für wenig Verbrauch ausgelegt und sollten somit als OC Variante richtig Stromverbrauchen dass könnte interessieresant werden.


Alles im allem lustig dass die RTX4060/50/40 fast ende des Jahres kommt warum so lange.

Bin mal auf NVIDIAs Quartals Zahlen gespannt. 😉
 
Mcr-King schrieb:
Ja dass ist so ein Problem mit Reddit und co dort wird schnell übertrieben

Mitunter sind dort aber auch recht brauchbare Informationen zu ergattern, bspw. wie es um die Stromversorgung eines Mainboards bestellt ist.

Mini-ITX-Mainboard: Asus bringt erste Platine mit A320-Chipsatz

Hier (CB) hingegen hüllte man/n sich leider sich in Schweigen...

Zum Speicherkrüppel GTX 970... was sagt denn die Steamumfrage zu dem Ganzen? Ich selbst habe noch bis ins Jahr 2022 eine GTX 980 genutzt.

Lüfter für GPU und CPU gesucht.

Die Kiste läuft im Übrigen noch immer, wenn auch nicht bei mir.

Alles im allem lustig dass die RTX4060/50/40 fast ende des Jahres kommt warum so lange.

Bspw. um alte Bestände* abzubauen und weil nun mal hochpreisen Karten mehr Geld in die Kasse spülen. Ähnliches war ja auch im Fahrzeugbau zu beobachten.

Was hier im CB als normal betrachtet wird, wird wohl kaum repräsentativ sein, wenn es um das Gro der Bevölkerung geht.

*So verkauft bspw. Agando (unter Sale sind dort zwei Kisten mit dieser Bestückung aufgeführt), in seinen Fertigkisten immer noch die GTX 1660 sowie 1660 Ti. Gelegentlich sind die Karten auch separat im Mindstar erhältlich.

Wie schon vorab in einem anderen Thread erwähnt, scheint mir das auf ein Tauziehen hinauszulaufen. Während sich die holde Kundschaft noch sträubt, dieses Preisgefüge als gegeben hinzunehmen, pokern auf der anderen Seite die Hersteller/Händler.

mit frdl. Gruß
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pelzi, Klever und Mcr-King
Ich habe mich jetzt nochmal mit dem Thema Vram außeinandergesetzt und würde gerne von euch wissen, was ihr davon denkt. Nvidia hat vor nicht langer Zeit auch eine RTX 3060 8Gb Variante mit 128bit Speicherinterface herausgebracht, welche sonst keine weiteren Veränderungen zur 12Gb Variante hatte. Der Leistungsabfall schwankt dabei von Spiel zu Spiel zwischen 4-17%. Das muss teilweise gar nicht in Spielen sein, die einen hohen Speicherverbrauch haben, sondern wird vermutlich auch auf das kleine Speicherinterface zurückzuführen sein. An der Stelle eine Frage von mir, da ich kein Profi auf dem Thema bin: Kann man 8Gb Vram auch an ein 192bit Speicherinterface anbinden? Falls ja, wäre die Auswirkung von weniger Vram wahrscheinlich verkraftbarer, aber dennoch unschön. Falls nein, finde ich die Beschwerden hier über den Speicherausbau durchaus gerechtfertigt. Im Falle der 3060 hat das Einfluss darauf, ob ein Spiel in FullHD tatsächlich mit durchschnittlich mehr als 60 FPS, oder weniger läuft. Das heißt noch nicht, dass ein Spiel "unspielbar" wird, ärgert aber naturlich trotzdem, weil man weiß, dass hier Leistung verschenkt wird.
 
Zurück
Oben