News Nvidia GeForce RTX 4060: Gerüchte und Benchmarks umreißen Leistungsniveau

kawanet schrieb:
Fakt ist nun mal, dass die Lager prall gefüllt sind und der Absatz schleppend verläuft. Wohin das i. d. R. führt, bleibt abzuwarten. Mir persönlich ist kein Bereich in der Unterhaltungselektronik bekannt, der nicht günstig erwerbbar wäre, eben weil der Krempel auf schiere Masse setzt.
Ach ist das so ja? Woher weißt Du das? Hier geht es um die 4060. Und ob die Lager noch so voll sind mit den 3xxx weiß ich auch nicht, da der Abverkauf ja schon eine Zeit lang läuft. Ist ja nicht so, dass die "alten" 3xxx uninteressant geworden wären, wenn man auf die Preise der neuen, bereits verfügbaren Karten schaut.

Da gibts genug Unterhaltungselektronik, die schwer verfügbar ist. Versuch mal einen AV Receiver zu bekommen. Da haben sich die Preise in den letzten 2, 3 Jahren auch verdoppelt, teilweise verdreifacht.
kawanet schrieb:
Die ganz Ungeduldigen stellen nur einen verschwindend geringen Teil dar, der Rest der Bevölkerung weiß hauszuhalten und dürfte sich angesichts solcher Preise nur verwundert die Augen reiben.
Habt ihr die letzten 3 Jahre vergessen? Die 3060 wurde zeitweise für für über 800 Eur verkauft? Klar ist das nicht gut, aber was soll man machen, wenn es keine Alternative gibt.
 
  • Gefällt mir
Reaktionen: Pelzi und vti
Smartin schrieb:
Ach ist das so ja? Woher weißt Du das?

Warum führst du nicht einfach ein Bsp. an, wenn du gegenteiliger Meinung bist?

Da gibts genug Unterhaltungselektronik, die schwer verfügbar ist. Versuch mal einen AV Receiver zu bekommen. Da haben sich die Preise in den letzten 2, 3 Jahren auch verdoppelt, teilweise verdreifacht.

Hier war die Rede von dauerhaft. Natürlich wünschen sich die Aktionäre, dass sich das auf Dauer durchsetzen lässt. Aber bleiben wir mal bei deinem AV Receiver. Benötige ich denn zwingend 5.1 und mehr um Musik oder ggf. den Fernsehton aufzupeppen? Zudem habe ich nicht umsonst angemerkt, dass mir kein Bereich bekannt ist, wo auf Dauer derartige Preis sich etablieren ließen.

Aber um bei deinem AVR zu bleiben. Raumkorrektur lässt sich weiterhin günstig erwerben, bspw. in Form eines miniDSP. 5.1 geschenkt - natürlich setzt dies eine gewisse Maß an Flexibilität voraus, was scheinbar nicht jedem gegeben scheint...

Da gibts genug Unterhaltungselektronik, die schwer verfügbar ist. Versuch mal einen AV Receiver zu bekommen.

Ich könnte natürlich das Thema gänzlich anders angehen und argumentieren: Wozu, wurde der Krempel doch derart billig dazumal verramscht, dass sich im Nachgang niemand beklagen sollte. Dir sind die damaligen Preise geläufig?

Niemand, einschließlich meiner Wenigkeit erwartet, dass er Krempel permanent für kleines Geld verfügbar ist. Ist mir der Ranz zu teuer, wird sich halt in Zurückhaltung geübt, so einfach ist das. Und mit dieser Einstellung stehe ich mit Sicherheit nicht alleine dar.

mit frdl. Gruß
 
Zuletzt bearbeitet:
Tatsächlich lese ich hier im Forum immer wieder, dass die Specs eher zu einer neuen 4050(ti) gehören könnten, worauf ich auch hoffe. Aktuell sitzt in meinem Rechner eine 3060 12Gb, da das eine wunderbare Karte für Videobearbeitung im Einstiegsbereich ist. Sollte die 40er Generation im Bereich von xx60 bis xx70 unter 12 Gb Vram bleiben, lohnt sich da ein Upgrade nicht. Man darf auf eine bessere 5000er Generation hoffen. Zum Thema Vram im FullHD Bereich beim Gaming: Unter 12Gb würde ich tatsächlich nicht mehr gehen, CoD Warzone 2 hängt bei mir voll im Limit, mit weniger würde man da z.B. durchaus ausgebremst werden.
 
  • Gefällt mir
Reaktionen: vti
qu1gon schrieb:
selbsmindestens bis zur bzw. einschließlich der 4060 Ti MUSS 12GB VRAM sein.
Eigentlich auch noch für die 4060 aber da könnte ich noch mit 10 GB klarkommen, als dann die "sogenannte"
FHD-Karte.

Wird Nvidia nicht machen. Wäre ja theoretisch eine Option wenn die 4070 Ti 16 GB gehabt hätte, was ihr durchaus gut gepasst hätte. Aber Nvidia wird nie im Leben eine 4060 Ti mit 12 GB ausstatten wenn die 4070 Ti 12 hat, damit würden sie ja eigene Produkte angreifen.
 
  • Gefällt mir
Reaktionen: shaboo
bei der ganzen Diskussion um VRAM: Wie kann es sein, dass ich Fortnite auf FullHD mit einer 4GB-Karte und 80-100 FPS spiele?
Es ist jetzt wohl ein neues Spiel, welches frisch auf den Markt gekommen ist, das in FullHD einen hohen Bedarf an Speicher hat, wo die ChipHersteller einen ersten Fix/Patch anbieten (noch nicht mal der Spielehersteller selbst...!), und die Diskussion um VRAM nimmt seit der 4070TI kein Ende.

Wir werden die Preise bezahlen müssen, und wir werden es tun!
So einfach ist das.
Ich bleibe dabei ganz entspannt.
 
SonyFriend schrieb:
bei der ganzen Diskussion um VRAM: Wie kann es sein, dass ich Fortnite auf FullHD mit einer 4GB-Karte und 80-100 FPS spiele?
Wie soll das schon großartig sein können? Schon mal was von unterschiedlichen Systemvoraussetzungen gehört? Fortnite läuft nun mal auf jedem Toaster; die empfohlenen(!) Anforderungen sind eine GTX 960 mit 2 GB VRAM und ein i5-7300U/Ryzen 3 3300U. Mit so was laden andere Spiele nicht mal das Intro ...
 
  • Gefällt mir
Reaktionen: Bänki0815, vti und Mcr-King
@SonyFriend, es gibt einige Spiele welche mit Mods viel mehr Speicher als im Original benötigen.
Zudem steigt der Speicherverbauch nur sehr wenig mit der Auflösung.

Wir reden auch über eine Karte welche erst erscheint und frühsten in 2 Jahren abgelöst wird.

Ob eine 4060/8 eine 3060/12 tatsächlich in Steam an der Spitze ablösen kann bezweifle ich.
Sofern die 3060/12 Variante weiterhin kaufbar Bleibt.

Lassen wir uns mal von den Monochips seitens AMD überraschen.
 
  • Gefällt mir
Reaktionen: vti
shaboo schrieb:
Wie soll das schon großartig sein können? Schon mal was von unterschiedlichen Systemvoraussetzungen gehört? Fortnite läuft nun mal auf jedem Toaster; die empfohlenen(!) Anforderungen sind eine GTX 960 mit 2 GB VRAM und ein i5-7300U/Ryzen 3 3300U. Mit so was laden andere Spiele nicht mal das Intro ...
  • SYSTEMANFORDERUNGEN Hogwarts Legacy​

    Grafik: NVIDIA GeForce GTX 960 4GB or AMD Radeon RX 470 4GB

es gibt einige Spiele welche mit Mods viel mehr Speicher als im Original benötigen.
Zudem steigt der Speicherverbauch nur sehr wenig mit der Auflösung.
Wer außer der Reihe tanzt, muss eben die Musik bezahlen.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Die kogonitive Dissonanz in der Filterblase Computerbase ist relativ spannend, wie immer.
Die 4060 wird die Gruppe der 1080p Gamer kaufen, die immer noch die Mehrheit stellen.
Auf steam hat die 3060 die 1660 als meist gelistete GPU abgelöst.
Als Full HD Spieler mit den neuen Games wie "Hogwart" möchte ich weitere 5-7 Jahre Ruhe haben. Auf keinen Fall werde ich mir diese kleine 4060 kaufen, wenn dann 4070. Desweiteren werden die Strompreise in den nächsten Jahren weiter mehr als VERDOPPELT!, also wird nach einer Karte unter 200Watt TDP geschaut. Fakt ist 4060 reicht nicht für Full HD Spieler aus.
 
  • Gefällt mir
Reaktionen: MarcoHatFragen und Laphonso
DERLanky schrieb:
Ich mache die Erfahrung das mein Sohn einer der ganz wenigen mit einem PC ist. Für die Schule haben alle iPads umsonst und zum Zocken fast nur Konsolen. Auch viele Eltern spielen auf Konsole und haben zum Arbeiten Apple Geräte.

Jeder kann eben nur aus seiner "Filterblase" berichten
Und ich habe die Erfahrung gemacht, dass Schüler entweder abgelegte PCs der Eltern haben oder Notebooks fürs Gaming. Und wenn Konsole, dann nahezu immer zusätzlich zu einem vorhandenen Notebook.
Eltern mit "Apple-Geräten" kenne ich nicht. Ausgenommen natürlich diejenigen, die das beruflich benutzen wie Redakteure, SAP-Mitarbeiter etc..
Überhaupt Jahrgänge U35: überwiegend Notebook.
 
aklaa schrieb:
Fakt ist 4060 reicht nicht für Full HD Spieler aus.
Vorsicht: Solche "Fakten" sind immer die eigene Bewertung.
Ich finde auf reddit noch 970er full hd Zocker.
Die muss kein Hogwarts mehr stemmen können 9 Jahre später.

Auf low und medium settings sind da aber noch einige unterwegs, einer Karte bei der es hier 2014 schon hieß, die sei 2016 oder 2017 "tot" ;-) Von wegen...


Elden Ring Medium full Hd auf 60 fps mit einer bald 9 Jahre alten GPU..
Einer GPU, die man hier 3.5 GB VRAM SPeicherkrüppel nannte/nennt.

Die 4060 hat 8 GB VRAM, nicht 3.5.
Die 4060 wird 3 mal schneller sein als eine 970 und hat DLSS und Frame Generation.

Und da sehen manche die 4060 hier als nicht ausreichend für full FD, lol.

Computerbase Blase ;)

Wir werden hier im Jahre 2032 noch über Relikte von 4060ern in low end Gaming Kisten sprechen.
Vielleicht werden sie da schon wieder "wertvoll" (mit Augenzwinkern).

Die "Faktenlage" etalbiert sich immer bei den persönlichen Gaming usescases und Budgets.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: H6-Mobs, Pelzi, shaboo und eine weitere Person
Austronaut schrieb:
Man bekommt nicht mal mehr für 400€ eine brauchbare Karte für WQHD.
Hmmm, ich meine, klar mir wäre da auch eine 6750xt oder noch besser lieber, aber zählt die 6700xt nicht schon als brauchbare Karte für QHD?
Ergänzung ()

SonyFriend schrieb:
Wir werden die Preise bezahlen müssen, und wir werden es tun!
Nö, müssen wir nicht, habe ich auch nicht, werde ich auch nicht machen.. Ich hab andere Hobbies und von eine neue GPU pro Jahr hab ich jetzt halt auf eine neue Gitarre pro Jahr gewechselt. Das ist zwar wesentlich teurer, macht aber irgendwie mehr Spaß … und am Ende sind es meistens dann doch zwei. ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SonyFriend und Laphonso
kawanet schrieb:
Warum führst du nicht einfach ein Bsp. an, wenn du gegenteiliger Meinung bist?
Du hast doch behauptet, die Lager sind so voll? Warum soll ich jetzt Bspe. anführen?
kawanet schrieb:
Hier war die Rede von dauerhaft. Natürlich wünschen sich die Aktionäre, dass sich das auf Dauer durchsetzen lässt. Aber bleiben wir mal bei deinem AV Receiver. Benötige ich denn zwingend 5.1 und mehr um Musik oder ggf. den Fernsehton aufzupeppen? Zudem habe ich nicht umsonst angemerkt, dass mir kein Bereich bekannt ist, wo auf Dauer derartige Preis sich etablieren ließen.
Benötigt man zwingend eine Grafikkarte? Nö. Kannst auch eine CPU mit integrierter GPU nehmen. Wo ist also Dein Argument? Außer dass DU vielleicht gerade mal keinen AVR brauchst. Es gibt Leute, die gucke nicht nur TV. Die gucken auch mal einen Film oder Musikvideos, -Konzerte. Von Heimkino mal ganz zu schweigen.
Und ja ich denke, dass die Preise hoch bleiben werden. Nicht nur weil die Unternehmen gemerkt haben, dass sie ihre Ware loswerden, sondern weil sie weniger verkaufen und durch den höheren Preis den Verlust kompensieren. Die Preisentwicklung ist seit Jahren so. der Denon 4200 hat noch 1000 Eur gekostet. Die gleiche Klasse/Modellreihe, nur entsprechende Nachfolger 4800 kostet 2599 Eur. Herzlichen Glückwunsch. und selbst wenn man nicht die ca. 6J zurückgeht sondern nur 2,3 Jahre , liegen zwischen 4500/4600 und dem 4800 gut 1000 Preisaufschlag.
kawanet schrieb:
Aber um bei deinem AVR zu bleiben. Raumkorrektur lässt sich weiterhin günstig erwerben, bspw. in Form eines miniDSP. 5.1 geschenkt - natürlich setzt dies eine gewisse Maß an Flexibilität voraus, was scheinbar nicht jedem gegeben scheint...
Abgesehen von Deiner Beleidigung.... Du kannst Dir ja auch eine 4030 holen. Warum eine 4060? 4030 macht auch Bild. Das sind doch keine Argumente. Die 1060 hat vor 6, 7 Jahren schon 300 Eur gekostet. Wie kann man glauben, dass nach all den Jahren der nach, nach, nach-, Nachfolger ein Schnäppchen wird?
kawanet schrieb:
Ich könnte natürlich das Thema gänzlich anders angehen und argumentieren: Wozu, wurde der Krempel doch derart billig dazumal verramscht, dass sich im Nachgang niemand beklagen sollte. Dir sind die damaligen Preise geläufig?
Ähm ok, vielleicht waren die Grafikkarten über die Jahre zu billig? Schon mal daran gedacht? Dass irgendwann auch Ende der Fahnenstange ist mit weiter Verkleinerung und Verbesserung? Und dass NV seine Kosten durch Inflation etc. auch reinholen will? Oder die 10mrd, die sie in Extrakapazitäten investiert haben, um genug Chiplets für die neue Grafikkartengenerationen zu haben?
Ja mir sind die Preise geläufig. Man braucht nur bei Geizals in den Preisverlauf zu schauen. Da sieht man das. Außerdem beobachte ich den Markt seit Jahren.
kawanet schrieb:
Niemand, einschließlich meiner Wenigkeit erwartet, dass er Krempel permanent für kleines Geld verfügbar ist. Ist mir der Ranz zu teuer, wird sich halt in Zurückhaltung geübt, so einfach ist das. Und mit dieser Einstellung stehe ich mit Sicherheit nicht alleine dar.
Klang aber anders.
 
  • Gefällt mir
Reaktionen: Laphonso
Smartin schrieb:
Habt ihr die letzten 3 Jahre vergessen? Die 3060 wurde zeitweise für für über 800 Eur verkauft? Klar ist das nicht gut, aber was soll man machen, wenn es keine Alternative gibt.

Butter war extrem teuer, hab stattdessen Magarine verwendet. Haben wohl noch mehr so gemacht.
6 Monate später, die wissen nicht wohin mit der Butter, Preis ist wieder normal (+ übliche Teuerung).

Wenn Grafikarten extrem teuer bleiben, dann wechsel ich auf ne Konsole oder Zocke keine High-End-Spiele mehr, dann sollen die Gucken, an wen die ihre GPUs verkaufen.

Was glaubst du wohl was passiert, wenn das genug über 6 Monate machen?

Und dass man gute Grafik auch auf älterer Hardware zaubern kann, das geht! Nur warum sollten Entwickler sich arbeiten machen, wenn die Gamer so "schlau" sind und immer wieder neue Grafikkarten kaufen?

Die Konsumenten haben es in der Hand, nur leider sind die meisten Faul, können sich nicht beherrschen und oder es interessiert sie nicht.
"Nach mir die Sintflut, mir doch egal, ich kauf mir halt alle 2 Jahre ne 2000 Euro Grafikkarte, tss, was interessierts mich!" Das ist kein Neid, ich gönne es jedem, ich könnte mir auch jedes Jahr eine 2000 Euro Grafikkarte leisten, nur habe ich noch alle meine Sinne beieinander.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi und vti
Smartin schrieb:
Und dass NV seine Kosten durch Inflation etc. auch reinholen will? Oder die 10mrd, die sie in Extrakapazitäten investiert haben, um genug Chiplets für die neue Grafikkartengenerationen zu haben?
Stimme Deinem Beitrag insgesamt zu, würde hier aber ergänzen, dass Nvidia auch sehr schmerzfrei auf maximum profits geht. Da ist nicht nur der ROI für die R&D Jahre drin.

Der Witz ist, dass Nvidia so breit aufgestellt ist mit dem Portfolio, dass sie die GPU sales für Konsumer/Gamer gar nicht nötig hätten und dennoch Milliarden umsetzen würden.

Und daher agieren sie so, wie sie es tun. Und bekloppte Enthusiasten wie ich finanzieren das (durchaus bewusst) mit, die 4090 ist reines Luxusgut. Ein Spielzeug, im Wortsinne.
Ergänzung ()

flappes schrieb:
Wenn Grafikarten extrem teuer bleiben, dann wechsel ich auf ne Konsole
Plastation 5 Hogwarts Legacy mit 30 "Ultra" fps oder 40 "balanciert" fps sind dann aber auch irgendwie kein Argument mehr "pro" Konsole.
Die Limits da sind ja noch schneller als erwartet offensichtlich.
Eine 3070 bekommt man man für den Preis einer PS5, und die knackt die 30 oder 40 fps bei PS5 Settings.

Die Konsolen leben vom Plug&Play Szenario und den ganz speziellen Gaming Sessions und klar, von den Exklusivtiteln und dass man da günstiger wegkommt als bei einem PC Neukauf.

Technisch finde ich das Argument aber nicht mehr tragfähig.
 
Zuletzt bearbeitet:
Der Ausblick auf die 4060 ist im Verhältniss zu den Leistungssprüngen der anderen Leistungklassen ein Witz. Und 8GB VRAM? puhh 🙄 Wozu überhaupt diese Karte wenn die Specs und die Leistung ungefähr der 3060 ti entsprechen?
 
  • Gefällt mir
Reaktionen: C4rp3di3m, shaboo und vti
@Smartin

Nochmal zum besseren Verständnis... hier im Forum darf sehr wohl die Preisgestaltung hinterfragt werden. Ob dir dies nun genehm ist oder nicht, spielt dabei eine untergeordnete Rolle, um nicht zu sagen keine Rolle.

Smartin schrieb:
Ähm ok, vielleicht waren die Grafikkarten über die Jahre zu billig? Schon mal daran gedacht?

Logo, und der arme Aktionär wusste nicht, wie er seine Familie über die Runden bringen soll... ja nee, ist klar...

Ja mir sind die Preise geläufig. Man braucht nur bei Geizals in den Preisverlauf zu schauen. Da sieht man das. Außerdem beobachte ich den Markt seit Jahren.

Wenn dir der Markt geläufig wäre, würdest du nicht AV-Receiver für 1000,- Euro und mehr anführen, gab's den Krempel doch bereits für 299,- Euro aufwärts, in Form des AVR-X1600. Der 3500er (besseres Einmesssystem) wechselte in besten Zeiten für 650,- Mücken den Besitzer. Günstiger geht's nun wirklich nicht. Wer natürlich alle Jahre etwas Neues benötigt - weil auf der verschwenderischen Seite angesiedelt - muss halt derzeit in den sauren Apfel beißen und sollte sich nicht in Verwunderung üben.

Ob die jetzigen Preise auf Dauer zu halten sind, wage ich ebenso zu bezweifeln. Im Gegensatz zur dir möchte ich mich aber nicht endgültig festlegen - wohl auch weil meine Glaskugel weniger verlässlicher Natur ist.

mit frdl. Gruß
 
Zuletzt bearbeitet:
Smartin schrieb:
Ähm ok, vielleicht waren die Grafikkarten über die Jahre zu billig? Schon mal daran gedacht?
Bei dem Gewinn im Verhältnis zum Umsatz den Nvidia die letzten Jahre gefahren hat, waren die Karten offensichtlich nicht zu billig. Das aber trotzdem immer weiter Gewinnoptimierung betrieben wurde sieht man ja an der Nettomarge, die stieg von 25.6% in 2020 auf 36,2% in 2022, natürlich soll das so gehalten bzw. am besten noch weiter ausgebaut werden.

Als Kunde sollte man sich die Frage stellen ob es sinnvoll ist das durch Kauf zu unterstützen oder ob man nicht lieber mal verzichtet, um das Unternehmen evtl. in die andere Richtung zu drängen.
 
  • Gefällt mir
Reaktionen: Mcr-King und anarchie99
Persönlich würde ich zudem davon ausgehen, dass solche Preisauswüchse zu mehr Nachhaltigkeit anregen.. sprich, dem Krempel länger die Treue gehalten wird. Welcher Konsument lässt sich schon gerne abgreifen?

mit frdl. Gruß
Ergänzung ()

Smartin schrieb:
Es gibt Leute, die gucke nicht nur TV. Die gucken auch mal einen Film oder Musikvideos, -Konzerte. Von Heimkino mal ganz zu schweigen.

Meine Wenigkeit inbegriffen... von daher auch mein Hinweis, dass sich dies auch per 2.0 bzw. 2.1 recht gut bewerkstelligen lässt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pelzi
8GB VRAM fand ich damals 2016 mit dem Kauf meiner GTX 1080 mega. Heute würde ich 8GB nicht mal mehr mit der Kneifzange anfassen. Es ist von vorne bis hinten zu wenig, auch für 1080p.
Wie schon das Ampere Line-up ist alles unter 90er-Karte ein stinkender Kompromiss. Nvidia macht das schon richtig. Die Leute kaufen ja eh.
 
  • Gefällt mir
Reaktionen: C4rp3di3m, Bänki0815 und Mcr-King
Zurück
Oben