News Nvidia Blackwell: Spezifikationen zu RTX 5050, 5060, 5060 Ti liegen vor

Also eine RTX 4060 ist ca 45% langsamer als ne 5070. Wenn ich mir die Shader Anzahl der RTX 5050 ansehe, dann dürfte die RTX 5050 auf dem Niveau der 4060 oder leicht darunter liegen. Dann 130W und GDDR6.
Es klingt ja so als wäre die 4060 überlegen. Wäre es nicht sinnvoll die 4060 einfach weiter zu produzieren? Es sei denn die RTX 5050 gibt es für unter 280€. Dann wäre Verständnis für die Karte da.
 
  • Gefällt mir
Reaktionen: Apocalypse
Whitehorse1979 schrieb:
Doch auch weiterhin. Für so ziemlich jedes bekannte Onlinespiel. Ich hab davon aktuell 7 verschiedene im Einsatz. Maximal werden 6GB VRAM genutzt in WoW und Diablo IV. Bei den anderen Titeln ist es teilweise deutlich weniger. Final Fantasy XIV braucht nur 3GB VRAM, obwohl ich es von der Optik her deutlich besser als WoW finde. Elder Scrolls Online braucht sogar nur 2GB VRAM obwohl es eigentlich hübsch aussieht. Alle Regler dabei auf Anschlag. Kein RT. Da mir egal. Läuft alles butterweich auf einer 4060TI. Und von meiner Sorte gibts sehr viele Kund
Überrascht mich ein wenig und gleichzeitig gar nicht, das Zeug soll ja auf Antiker Hardware rennen, aber es gibt halt nicht nur von deiner Sorte viele, sondern auch jene die sich 3-6 neue Spiele im Jahr zulegen und da wird es halt diseser Tage selbst mit FHD schon mal eng mit den 8GB, nicht unlösbar eng, Aber Texturen runterdrehen scheint da jetzt schon öfters angebracht.


Und btw, BDO liebt meine 16GB, Pop-in massive reduziert zu 8GB vorher. Aber das ist ja nicht gemacht worden um auf Toastern zu laufen.
 
  • Gefällt mir
Reaktionen: Perdakles
Yosup schrieb:
Das ist sicherlich korrekt, wäre aber auch dann immernoch korrekt, wenn die Preise um 10% gesenkt würden
OK ich geb's auf. Scheinbar bin ich einfach zu blöd um zu verstehen, warum die VRAM Stagnation im Einstiegsbereich unproblematisch ist. Einige sind ja regelrechte Verfechter von Karten mit 8GB VRAM für 300€ aufwärts und wollen gar nicht mehr.
Aber bevor ich aus der Diskussion aussteige: Vor ein paar Jahren gab es die gleiche Diskussion bezüglich Karten mit 4GB und 6GB VRAM. Heute gibt es unzählige Beispiele für Spiele, die mit weniger als 8GB VRAM gar nicht mehr richtig funktionieren wie z.B. hier (wo nicht einmal mehr die Gegner dargestellt werden).

Die gleichen Probleme wird es spätestens mit Release der nächsten Konsolengeneration auch mit heutigen 8GB Karten geben. Daher kann und will ich nicht akzeptieren, dass 8GB VRAM Gaming-Karten für über 200€ verkauft werden. Die sind nämlich bald nutzlos und Elektroschrott, da kannst du dann die Settings reduzieren wie du willst, sie werden nicht zu gebrauchen sein. Warum man das gut findet, bleibt mir ein Rätsel. Wenn ich ein Produkt kaufe, möchte ich, dass es ein paar Jahre problemlos funktioniert. Zumal es das auch locker könnte, wenn Nvidia und Co. einfach mal auf ein paar Prozent Marge verzichten würden und stattdessen mehr VRAM drauf packen würden.

Wer eine 8GB Karte zu diesen Preisen möchte, kann das gerne kaufen und möge damit glücklich werden. Wer das dann aber auch noch gut findet... dem kann ich nicht helfen.
 
Zuletzt bearbeitet:
nerd. schrieb:
Spannend wird sein, womit die 9060xt denn von den alten Karten konkurriert. Wird es nur eine 7700 xt oder gar 7800 xt und falls letztere, nur mit massivem OC oder recht entspannt. 🥸
Bei Nvidia wird es wohl eng überhaupt mit der 7700xt zu konkurrieren, es sei denn der Takt überrascht hier noch. Wahrscheinlich schaffen sie das aber noch mit der 16GB ti.

Bei AMD würde ich jetzt mal bitter hoffen das 7800xt und 7700xt beide geschlagen werden. Aber es ist AMD, ein halbwegs guter Launch macht noch kein gutes Jahr.
 
@Apocalypse nun für knapp 200w die 7800xt, die 266w angegeben ist in der kleinsten Version, wäre schon etwas worüber ich mich freuen würden :)
 
@Perdakles

Es geht doch ganz einfach nur darum, dass hier bei CB 8GB nur durch den Dreck gezogen werden, obwohl es dafür einfach legitime Anwendungsfälle gibt. Ich habe bis vor kurzem sogar nur mit 4GB gespielt, denn meine Spiele funktionieren auch dann noch mit mittleren bis hohen Einstellungen. Hätte mir sicher auch noch für zwei drei Jahre ausgereicht. Aber ja das Upgrade auf 8 ist ok. Bleibt für die nächsten Jahre noch genügend Puffer, falls WoW meint sich wieder verschönern zu müssen.
 
DIe 5060TI 16GB werde ich mir für mein Mini-ITX System holen mehr aber nicht von dieser Generation.
 
Perdakles schrieb:
OK ich geb's auf. Scheinbar bin ich einfach zu blöd um zu verstehen, warum die VRAM Stagnation im Einstiegsbereich unproblematisch ist. Einige sind ja regelrechte Verfechter von Karten mit 8GB VRAM für 300€ aufwärts und wollen gar nicht mehr.
Du hast eventuell ein verzerrtes Bild von Einstiegsbereich. Ich kann jeden verstehen, der mehr als 8 GB verlötet haben möchte (zähle mich selbst dazu), aber das ist dann eben auch kein Einstieg mehr.
 
Yosup schrieb:
Ich kann jeden verstehen, der mehr als 8 GB verlötet haben möchte (zähle mich selbst dazu), aber das ist dann eben auch kein Einstieg mehr.
Sollte es aber längst sein. Genau das ist ja mein Punkt 😀 . Schon 2016! gab es 8GB Karten für ~250€: Und jetzt sieht es danach aus, dass wir 10 Jahre später immer noch bei 8GB sein werden in dem Preisbereich und sogar darüber hinaus. Warum findet man sowas gut und akzeptabel? Das sorgt doch nur dafür, dass der optische Fortschritt bei Computergrafik unnötig gebremst wird, weil man die Spiele natürlich immer noch irgendwie lauffähig machen muss auf solchen Karten.
 
  • Gefällt mir
Reaktionen: Swarley und feris
Ich sehe es so das nvidia einfach die Welt nicht anerkennen will das die software nach mehr vram schreit
Stattdessen versucht man das die Entwickler Kostenpflichtig nvidia ai tools nutzen soll um ihre software Speicheroptimiert zu werden.
Wie verblendet muss man sein nicht seine Produkte am Markt zu designen.
Spätestens zu ps6 release wird man wohl nachgeben aber ich ahne das nvidia aussteigen wird da zu kleine Margen drohen wenn sich der entry preis nicht auf min 1000$ steigt.
Das ist bald politisch zu regeln das ist Monopolistisches verhalten und man kann ahnen das es ein Kartell ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Perdakles
@Perdakles Dass wundert mich nur bedingt, da ja scheinbar nur noch Konsolen-Ports existieren und die haben ja eine gewisse Grenze bei VRAM schon mit eingebaut. Das HiRes-Mods und so Krams mehr fressen, geschenkt, aber solange eine PS4 immer noch mit Spielen unterstützt wird, sehen wir noch viele 8 GB Runden.
 
Ich bin eigentlich froh mehr als 8GB zu haben. Aber: Meine RX6700 mit ihren 10GB reicht für vieles locker aus, auch in 1440p. Ausgenommen sind die neuesten Spiele.
Man muß nur bereit ist von Ultra etwas herunter zu gehen und kein RT verwenden, was in der Leistungsklasse auch keinen Sinn macht. Im Extremfall (selten) geht man auch mal auf FHD.
Es scheint mir, daß oft 9-10GB reichen wo 8GB zu wenig ist.
"Hochleistungsgamer" werden das natürlich anders sehen.
Außerdem kann man auch mal warten bis neue Spiele optimiert und auch günstiger sind.
 
Obvision schrieb:
Ich kenn das aus dem Bekanntenkreis, da kommts manchmal auf jeden Euro an, während Gebraucht-Kauf nicht in Frage kommt
Würde es wirklich auf jeden Euro ankommen, dann käme Gebrauchtkauf definitiv in Betracht.
 
  • Gefällt mir
Reaktionen: AlanK und Perdakles
Also neu ist an den News nichts die Daten standen schon so seit Wochen bei techpowerup.. hat sich nichts geändert.
 
WommU schrieb:
Ausgenommen sind die neuesten Spiele.
Man muß nur bereit ist von Ultra etwas herunter zu gehen und kein RT verwenden, was in der Leistungsklasse auch keinen Sinn macht. Im Extremfall (selten) geht man auch mal auf FHD.
Für das was du hier beschreibst, reichen Karten, die teils bereits seit Jahren vorhanden sind und günstig als Gebrauchtware zu haben sind.
Dafür muss man keine teure Neuware kaufen, die zukünftig die gleichen Probleme aufgrund zu geringen Speichers hat wie eben jene Gebrauchtkarten.
Bzw. gibt es sogar Gebrauchtware, die mehr Speicher aufweist und auch ordentliche GPU Leistung (bspw. RTX 3080 oder RX 6750XT) und die somit sogar der bessere Deal ist als eine RTX 5060 Ti mit 8GB.

Wie man es dreht und wendet, es bleibt einfach die Tatsache, dass 8GB Speicher nicht mehr zeitgemäß sind.
Ja, meinetwegen soll man diese Speichermenge noch auf den absoluten Einstiegskarten wie der RTX 5050 verbauen, die eh für nichts weiter als maximal FullHD geignet sind.
Aber alles darüber ist mit 8GB schlicht DoA.
 
  • Gefällt mir
Reaktionen: Perdakles
Eine Gaming-GPU mit 8GB VRAM zu paaren ist ein Verbrechen - 12GB sind das allermindeste und schon ab Midrange sind 16GB angesagt.

Nvidia - the way you are meant to be played!
 
  • Gefällt mir
Reaktionen: Perdakles
Nur mal gefragt: Wie leistungsfähig ist denn eine RTX 5060 Ti mit 8GB? Wenn man schon darüber diskutiert.
 
Ja toll ^^
Jetzt kommen auch noch die "langsamen" und "unbrauchbaren" kaputten Karten von Nvidia für Wucherpreise 👍
Als ob es reichen würde einer LOWEST-End Karte 16GB zu verpassen... nur damit sie teurer wird 🤣
Komplett Sinnbefreit, aber...
Kauft ihr Lemminge, ihr werdet es sowieso machen! 😉

Rickmer schrieb:
RTX 5050 mit 128 Bit klingt für mich optimistisch. Ich hätte jetzt 96 Bit oder gar 64 Bit erwartet.
Ist egal, wird sowieso an anderer Stelle so gedrosselt, dass alles andere nicht auf Maximale Leistung gehen kann, wie die ganzen 5xxx Karten bis jetzt und auch die AMD Karten!

Matthias80 schrieb:
Ja guten Morgen,

Warum nicht wie sonst auch eine Gegenüberstellung der alten gen bzw. Vorgänger? Oder interessiert das nur bei den spitzen GPU's?

Mfg
Weil die "abkacken" würden, und zwar schon gegen die "billigeren" Vorgänger!
 
Nachos HW Tipps schrieb:
Eine RTX 5060 (TI) mit 16GB und der Leistung der 4070 Super wäre DIE Karte geworden.
[...]
Ich sollte mal beim Marketing dort anfangen.
Dann musst du da aber auch MFG2 entwickeln. Mit 12 Fake Frames wird die dann laut Nvidia Marketing auf 5090 Niveau liegen.
 
q3fuba schrieb:
Ist egal, wird sowieso an anderer Stelle so gedrosselt, dass alles andere nicht auf Maximale Leistung gehen kann, wie die ganzen 5xxx Karten bis jetzt und auch die AMD Karten!
Klar, das schon

Aber historisch gesehen wurde bei x50 Karten fast immer schneller Speicher mit engem Bus verbaut.

Dass es jetzt heißt GDDR6 an 128Bit heißt wohl, dass der Aufpreis für GDDR7 höher ist als der Aufpreis für den breiteren Bus am Chip.
 
Zurück
Oben