News Gerüchte zur RTX 50 Series: 16 GB VRAM für die GeForce RTX 5060 Ti, 8 GB für die RTX 5060

MaverickM schrieb:
Na, wenn Du die viel relevanteren Preisbereiche mit Konkurrenz ignorierst, mag das sein.
Wenn man über die Führung in Technologiefragen spricht, sind sie halt schlicht irrelevant.

MaverickM schrieb:
Aber so ein Halo-Produkt sagt halt nicht viel aus, vor allem nicht, wenn es Konkurrenzlos dasteht.
Ein Produkt im Portfolio zu haben, mit dem niemand überhaupt konkurrieren kann, ist ja wohl ne Bilderbuch-Definition von Technologieführerschaft. Preise und Preisleistung sind da völlig wumpe, zumal die 4090 selbst da gar nicht so schlecht dasteht, so als Enthusiasten-Produkt.
 
  • Gefällt mir
Reaktionen: Ituran und Quidproquo77
coxon schrieb:
Er ist nur ein kleiner, kastrierter, verkrüppelter, behinderter und lahmer Abkömmling vom großen AD102. :freak:
Genau und so eine Mittelklassekarte, gemessen an Recheneinheiten braucht nun mal kein großes SI, da die Bandbreite völlig ausreicht. ;)
coxon schrieb:
...und ein 128bit SI ist per se nichts schlechtes, es ist einfach nur schmal.
Schmal, aber mit dem nötigen V-RAM Takt (Bandbreite) völlig ausreichend.
coxon schrieb:
Deswegen kaufe ich mir keine Grafikkarten mit nem verkrüppelten 128bit SI. Von denen hab ich nix und ich find das einfach doof.
Ach ich bin überzeugt du würdest es kaufen, wenn es von AMD käme. 😄
 
Wenn die Gerüchte stimmen 350W für ne 70er TI, WOW!
Und dann nur die Hälfte an Shadern bei der 80er zur 90er, UFF, das dürfte ne dicke Lücke werden.
Bin ja mal gespannt....
 
  • Gefällt mir
Reaktionen: JarlBallin
shaboo schrieb:
Brauchen tun die - wie schon die 24 GB bei der 4090 - eh nur Leute, die die Karte entweder beruflich nutzen oder Skyrim mit 800 Mods spielen.
Für das Ausführen von LLMs kann man nicht genug VRAM haben. Meine 7900XTX geht da oft der Speicher aus und die hat 24GB.
 
  • Gefällt mir
Reaktionen: JarlBallin
K3ks schrieb:
Damit kann man wirklich noch die meisten Titel spielen, klar, auf low und etliche neuere Titel laufen nicht und in einigen krepiert die Karte dann am VRAM, aber so schnelllebig wie früher sind wir nicht mehr, und noch früher war es afaik noch schlimmer.


DAS ist ja auch kein Wunder. :daumen:Frag mal Fans, auf welcher Konsole als Lead-Plattform das letzte GTA zuerst erschienen ist. Hör dich mal um, ob es noch lebende Zeitzeugen des 11.11.11 gibt (bitte googeln, falls das Datum nichts sagt). Schau dir nicht nur bei Bioware an, wie viele Games die in den letzten zehn Jahren releast haben -- und vergleiche das mit dem Jahrzehnt davor. Ich will nicht alles spoilern, aber: Zwischen Wolfenstein 3D und Quake 3 lag einst kein Jahrzehnt. Das ist heute was anders -- sowohl vom Volumen als auch von den Techniksprüngen. :D
 
LT.Verleum schrieb:
Wie gehabt das gleiche Spiel nach kurzer Zeit.
Die 5060 TI 16GB wird am 128 Bit Bus sowie an der Rohleistung verrecken und die 5070 12GB 192 Bit Bus
am mangelnden VRAM. - "Ah Shit, Here We Go Again" :D

Nein, so wird es nicht sein.

Sieh es einfach so, das die 4070/5070 12GB die besten FHD Karten sind, und dann passt das wieder.:D

Garniert mit dem Slogan, ''Nie war FHD Power teurer...''
 
  • Gefällt mir
Reaktionen: JarlBallin, Ituran, LT.Verleum und 2 andere
Bright0001 schrieb:
Ein Produkt im Portfolio zu haben, mit dem niemand überhaupt konkurrieren kann, ist ja wohl ne Bilderbuch-Definition von Technologieführerschaft.

Nein, absolut nicht. Ich kann mich auch hinstellen, in einer x-beliebigen Branche ein absurdes Produkt zu absurdem Preis auf den Markt werfen und dann behaupten, ich habe die "Technologieführerschaft"... Worin die auch immer bestehen mag im konkreten Fall. Was sie nicht tut, siehe oben.

Bin mir sehr sicher, AMD könnte ein ähnlich absurdes Produkt vorstellen, das aber halt nicht Konkurrenzfähig ist. Einfach nur, weil man es kann. Kauft keiner, und jede Menge RnD Geld verpulvert, aber hey... "Technolgieführerschaft"... :freak:
 
  • Gefällt mir
Reaktionen: JarlBallin
Hate01 schrieb:
Meine 7900XTX geht da oft der Speicher aus und die hat 24GB.
Frage nebenbei: Mit welchem Programm betreibst Du LLMs? Linux oder Windows oder WSL unter Windows?
 
hhm.., also in 2025, da sind wir endlich angekommen im Zeitalter für mind. 12-GB.
Aber was ist mit der Abwärme und dem Stromhunger?
Wird das nicht auch mal besser? oder Sky's the limit? :-(

sehr schade. Denn ich denke es gibt sicherlich, wenn man will, einen sehr guten Kompromiss, aus Leistung und Stromaufnahme unter IDLE und VOLLAST.., dazu muss aber der jeweilige Hersteller endlich mal mitspielen...
 
  • Gefällt mir
Reaktionen: JarlBallin und Mcr-King
DerSnacker schrieb:
Aber was ist mit der Abwärme und dem Stromhunger?
Ich glaube das mit der Erhöhung der "Watt-Zahl" erst, wenn die Grakas offiziell vorgestellt sind. Bei der RTX 4000er Serie dachte man auch, dass das nun durch die Decke gehen wird... und wurde dann so aufgelöst, dass es nur das "maximal technisch machbare" wäre und letztlich überhaupt nichts mit dem zu tun hatte, was und wie Nvidia die tatsächlichen Karten (RTX 4060... 4090) spezifiziert hatte.
 
thuering schrieb:
8GB langt voll und ganz für alle Lebenslagen aus :-)
Das reicht auf alle Fälle dafür aus, dass sich Nvidia mit einer RTX5060 8GB in allen Lebenslagen lächerlich macht. Gekauft wird sie wohl trotzdem, dem Marketing sei Dank....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
MaverickM schrieb:
vor allem nicht, wenn es Konkurrenzlos dasteht.
Genau das zeichnet ein Topprodukt eines Technologieführers aus.
Aus dieser Position heraus müssen sie sich gar nicht in dem von dir genannten relevanten Preisbereich mit AMD messen lassen, sie könnten jederzeit kontern.
Der Gaul springt aber immer nur so hoch wie er muss.

Wären sie nur Marktführer sähe das anders aus, Samsung zb. hat mal vor Jahren versucht mit gleichwertigen Produkten mehr Geld zu machen in dem sie Komfortfunktionen wie USB Recording erst eine Preisklasse höher eingesetzt haben, hat nicht lange gedauert und die Modellreihe ist auf das Preisniveau der Konkurrenz gesunken. Da hatte ich mir aber schon nen LG gegönnt bei denen es das gleich 150€ günstiger gab.

Das hat NV nicht nötig weil sie eben Marktführer mit Technologievorsprung sind. NV ist die Vorgabe an der sich alle messen lassen müssen, nicht schön aber wahr.

MaverickM schrieb:
Bin mir sehr sicher, AMD könnte ein ähnlich absurdes Produkt vorstellen, das aber halt nicht Konkurrenzfähig ist.
Na ob das diesmal nicht konkurrenzfähig wäre? damals war die 7900XTX halt mit 700W nicht konkurrenzfähig, sollten 600W bei NV kommen könnte das diesmal anders sein. Was sind bei den kranken Verbräuchen schon 100W?
Graka mit NT und Mora im Enthusiastenbundle incoming. ;)
https://www.computerbase.de/news/gr...900-xtx-jagt-mit-700-watt-die-rtx-4090.84216/

Aber mal im Ernst.
An die 600Watt glaube ich genau aus diesem Grund erstmal nicht, das bietet nämlich genau an einem Schwachpunkt von AMD, Potenzial doch mal zu testen wie sich so eine überzüchtete Nachfolgerkarte der 7900XTX schlägt.
 
  • Gefällt mir
Reaktionen: Bright0001
MaverickM schrieb:
Ich kann mich auch hinstellen, in einer x-beliebigen Branche ein absurdes Produkt zu absurdem Preis auf den Markt werfen und dann behaupten, ich habe die "Technologieführerschaft"
Nein, das kannst du eben nicht. Bzw. mach mal, wenn das so easy ist. :lol:

Wüsste jetzt auch nicht, was an der 4090 so absurd sein sollte, ist halt ne große und teure GPU, aber absurd ist da nichts. Für den Preis einer 4090 bekommst bei Apple ja höchstens 4TB SSD-Speicher, also quasi Schnapper. :D


MaverickM schrieb:
Kauft keiner, und jede Menge RnD Geld verpulvert, aber hey...
Da bist du wohl im falschen Forum unterwegs, die 4090 hat durchaus Beliebtheit; Und das nicht, weil wir alle heimlich Multimillionäre sind.
 
  • Gefällt mir
Reaktionen: Ituran und thuering
@kachiri Die 12 GB VRAM reichen auf Hyper aber nur ohne Pathtracing und ohne Frame Generation
 
  • Gefällt mir
Reaktionen: Mcr-King
Eine normale 5060 ist technisch gesehen eh nur eine ultralahme 5050.
Dafür sind 8GB ok, damit soll man wohl nur noch auf FullHD und Details auf Mittel spielen.
Dann läuft der Speicher stand heute auch noch nicht über.
Die Karte ist halt dafür doppelt so teuer wie sie sein sollte.
Und mit 8 Lanes für Aufrüster oft suboptimal, die keinen aktuellen Slot mit voller Bandbreite besitzen.
Es ist daher eh total egal, ob die 4,8 oder 32GB VRAM hat.
Es gilt: einfach nicht mehr sowas Lahmes zu überzogenen Preisen kaufen.
Wenn das nicht im Preisbereich von 200-250 Euro landet, kann man bald echt besser Intel kaufen und sich dann da mit den Treibern herumärgern und sich vor einem Spielekauf über die Lauffähigkeit informieren, zumindest war es dann nicht so teuer.
Ergänzung ()

CrimsoN3.0 schrieb:
Also wenn man böse sein möchte könnte man sagen das das NV nur macht damit man "gezwungen" wird ein Teureres Model zu kaufen mit mehr VRAM.
Ja, das kommt schon hin, dass die Karten im mittleren Bereich mit vernünftig Speicher bald besser dastehen als die Einsteigerkarten.
So wie die 4090 auch von der UVP her dank der Leistung für jedermann sehr attraktiv aussah.
Man schiebt die Drehreger unten halt imemr weiter, bis man sich die ganz teuren Karten schönreden kann und dann sogar die nimmt, obwohl die anderen Karten schon so teuer sind.
Ergänzung ()

modena.ch schrieb:
Wenn die Gerüchte stimmen 350W für ne 70er TI, WOW!
Und dann nur die Hälfte an Shadern bei der 80er zur 90er, UFF, das dürfte ne dicke Lücke werden.
Bin ja mal gespannt....
Die 400 zu 600 Watt werden schon dafür sorgen, dass man am Ende eher nur 60-70% Differenz bekommt.
Die 5090 wird aber definitiv in den kommenden 2 Jahren die einzig wahre Karte für UHD und Pathtracing sein.
Und jeder Enthusiast wird diese Karte kaufen müssen.
Man muss damit rechnen, dass die 5080 nicht mal die 4090 knacken wird.
Alleine schon wegen den 400 zu 450W sehe ich das als Anzeichen, und es wird ja auch reichen, um alle AMD Karten fernzuhalten.
Das wird also die zweite einzige KArte für UHD sein, halt die absolute Sparversion, die gerade für normale Sachen dann reichen wird, ohne die Drehregler ans Limit zu ziehen.
Und Nvidia sitzt ganz alleine am dicken Drücker und kann den Preishebel beliebig verstellen.
Jetzt bekommen die ganzen Fanboys mit ihren 90% Marktanteile die dicke Quittung, wie ich immer schon gesagt habe.
Die gefeierte Monopolstellung wird sich immer vielfältig rächen.
Intel ist zumindest danach tief gefallen, tiefer als jeder zu denken glaubte.
Die Foundries sind imerm noch im Verkaufsgespräch (letzter Technikversuch), Grafiksparte steht auch auf der Kippe.
Und Microsoft schwankt ein wenig.
Spätestens mit Trump sollte Europa ganz von Microsoft weggehen dürfen, wenn Regularien entfallen, die gegen die DSGVO etc. spielen werden.
Nicht umsonst wird ein Gegenentwurf zu Microsoft entwickelt, der alle Komponenten durch andere Softwarekomponenten unter einer Systemoberfläche ersetzen soll.
Das sieht sogar echt gut aus und ist doch längst überfällig.
Und wenn dann noch die Spieler zu Linux gehen, weil sie keine Gängelung wollen, dann kann auch Microft den Bach runtergehen, wenn Werbeeinnahmen durch das gekaufte Betriebssystem etc. aus bleiben, und die Käufer so oder so.
Es hat schon genug Firmen getroffen, nichts ist für die Ewigkeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
MaverickM schrieb:
Nein, absolut nicht. Ich kann mich auch hinstellen, in einer x-beliebigen Branche ein absurdes Produkt zu absurdem Preis auf den Markt werfen und dann behaupten, ich habe die "Technologieführerschaft"...

MaverickM schrieb:
Bin mir sehr sicher, AMD könnte ein ähnlich absurdes Produkt vorstellen, das aber halt nicht Konkurrenzfähig ist. Einfach nur, weil man es kann. Kauft keiner, und jede Menge RnD Geld verpulvert, aber hey... "Technolgieführerschaft"... :freak:
Na ganz so absurd scheinen die RTX 4090 und ihr Preis ja nicht zu sein, wenn sich diese GPU millionenfach verkauft (alleine bei Steam sind 1% der Nutzer über eine Million Personen) und hier im Forum die (mit Abstand) am häufigsten genutzte GPU ist:

https://www.computerbase.de/news/gr...m-pc-und-wie-viel-watt-darf-die-ziehen.89509/

Bei PCGH noch extremer: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Umfragen-Q2-1444427/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
memberofmayday schrieb:
Mal wieder irre faszinierend, wie die ganzen selbsternannten, realitätsverlustbehafteten Experten hier schon wieder die Hexe Nvidia verfluchen und an den Weihnachtsbaum ketten, um sie zu foltern und zu verbrennen...
Das liegt daran, dass hier in „gute“ Firmen und „schlechte“ Firmen unterschieden wird, wobei AMD beispielsweise als Retter der Entrechteten („Robin Hood“) und NVIDIA - und insbesondere deren CEO - als die Inkarnation des Bösen abgetan wird. Direkt hinter NVIDIA im Kreis der Hölle ist dann Apple übrigens 😅.

Im Endeffekt sind das alles Firmen, die betriebswirtschaftlich und vor Allem im Rahmen ihrer Möglichkeiten handeln. NVIDIA hat gerade nen Lauf und lässt sich fürstlich entlohnen, das würde vermutlich Jede(r) von uns so machen. Wären Intel und AMD eine starke Konkurrenz und es gäbe entsprechend echten Wettbewerb im Grafikkartenmarkt, würde sich das sicher positiv auf die Preisgestaltung auswirken.

Vielleicht findet perspektivisch, d.h. zukunftsorientiert auch jeder Akteur seine eigene Zielgruppe und ist glücklich: NVIDIA bedient mehr und mehr das teure Highend-Segment, AMD manifestiert sich in der Mittelklasse und Intel kümmert sich um den Einstieg bzw. „Low Budget“.
 
  • Gefällt mir
Reaktionen: LDNV
Irre faszinierend, wie einige Beiträge, die eine Speicherknappheit beklagen und damit eine Entscheidung eines Herstellers, wie ein Produkt verkauft wird. von einigen derart hart verteidigt wird und dabei irgendwelche Scheinargumente und haltlose Anschuldigungen fallen.

Egal ob es um NVIDIA, AMD, Intel oder was auch immer geht - sobald inhaltliche Kritik gebracht wird, kommen einige um die Ecke und verteidigen es mit undifferenzierten Argumenten. Leider in fast jeder News mit mehr als 3 Seiten Kommentaren zu erleben.

Ich möchte als Kunde doch einfach nur bezahlbare Grafikkarten in verschiedenen Preisbereichen, die in diesem Fall nicht schon wieder zu knapp mit Speicher bestückt werden.
Und dann bekomme ich Antworten wie "AMD bringt dafür zu wenig RT Leistung" oder es werden mir "AMD Narrative" unterstellt und plötzlich geht es um AMD vs. NVIDIA. (Da bin ich dann ausgestiegen).

Und so schaukelt sich diese Diskussion hoch, sodass es am Ende überhaupt nicht mehr um eine technische Diskussion in einem Technikforum geht, sondern um die elfundneunzigste Scheindiskussion über Politik und Wirtschaft, die nebenbei gelinde gesagt überwiegend auf populistischer Art stattfindet. Dann klinken sich die meisten Leute aus und auf Seite 10 bleibt ihr dann übrig.

Ist das so gewollt? Wenn ja - gut macht. Wenn nicht, denkt mal drüber nach :schluck:
 
  • Gefällt mir
Reaktionen: JarlBallin, Beschi, Thaliya und 2 andere
Zurück
Oben