News Gerüchte zur RTX 50 Series: 16 GB VRAM für die GeForce RTX 5060 Ti, 8 GB für die RTX 5060

MaverickM schrieb:
Na, wenn Du die viel relevanteren Preisbereiche mit Konkurrenz ignorierst, mag das sein.
Wenn man über die Führung in Technologiefragen spricht, sind sie halt schlicht irrelevant.

MaverickM schrieb:
Aber so ein Halo-Produkt sagt halt nicht viel aus, vor allem nicht, wenn es Konkurrenzlos dasteht.
Ein Produkt im Portfolio zu haben, mit dem niemand überhaupt konkurrieren kann, ist ja wohl ne Bilderbuch-Definition von Technologieführerschaft. Preise und Preisleistung sind da völlig wumpe, zumal die 4090 selbst da gar nicht so schlecht dasteht, so als Enthusiasten-Produkt.
 
  • Gefällt mir
Reaktionen: Ituran und Quidproquo77
coxon schrieb:
Er ist nur ein kleiner, kastrierter, verkrüppelter, behinderter und lahmer Abkömmling vom großen AD102. :freak:
Genau und so eine Mittelklassekarte, gemessen an Recheneinheiten braucht nun mal kein großes SI, da die Bandbreite völlig ausreicht. ;)
coxon schrieb:
...und ein 128bit SI ist per se nichts schlechtes, es ist einfach nur schmal.
Schmal, aber mit dem nötigen V-RAM Takt (Bandbreite) völlig ausreichend.
coxon schrieb:
Deswegen kaufe ich mir keine Grafikkarten mit nem verkrüppelten 128bit SI. Von denen hab ich nix und ich find das einfach doof.
Ach ich bin überzeugt du würdest es kaufen, wenn es von AMD käme. 😄
 
Quidproquo77 schrieb:
Ach ich bin überzeugt du würdest es kaufen, wenn es von AMD käme. 😄
Amüsanter, kleingeistiger Troll bist du. Wobei, wie hat ein Kumpel vorhin gesagt, Oger würde auf dich eher als Klassifizierung zutreffen. Du bringst einfach so viel durcheinander, stellst Zusammenhänge her wo keine sind und geilst dich dran auf. Du erinnerst mich stark an zwei andere Persönlichkeiten die keine Teilnehmer hier mehr sind weil sie auch dauernd so einen Müll von sich gegeben haben.
 
  • Gefällt mir
Reaktionen: eXe777 und Quidproquo77
MaverickM schrieb:
nV macht, was nVI immer macht: Maximaler Sparkurs, minimaler Aufwand, maximaler Gewinn. Und die Kunden fressen es.
Wenn das für AMD und Intel reicht, dann kann man ja froh sein, dass Nvidia nicht auch im Einsteiger und Mittelklassebereich Volldampf gibt, ansonsten hättest du unter Umständen bald nichts mehr im "AMD Blog" zu schreiben. Nvidia geht im übrigen in die Vollen. ~800mm² Chip, während AMD eher das macht was du Nvidia vorwirfst. Sparkurs, minimaler Aufwand (nur 2 Chips), maximaler Profit, kein High End Chip. 😄
coxon schrieb:
Du bringst einfach so viel durcheinander, stellst Zusammenhänge her wo keine sind und geilst dich dran auf.
Ach was, ich argumentiere gegen diesen übertriebenen Hate. Den finde ich nicht gut.
Was interessiert mich das Interface einer Karte, wichtig ist was die Karte am Ende leistet.
AMD ist mit RDNA2 auf ein 256bit Interface von 4096bit zurückgegangen.
Und hat das irgendwen gestört? ;) Dich bestimmt, was?^^
Bright0001 schrieb:
Technologieführerschaft anzweifeln, weil man das zur Zeit beste Produkt einfach mal ignoriert, hab ich auch noch nicht gesehen. :lol:
Sieh es positiv. So geht einem nie das Salz aus.:lol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bright0001
Wenn die Gerüchte stimmen 350W für ne 70er TI, WOW!
Und dann nur die Hälfte an Shadern bei der 80er zur 90er, UFF, das dürfte ne dicke Lücke werden.
Bin ja mal gespannt....
 
coxon schrieb:
(...)kleiner, kastrierter, verkrüppelter, behinderter und lahmer Abkömmling vom großen AD102(...)
coxon schrieb:
Amüsanter, kleingeistiger Troll bist du. Wobei, wie hat ein Kumpel vorhin gesagt, Oger würde auf dich eher als Klassifizierung zutreffen.
Das war das emotionale Wort zum Montag. Ne, da bin ich jetzt raus.^^
 
shaboo schrieb:
Brauchen tun die - wie schon die 24 GB bei der 4090 - eh nur Leute, die die Karte entweder beruflich nutzen oder Skyrim mit 800 Mods spielen.
Für das Ausführen von LLMs kann man nicht genug VRAM haben. Meine 7900XTX geht da oft der Speicher aus und die hat 24GB.
 
K3ks schrieb:
Damit kann man wirklich noch die meisten Titel spielen, klar, auf low und etliche neuere Titel laufen nicht und in einigen krepiert die Karte dann am VRAM, aber so schnelllebig wie früher sind wir nicht mehr, und noch früher war es afaik noch schlimmer.


DAS ist ja auch kein Wunder. :daumen:Frag mal Fans, auf welcher Konsole als Lead-Plattform das letzte GTA zuerst erschienen ist. Hör dich mal um, ob es noch lebende Zeitzeugen des 11.11.11 gibt (bitte googeln, falls das Datum nichts sagt). Schau dir nicht nur bei Bioware an, wie viele Games die in den letzten zehn Jahren releast haben -- und vergleiche das mit dem Jahrzehnt davor. Ich will nicht alles spoilern, aber: Zwischen Wolfenstein 3D und Quake 3 lag einst kein Jahrzehnt. Das ist heute was anders -- sowohl vom Volumen als auch von den Techniksprüngen. :D
 
LT.Verleum schrieb:
Wie gehabt das gleiche Spiel nach kurzer Zeit.
Die 5060 TI 16GB wird am 128 Bit Bus sowie an der Rohleistung verrecken und die 5070 12GB 192 Bit Bus
am mangelnden VRAM. - "Ah Shit, Here We Go Again" :D

Nein, so wird es nicht sein.

Sieh es einfach so, das die 4070/5070 12GB die besten FHD Karten sind, und dann passt das wieder.:D

Garniert mit dem Slogan, ''Nie war FHD Power teurer...''
 
  • Gefällt mir
Reaktionen: Ituran, LT.Verleum, Öcher Tivoli und eine weitere Person
Bright0001 schrieb:
Ein Produkt im Portfolio zu haben, mit dem niemand überhaupt konkurrieren kann, ist ja wohl ne Bilderbuch-Definition von Technologieführerschaft.

Nein, absolut nicht. Ich kann mich auch hinstellen, in einer x-beliebigen Branche ein absurdes Produkt zu absurdem Preis auf den Markt werfen und dann behaupten, ich habe die "Technologieführerschaft"... Worin die auch immer bestehen mag im konkreten Fall. Was sie nicht tut, siehe oben.

Bin mir sehr sicher, AMD könnte ein ähnlich absurdes Produkt vorstellen, das aber halt nicht Konkurrenzfähig ist. Einfach nur, weil man es kann. Kauft keiner, und jede Menge RnD Geld verpulvert, aber hey... "Technolgieführerschaft"... :freak:
 
Hate01 schrieb:
Meine 7900XTX geht da oft der Speicher aus und die hat 24GB.
Frage nebenbei: Mit welchem Programm betreibst Du LLMs? Linux oder Windows oder WSL unter Windows?
 
hhm.., also in 2025, da sind wir endlich angekommen im Zeitalter für mind. 12-GB.
Aber was ist mit der Abwärme und dem Stromhunger?
Wird das nicht auch mal besser? oder Sky's the limit? :-(

sehr schade. Denn ich denke es gibt sicherlich, wenn man will, einen sehr guten Kompromiss, aus Leistung und Stromaufnahme unter IDLE und VOLLAST.., dazu muss aber der jeweilige Hersteller endlich mal mitspielen...
 
  • Gefällt mir
Reaktionen: Mcr-King
DerSnacker schrieb:
Aber was ist mit der Abwärme und dem Stromhunger?
Ich glaube das mit der Erhöhung der "Watt-Zahl" erst, wenn die Grakas offiziell vorgestellt sind. Bei der RTX 4000er Serie dachte man auch, dass das nun durch die Decke gehen wird... und wurde dann so aufgelöst, dass es nur das "maximal technisch machbare" wäre und letztlich überhaupt nichts mit dem zu tun hatte, was und wie Nvidia die tatsächlichen Karten (RTX 4060... 4090) spezifiziert hatte.
 
thuering schrieb:
8GB langt voll und ganz für alle Lebenslagen aus :-)
Das reicht auf alle Fälle dafür aus, dass sich Nvidia mit einer RTX5060 8GB in allen Lebenslagen lächerlich macht. Gekauft wird sie wohl trotzdem, dem Marketing sei Dank....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
MaverickM schrieb:
vor allem nicht, wenn es Konkurrenzlos dasteht.
Genau das zeichnet ein Topprodukt eines Technologieführers aus.
Aus dieser Position heraus müssen sie sich gar nicht in dem von dir genannten relevanten Preisbereich mit AMD messen lassen, sie könnten jederzeit kontern.
Der Gaul springt aber immer nur so hoch wie er muss.

Wären sie nur Marktführer sähe das anders aus, Samsung zb. hat mal vor Jahren versucht mit gleichwertigen Produkten mehr Geld zu machen in dem sie Komfortfunktionen wie USB Recording erst eine Preisklasse höher eingesetzt haben, hat nicht lange gedauert und die Modellreihe ist auf das Preisniveau der Konkurrenz gesunken. Da hatte ich mir aber schon nen LG gegönnt bei denen es das gleich 150€ günstiger gab.

Das hat NV nicht nötig weil sie eben Marktführer mit Technologievorsprung sind. NV ist die Vorgabe an der sich alle messen lassen müssen, nicht schön aber wahr.

MaverickM schrieb:
Bin mir sehr sicher, AMD könnte ein ähnlich absurdes Produkt vorstellen, das aber halt nicht Konkurrenzfähig ist.
Na ob das diesmal nicht konkurrenzfähig wäre? damals war die 7900XTX halt mit 700W nicht konkurrenzfähig, sollten 600W bei NV kommen könnte das diesmal anders sein. Was sind bei den kranken Verbräuchen schon 100W?
Graka mit NT und Mora im Enthusiastenbundle incoming. ;)
https://www.computerbase.de/2023-05...n-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/

Aber mal im Ernst.
An die 600Watt glaube ich genau aus diesem Grund erstmal nicht, das bietet nämlich genau an einem Schwachpunkt von AMD, Potenzial doch mal zu testen wie sich so eine überzüchtete Nachfolgerkarte der 7900XTX schlägt.
 
  • Gefällt mir
Reaktionen: Bright0001
MaverickM schrieb:
Ich kann mich auch hinstellen, in einer x-beliebigen Branche ein absurdes Produkt zu absurdem Preis auf den Markt werfen und dann behaupten, ich habe die "Technologieführerschaft"
Nein, das kannst du eben nicht. Bzw. mach mal, wenn das so easy ist. :lol:

Wüsste jetzt auch nicht, was an der 4090 so absurd sein sollte, ist halt ne große und teure GPU, aber absurd ist da nichts. Für den Preis einer 4090 bekommst bei Apple ja höchstens 4TB SSD-Speicher, also quasi Schnapper. :D


MaverickM schrieb:
Kauft keiner, und jede Menge RnD Geld verpulvert, aber hey...
Da bist du wohl im falschen Forum unterwegs, die 4090 hat durchaus Beliebtheit; Und das nicht, weil wir alle heimlich Multimillionäre sind.
 
  • Gefällt mir
Reaktionen: Ituran und thuering
Eine normale 5060 ist technisch gesehen eh nur eine ultralahme 5050.
Dafür sind 8GB ok, damit soll man wohl nur noch auf FullHD und Details auf Mittel spielen.
Dann läuft der Speicher stand heute auch noch nicht über.
Die Karte ist halt dafür doppelt so teuer wie sie sein sollte.
Und mit 8 Lanes für Aufrüster oft suboptimal, die keinen aktuellen Slot mit voller Bandbreite besitzen.
Es ist daher eh total egal, ob die 4,8 oder 32GB VRAM hat.
Es gilt: einfach nicht mehr sowas Lahmes zu überzogenen Preisen kaufen.
Wenn das nicht im Preisbereich von 200-250 Euro landet, kann man bald echt besser Intel kaufen und sich dann da mit den Treibern herumärgern und sich vor einem Spielekauf über die Lauffähigkeit informieren, zumindest war es dann nicht so teuer.
Ergänzung ()

CrimsoN3.0 schrieb:
Also wenn man böse sein möchte könnte man sagen das das NV nur macht damit man "gezwungen" wird ein Teureres Model zu kaufen mit mehr VRAM.
Ja, das kommt schon hin, dass die Karten im mittleren Bereich mit vernünftig Speicher bald besser dastehen als die Einsteigerkarten.
So wie die 4090 auch von der UVP her dank der Leistung für jedermann sehr attraktiv aussah.
Man schiebt die Drehreger unten halt imemr weiter, bis man sich die ganz teuren Karten schönreden kann und dann sogar die nimmt, obwohl die anderen Karten schon so teuer sind.
Ergänzung ()

modena.ch schrieb:
Wenn die Gerüchte stimmen 350W für ne 70er TI, WOW!
Und dann nur die Hälfte an Shadern bei der 80er zur 90er, UFF, das dürfte ne dicke Lücke werden.
Bin ja mal gespannt....
Die 400 zu 600 Watt werden schon dafür sorgen, dass man am Ende eher nur 60-70% Differenz bekommt.
Die 5090 wird aber definitiv in den kommenden 2 Jahren die einzig wahre Karte für UHD und Pathtracing sein.
Und jeder Enthusiast wird diese Karte kaufen müssen.
Man muss damit rechnen, dass die 5080 nicht mal die 4090 knacken wird.
Alleine schon wegen den 400 zu 450W sehe ich das als Anzeichen, und es wird ja auch reichen, um alle AMD Karten fernzuhalten.
Das wird also die zweite einzige KArte für UHD sein, halt die absolute Sparversion, die gerade für normale Sachen dann reichen wird, ohne die Drehregler ans Limit zu ziehen.
Und Nvidia sitzt ganz alleine am dicken Drücker und kann den Preishebel beliebig verstellen.
Jetzt bekommen die ganzen Fanboys mit ihren 90% Marktanteile die dicke Quittung, wie ich immer schon gesagt habe.
Die gefeierte Monopolstellung wird sich immer vielfältig rächen.
Intel ist zumindest danach tief gefallen, tiefer als jeder zu denken glaubte.
Die Foundries sind imerm noch im Verkaufsgespräch (letzter Technikversuch), Grafiksparte steht auch auf der Kippe.
Und Microsoft schwankt ein wenig.
Spätestens mit Trump sollte Europa ganz von Microsoft weggehen dürfen, wenn Regularien entfallen, die gegen die DSGVO etc. spielen werden.
Nicht umsonst wird ein Gegenentwurf zu Microsoft entwickelt, der alle Komponenten durch andere Softwarekomponenten unter einer Systemoberfläche ersetzen soll.
Das sieht sogar echt gut aus und ist doch längst überfällig.
Und wenn dann noch die Spieler zu Linux gehen, weil sie keine Gängelung wollen, dann kann auch Microft den Bach runtergehen, wenn Werbeeinnahmen durch das gekaufte Betriebssystem etc. aus bleiben, und die Käufer so oder so.
Es hat schon genug Firmen getroffen, nichts ist für die Ewigkeit.
 
Zuletzt bearbeitet:
Zurück
Oben