Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGerüchte zur RTX 50 Series: 16 GB VRAM für die GeForce RTX 5060 Ti, 8 GB für die RTX 5060
Ein Produkt im Portfolio zu haben, mit dem niemand überhaupt konkurrieren kann, ist ja wohl ne Bilderbuch-Definition von Technologieführerschaft. Preise und Preisleistung sind da völlig wumpe, zumal die 4090 selbst da gar nicht so schlecht dasteht, so als Enthusiasten-Produkt.
Amüsanter, kleingeistiger Troll bist du. Wobei, wie hat ein Kumpel vorhin gesagt, Oger würde auf dich eher als Klassifizierung zutreffen. Du bringst einfach so viel durcheinander, stellst Zusammenhänge her wo keine sind und geilst dich dran auf. Du erinnerst mich stark an zwei andere Persönlichkeiten die keine Teilnehmer hier mehr sind weil sie auch dauernd so einen Müll von sich gegeben haben.
Wenn das für AMD und Intel reicht, dann kann man ja froh sein, dass Nvidia nicht auch im Einsteiger und Mittelklassebereich Volldampf gibt, ansonsten hättest du unter Umständen bald nichts mehr im "AMD Blog" zu schreiben. Nvidia geht im übrigen in die Vollen. ~800mm² Chip, während AMD eher das macht was du Nvidia vorwirfst. Sparkurs, minimaler Aufwand (nur 2 Chips), maximaler Profit, kein High End Chip. 😄
coxon schrieb:
Du bringst einfach so viel durcheinander, stellst Zusammenhänge her wo keine sind und geilst dich dran auf.
Ach was, ich argumentiere gegen diesen übertriebenen Hate. Den finde ich nicht gut.
Was interessiert mich das Interface einer Karte, wichtig ist was die Karte am Ende leistet.
AMD ist mit RDNA2 auf ein 256bit Interface von 4096bit zurückgegangen.
Und hat das irgendwen gestört? Dich bestimmt, was?^^
Bright0001 schrieb:
Technologieführerschaft anzweifeln, weil man das zur Zeit beste Produkt einfach mal ignoriert, hab ich auch noch nicht gesehen.
Wenn die Gerüchte stimmen 350W für ne 70er TI, WOW!
Und dann nur die Hälfte an Shadern bei der 80er zur 90er, UFF, das dürfte ne dicke Lücke werden.
Bin ja mal gespannt....
Damit kann man wirklich noch die meisten Titel spielen, klar, auf low und etliche neuere Titel laufen nicht und in einigen krepiert die Karte dann am VRAM, aber so schnelllebig wie früher sind wir nicht mehr, und noch früher war es afaik noch schlimmer.
DAS ist ja auch kein Wunder. Frag mal Fans, auf welcher Konsole als Lead-Plattform das letzte GTA zuerst erschienen ist. Hör dich mal um, ob es noch lebende Zeitzeugen des 11.11.11 gibt (bitte googeln, falls das Datum nichts sagt). Schau dir nicht nur bei Bioware an, wie viele Games die in den letzten zehn Jahren releast haben -- und vergleiche das mit dem Jahrzehnt davor. Ich will nicht alles spoilern, aber: Zwischen Wolfenstein 3D und Quake 3 lag einst kein Jahrzehnt. Das ist heute was anders -- sowohl vom Volumen als auch von den Techniksprüngen.
Wie gehabt das gleiche Spiel nach kurzer Zeit.
Die 5060 TI 16GB wird am 128 Bit Bus sowie an der Rohleistung verrecken und die 5070 12GB 192 Bit Bus
am mangelnden VRAM. - "Ah Shit, Here We Go Again"
Nein, absolut nicht. Ich kann mich auch hinstellen, in einer x-beliebigen Branche ein absurdes Produkt zu absurdem Preis auf den Markt werfen und dann behaupten, ich habe die "Technologieführerschaft"... Worin die auch immer bestehen mag im konkreten Fall. Was sie nicht tut, siehe oben.
Bin mir sehr sicher, AMD könnte ein ähnlich absurdes Produkt vorstellen, das aber halt nicht Konkurrenzfähig ist. Einfach nur, weil man es kann. Kauft keiner, und jede Menge RnD Geld verpulvert, aber hey... "Technolgieführerschaft"...
hhm.., also in 2025, da sind wir endlich angekommen im Zeitalter für mind. 12-GB.
Aber was ist mit der Abwärme und dem Stromhunger?
Wird das nicht auch mal besser? oder Sky's the limit? :-(
sehr schade. Denn ich denke es gibt sicherlich, wenn man will, einen sehr guten Kompromiss, aus Leistung und Stromaufnahme unter IDLE und VOLLAST.., dazu muss aber der jeweilige Hersteller endlich mal mitspielen...
Ich glaube das mit der Erhöhung der "Watt-Zahl" erst, wenn die Grakas offiziell vorgestellt sind. Bei der RTX 4000er Serie dachte man auch, dass das nun durch die Decke gehen wird... und wurde dann so aufgelöst, dass es nur das "maximal technisch machbare" wäre und letztlich überhaupt nichts mit dem zu tun hatte, was und wie Nvidia die tatsächlichen Karten (RTX 4060... 4090) spezifiziert hatte.
Das reicht auf alle Fälle dafür aus, dass sich Nvidia mit einer RTX5060 8GB in allen Lebenslagen lächerlich macht. Gekauft wird sie wohl trotzdem, dem Marketing sei Dank....
Genau das zeichnet ein Topprodukt eines Technologieführers aus.
Aus dieser Position heraus müssen sie sich gar nicht in dem von dir genannten relevanten Preisbereich mit AMD messen lassen, sie könnten jederzeit kontern.
Der Gaul springt aber immer nur so hoch wie er muss.
Wären sie nur Marktführer sähe das anders aus, Samsung zb. hat mal vor Jahren versucht mit gleichwertigen Produkten mehr Geld zu machen in dem sie Komfortfunktionen wie USB Recording erst eine Preisklasse höher eingesetzt haben, hat nicht lange gedauert und die Modellreihe ist auf das Preisniveau der Konkurrenz gesunken. Da hatte ich mir aber schon nen LG gegönnt bei denen es das gleich 150€ günstiger gab.
Das hat NV nicht nötig weil sie eben Marktführer mit Technologievorsprung sind. NV ist die Vorgabe an der sich alle messen lassen müssen, nicht schön aber wahr.
MaverickM schrieb:
Bin mir sehr sicher, AMD könnte ein ähnlich absurdes Produkt vorstellen, das aber halt nicht Konkurrenzfähig ist.
Na ob das diesmal nicht konkurrenzfähig wäre? damals war die 7900XTX halt mit 700W nicht konkurrenzfähig, sollten 600W bei NV kommen könnte das diesmal anders sein. Was sind bei den kranken Verbräuchen schon 100W?
Graka mit NT und Mora im Enthusiastenbundle incoming. https://www.computerbase.de/2023-05...n-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/
Aber mal im Ernst.
An die 600Watt glaube ich genau aus diesem Grund erstmal nicht, das bietet nämlich genau an einem Schwachpunkt von AMD, Potenzial doch mal zu testen wie sich so eine überzüchtete Nachfolgerkarte der 7900XTX schlägt.
Ich kann mich auch hinstellen, in einer x-beliebigen Branche ein absurdes Produkt zu absurdem Preis auf den Markt werfen und dann behaupten, ich habe die "Technologieführerschaft"
Nein, das kannst du eben nicht. Bzw. mach mal, wenn das so easy ist.
Wüsste jetzt auch nicht, was an der 4090 so absurd sein sollte, ist halt ne große und teure GPU, aber absurd ist da nichts. Für den Preis einer 4090 bekommst bei Apple ja höchstens 4TB SSD-Speicher, also quasi Schnapper.
MaverickM schrieb:
Kauft keiner, und jede Menge RnD Geld verpulvert, aber hey...
Eine normale 5060 ist technisch gesehen eh nur eine ultralahme 5050.
Dafür sind 8GB ok, damit soll man wohl nur noch auf FullHD und Details auf Mittel spielen.
Dann läuft der Speicher stand heute auch noch nicht über.
Die Karte ist halt dafür doppelt so teuer wie sie sein sollte.
Und mit 8 Lanes für Aufrüster oft suboptimal, die keinen aktuellen Slot mit voller Bandbreite besitzen.
Es ist daher eh total egal, ob die 4,8 oder 32GB VRAM hat.
Es gilt: einfach nicht mehr sowas Lahmes zu überzogenen Preisen kaufen.
Wenn das nicht im Preisbereich von 200-250 Euro landet, kann man bald echt besser Intel kaufen und sich dann da mit den Treibern herumärgern und sich vor einem Spielekauf über die Lauffähigkeit informieren, zumindest war es dann nicht so teuer.
Ergänzung ()
CrimsoN3.0 schrieb:
Also wenn man böse sein möchte könnte man sagen das das NV nur macht damit man "gezwungen" wird ein Teureres Model zu kaufen mit mehr VRAM.
Ja, das kommt schon hin, dass die Karten im mittleren Bereich mit vernünftig Speicher bald besser dastehen als die Einsteigerkarten.
So wie die 4090 auch von der UVP her dank der Leistung für jedermann sehr attraktiv aussah.
Man schiebt die Drehreger unten halt imemr weiter, bis man sich die ganz teuren Karten schönreden kann und dann sogar die nimmt, obwohl die anderen Karten schon so teuer sind.
Ergänzung ()
modena.ch schrieb:
Wenn die Gerüchte stimmen 350W für ne 70er TI, WOW!
Und dann nur die Hälfte an Shadern bei der 80er zur 90er, UFF, das dürfte ne dicke Lücke werden.
Bin ja mal gespannt....
Die 400 zu 600 Watt werden schon dafür sorgen, dass man am Ende eher nur 60-70% Differenz bekommt.
Die 5090 wird aber definitiv in den kommenden 2 Jahren die einzig wahre Karte für UHD und Pathtracing sein.
Und jeder Enthusiast wird diese Karte kaufen müssen.
Man muss damit rechnen, dass die 5080 nicht mal die 4090 knacken wird.
Alleine schon wegen den 400 zu 450W sehe ich das als Anzeichen, und es wird ja auch reichen, um alle AMD Karten fernzuhalten.
Das wird also die zweite einzige KArte für UHD sein, halt die absolute Sparversion, die gerade für normale Sachen dann reichen wird, ohne die Drehregler ans Limit zu ziehen.
Und Nvidia sitzt ganz alleine am dicken Drücker und kann den Preishebel beliebig verstellen.
Jetzt bekommen die ganzen Fanboys mit ihren 90% Marktanteile die dicke Quittung, wie ich immer schon gesagt habe.
Die gefeierte Monopolstellung wird sich immer vielfältig rächen.
Intel ist zumindest danach tief gefallen, tiefer als jeder zu denken glaubte.
Die Foundries sind imerm noch im Verkaufsgespräch (letzter Technikversuch), Grafiksparte steht auch auf der Kippe.
Und Microsoft schwankt ein wenig.
Spätestens mit Trump sollte Europa ganz von Microsoft weggehen dürfen, wenn Regularien entfallen, die gegen die DSGVO etc. spielen werden.
Nicht umsonst wird ein Gegenentwurf zu Microsoft entwickelt, der alle Komponenten durch andere Softwarekomponenten unter einer Systemoberfläche ersetzen soll.
Das sieht sogar echt gut aus und ist doch längst überfällig.
Und wenn dann noch die Spieler zu Linux gehen, weil sie keine Gängelung wollen, dann kann auch Microft den Bach runtergehen, wenn Werbeeinnahmen durch das gekaufte Betriebssystem etc. aus bleiben, und die Käufer so oder so.
Es hat schon genug Firmen getroffen, nichts ist für die Ewigkeit.