News Radeon RX 9060 XT: Weitere Hinweise auf Varianten mit 8 GB und 16 GB

ElliotAlderson schrieb:
Da ist keine Beleidigung. Deine Diskussionsgrundlage sind Spekulationen. Warum regst du dich unnötig darüber auf, bevor du noch nichts handfestes hast?
Du hast unterstellt, ich würde nur "rumheulen" wollen. Das ist in meinen Augen durchaus eine Beleidigung.

Und ich stütze mich nicht nur auf Spekulationen. Man braucht sich ja nur mal die aktuelle Preislage und die vorhandenen Modelle bzw. deren Leistung anzuschauen um die kommenden Karten annähernd einordnen zu können.
An 350€ für die 9060XT 8GB glaube ich nicht. Das wird wohl mehr werden.
Aber selbst 350€ sind für eine 8GB mMn einfach zuviel, weil diese Speicherausstattung schlichtweg mittlerweile den Einstieg bei den Gaming Grafikkarten darstellt.

Letztlich werden wir ja sehen, wieviel NVidia und AMD für diese 8GB Modelle tatsächlich aufrufen werden. Aber ich glaube, ich habe gute Chancen darauf, bereits jetzt richtig zu liegen.
Ergänzung ()

Francis B. schrieb:
Ja klar, muss man halt am Regler kompensieren, irgendwo klemmts immer, außer du legst Unmengen auf den Tisch, oder bist zufrieden damit..
Das müsste aber eben nicht sein, wenn NVidia/AMD sich diesen 8GB Scheissdreck bei solchen Karten verkneifen und stattdessen passende 12GB verbauen würden.
Dann wären die Karten "rund" und der Preispunkt auch passend.

Wäre ich persönlich aktuell bzw. in nächster Zeit auf eine neue Karte im Bereich 400€ aus und es müsste Neuware sein, würde ich mir eine 7700XT mit 12GB statt solch einen 8GB Mist holen.
Dann müsste ich nämlich nicht direkt damit vorlieb nehmen, an den Texturreglern rumspielen zu müssen.
Ja, die 9060XT wird ein paar FPS mehr bringen (jedenfalls solange die 8GB ausreichen), aber ich persönlich kann auf diese FPS viel eher verzichten als auf gescheite Texturendetails bzw. überhaupt ordentlich ladende Texturen.
 
Zuletzt bearbeitet:
Die vermeintlich falsche Deklaration der GPUs setzt sich fort…
Die 9070(xt) wären fantastische Nachfolger für die x800er Karten und die kommenden 60er dementsprechend für die x700er 🙄🫣?!

Eine potentielle 9080 dann für die x900er…

Also als 6700/7700XT User taugt das doch vermutlich nichts?! We will see…
Ergänzung ()

Meza100 schrieb:
Also die Karte wäre für den Gelegenheitsspieler sicher vollkommen ausreichend. Die Gelegenheitsspieler wollen bestimmte Spiele zocken. Es muss nicht alles auf 4k / Detail auf Ultra sein. Es ist nur die Frage, wie teuer es wird und wie die Leistung wird + wie viel Strom sie braucht.

Gerade die Gelegenheitsspieler sind zu Kompromissen bereit, da sie lieber das Geld woanders rein stecken.
Und solche kaufen heutzutage meist für 400-500€ ne Karte?
Sicherlich arbeitende (meist Männer) werden das tun. Aber die Leistung ist doch auch etwas für Schüler und ggf Studierende.

Finde es mal wieder echt schwierig - früher war das mal so leicht und man hatte eine gute Auswahl…
 
  • Gefällt mir
Reaktionen: LinuxTux
Neodar schrieb:
Wäre ich persönlich aktuell bzw. in nächster Zeit auf eine neue Karte im Bereich 400€ aus und es müsste Neuware sein, würde ich mir eine 7700XT mit 12GB statt solch einen 8GB Mist holen.
Wäre ich auf eine neue aus, würde ich nicht unter 16gb und deutlich schneller als meine 6700xt kaufen und wenn's da nix gibt, warte ich..
Ist kein Grundnahrungsmittel...
Aber du und ich sind auch nicht der Markt und wenn 8GB Karten gekauft werden, scheints entweder OK zu sein, oder die Leute haben keine Impulskontrolle.
In beiden fällen steht der Hersteller in keinem schlechten Licht.
Wenn ich mal 20-30 Jahre zurück denk, da war ein gutes Spielerlebnis, wenn die FPS aus dem Daumenkinomodus heraus waren, hat das weniger Spaß gemacht?
Ich finde die ganze Diskussion einfach nur müßig, ich kann in 1080p, medium-high genauso viel spaß haben, wie in 4k ultra, da geht's um ein paar Details aber hier wird immer so getan, als ist das beste gerade mal gut genug.
Und wie gesagt, das ist die neue Realität, damit muss man sich arrangieren und es ist immernoch ein reines Luxusproblem.
 
  • Gefällt mir
Reaktionen: maxi_rodriges
Uhrenbock schrieb:
Welches Spiel kannst Du mit einer 9060XT mit 8GB VRAM nicht spielen?
Man muss ja nicht die Menge an VRAM an sich kritisieren, wenn die für die eigenen Bedürfnisse reicht. Aber mir fielen spontan einige Punkte ein, bei denen eine 16GB-Variante vorzuziehen ist:
  • 8GB-Karten sind übermäßig teuer im Vergleich zu ihren 16GB-Pendants bzw. Modellen mit mehr Leistung
  • Die Leistung der GPU wird bei 8GB oft nicht mehr durch den Chip sondern den VRAM begrenzt. Man verliert mit einer Einsteigerkarte also noch mal Leistung, die man mit mehr VRAM hätte
  • Oberhalb von FHD sind 8GB zu wenig - Punkt. Und in FHD ist die Bildqualität (nativ wie mit Upscaling) schlechter als in höheren Auflösungen. Es gibt also nur dieses eine Szenario für 8GB-Karten: Gaming in FHD. Und es gibt preislich keine Not, einen FHD-Monitor einem ähnlichen WQHD-Modell vorzuziehen. Die einzige Mehrausgabe wäre das 16GB-Modell, das zumindest nicht VRAM-limitiert wäre
 
Vll. muss auch hier erst die EU einspringen damit hier was passiert. Jede neue dedizierte GPU mit 8GB VRAM ist ja schon mutwilliger e-Waste.
 
Ich verstehe einfach nicht warum diese 8GB Dinger noch vom Stapel gelassen werden ,das bringt doch nix mehr 👎. Der Speicher kostet ja nun auch nicht so wahnsinnig viel
 
Cr4y schrieb:
Warum? Im Endeffekt habt ihr sogar eine ähnliche Meinung, nämlich dass 8GB noch klar gehen. Über was ihr diskutiert ist ja das Marketing (Name und Preis) drum herum.
Wer behauptet das es keine 8gb Karten mehr geben darf? Vielleicht jemand der glaubt es gäbe unterhalb von 60er nichts. Es ist halt spätestens ab 300 Euro schwer rechtfertigbar da die Zusatzkosten für diese Clamrock 8gb vielleicht noch 20 Euro sind.

Es ist dann halt Upselling, man will den Karten keine 16gb geben da man die für 100 Euro Aufpreis einem abnehmen will und ja 100 Euro weil viele würden das billigste Modell mit 16gb wollen.

Nun ja es würden auch 12gb und eventuell auch 10gb reichen für Lowend Modelle, besser 12, aber das ist nicht mein Problem das die mit ihren 128bit nur 8 oder 16 anbieten können, wobei es ja auch noch diese 3gb chips gibt damit könnte man auch 12gb anbieten.

Ich denke auch das das Argument mehr ein Nvidia Argument ist, da mit GDDR7 (Bandbreite) und der extrem schwachen Leistung der 5070er die Leistungsmäßig zu nah zusammen kommen könnten und man die Karte noch unsinniger macht als sie eh schon ist, hat AMD in dem Sinn nicht, ja sie wollen noch ne 12gb GRE bringen, aber das ist ah nur um Halbdefekte Chips los zu kriegen und durch die höhere bitrate und dem GDDR6 Speicher bei den 600ern wird der Abstand groß genug sein, auch wird man die 600er wegen GDDR6 und weil man keine Nvidia-abzock-preise verlangt billiger sein und damit der Preisabstand einfach größer sein.

Nvidia könnte vielleicht noch mit der Verfügbarkeit von GDDR7 daher kommen aber das argument hat AMD nicht und wenn Nvidia das bringen würde würde ich sagen nicht mein Problem zwang euch niemand auf GDDR7 zu setzen auch bei den Modellen.
 
Buuuh! Schäm‘ dich, Nvidia! Buuuh!!! Schrott! Abzocke! Wer kauft sowas, Nvidia?!?

Hoppla, ist ja AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Uhrenbock
Windell schrieb:
Die Variante mit 8GB VRAM dürfte normalerweise nicht mehr als +/- 300€ kosten und die Variante mit 16GB nicht mehr als +/- 400€.
Eine Variante mit 8GB dürfte es schlicht gar nicht mehr geben. Weder die 9060(XT) noch die 5060(Ti).
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
Guitarluke schrieb:
Hoppla, ist is AMD.
Die 8 GB sind auch bei AMD fragwürdig und kritikwürdig. Nicht dass man die Details und Co runter schrauben kann, es ist aber oft ein total iunnötiger Detailverlust, weil er oft keine Rechenleistung kostet.
 
Quidproquo77 schrieb:
Eine Variante mit 8GB dürfte es schlicht gar nicht mehr geben. Weder die 9060(XT) noch die 5060(Ti).
Es kommt meiner Meinung nach immer auf den Preis an. Das muss dann vertretbar sein für 8GB VRAM.

Klar wäre es geil wenn jede Einsteigerkarte für 250€ mit 16GB VRAM kommt, aber das ist leider ein utopischer Gedanke.
 
elefant schrieb:
Ja okay da fehlte der wichtige Teil: Welcher Gamer muss 2025 noch Hardware kaufen mit Leistung aus 2020.
Da bleibt doch jeder bei dem, was er eh schon hat. Einzige Ausnahme natürlich, es geht was kaputt.
Und jedes Jahr gibts ne neue Generation 12 jähriger, wo der Papa was preisgünstiges braucht.
 
$t0Rm schrieb:
Verstehe nur nicht, wieso das AMD macht, wenn die Vorserie 7600-7800 nur mit mindestens 12GB verfügbar waren?

EDIT: Ich meinte XT Versionen, und dann im Bezug auf eine 9060 XT
Weil AMD in dieser Generation mit nur zwei GPU-Designs (Navi 48 und Navi 44) eine möglichst breite Marktabdeckung erreichen will.
Bei Nvidia sind es fünf! Und selbst ohne den GB202 der 5090 sind's mit vier (GB203, GB205, GB206 und GB207) immer noch doppelt so viele wie bei AMD.

Deshalb muss schon der Navi 48 gleich gegen zwei Nvidia Chips antreten, die 9070 XT gegen den GB203 und die non-XT gegen den GB205.
Der Navi 44 soll dann alleine die untere Mittelklasse und den Budgetbereich abdecken, für letzteres darf er aber nicht zu viel kosten. Ein größerer Chip mit 192er SI wäre dafür wohl nicht mehr wirtschaftlich.
 
  • Gefällt mir
Reaktionen: $t0Rm
Wenn das Speicherinterface dann auch noch geändert wird, ja. Aber den Aufwand abseits einer 9070 GRE zu betreiben, halte ich für sinnlos.
 
ElliotAlderson schrieb:
Das ist aber ein anderer Kritikpunk als "8GB reichen nicht mehr aus" und das ist nun mal BS. Die 9070 XT ist Mittelklasse, dementsprechend ist die 9060 eher Richtung einstieg und das sind keine "Ultra-Karten". Wenn ich die Einstellungen auf mittel reduziere, reichen auch wieder 8GB.

Insbesondere Textur-Settings kosten halt vorwiegend Speicher, deshalb galt VRAM mal als kostengünstiges Bildquali-Upgrade (als es noch eine 8500 GT optional mit mehr VRAM als die 8800 Ultra gab). :D Man muss hier immer aufpassen, weil reservierter/allocated Speicher nicht gleich benutzter ist. Aber selbst mit ner 3060 kann ich locker z.B. KCD2 spielen auf Einstellungen, in denen später in Kuttenberg bis zu ~11GB reserviert sind. Sollte wie bei Teil 1 noch mal ein HD-Texturpaket kommen, dürfte das noch was höher gehen. Und das Spiel könnte so ein Paket durchaus gebrauchen -- denn das Spiel mag sehr VIELE Texturen haben. Manche sind aber gerade aus der Nähe trotzdem nicht unbedingt High End. Wer das am krassesten sehen will, kann ja mal in den Bildschirmfotomodus gehen und einem Huhn mit der Kamera frontal an den Schnabel fahren -- dies ist wohlgemerkt im höchsten Textur-Setting, "experimentell". Hühnchen, pardon, Pixel a la Half Life. :D

huhn.jpg


Prinzipiell sind 8GB halt 2025 das absolute Minimum. Ganz offiziell. Schon bei mehreren Games in den Anforderungen. Man kauft also eine Karte, die schon zu Release gerade Minimumspecs erfüllt -- von Games, die bereits am Markt sind. Das ist einmalig, denn historisch hatten auch Budget-Modelle erst mindestens die Hälfte des Speichers, der auf den besseren Karten verbaut war (siehe GeForce 2 MX und Folgegenerationen). Trotzdem ist prinzipiell nix gegen 8GB zu sagen. Aber es muss preislich ins Paket passen -- ansonsten gehört dieses Paket mittlerweile abgestraft. Fragt PCGH-Raff, der fährt schon seit Jahren eine Serie. Und da er VERLÄSSLICHE Kaufempfehlungen aussprechen muss, kann er sie nicht mehr ohne Einschränkungen geben.

 
Neodar schrieb:
Blödsinn.
Man muss kein Enthusiast sein um mit 8GB Probleme zu bekommen.
Mehrere Spiele haben bereits in FullHD gezeigt, dass 8GB zu wenig sein können.
Klar, wenn man nur so Krempel wie Fortnite und Co. zockt, reicht das.
Aber bei grafisch intensiveren Spielen gibt es immer häufiger Probleme.
8GB ist schlicht das Minimum, welches eine Gaming GPU heute noch haben sollte.
Das absolute Minimum würde ich heute bei so 6GB VRAM sehen.

Da denke ich jetzt in erste Linie an günstige gamingtaugliche Notebooks mit GeForce RTX 4050 Mobile, aber auch an günstige gamingtaugliche Desktops mit GeForce RTX 3050 6GB aber auch an Gebrauchtteile-Builds mit alter GeForce GTX 1660 Ti 6GB.

Und ich finde man sollte sich nicht zu sehr auf dem VRAM versteifen. Man muss bei der Enwicklung im Gaming-Bereich auch folgende zwei Dinge bedenken.

1) Hatten wir auf den Mainboards beim RAM einen Generationswechsel von DDR4 auf DDR5 und ebenso bei PCIe.

2) Wird Raytracing in vielen Games immer mehr zum Trend, und damit sinken die maximalen fps ohnehin deutlich

Und durch Beides zusammen ist es dann garnicht mehr so extrem dramatisch, wenn mal nicht Alles in den VRAM passt, sondern immer wieder aus dem RAM nachgeladen werden muss.

Aber natürlich ist tendenziell mehr VRAM immer besser als weniger VRAM. Aber am Ende muss man eben das schlucken was man angeboten bekommmt.

Cerebral_Amoebe schrieb:
RX 9060 mit 10GB und RX 9060XT mit 12GB wäre schick gewesen.
Wenn man nicht extra das Speicherinterface anpassen will wären aber 12GB nur umständlich und 10GB noch umständlicher zu erreichen.

Aber vielleicht kommen ja oben rum noch eine RX 9075 mit 12GB und eine RX 9080 und RX 9080 XT mit jeweils 24GB.

Wenn wir jetzt uns einen noch grösseren Chip mit 192 ROPs, max. 96 CUs und RT-Units, max. 6.144 ALUs und 384 Bit Speicherinferface vorstellen könnte man darauf folgendes ziehen

RT 9075: 12 GB VRAM / 72 CUs und RT-Units / 4.608 ALUs
RT 9080: 24 GB VRAM / 80 CUs und RT-Units / 5.120 ALUS
RX 9080 XT: 24GB VRAM / 96 CUs und RT-Units / 6.144 ALUs
 
Was hier alle wegen 8 GB rumheulen 🙄.
Gibt ja die 16GB Varianten auch. Wer mehr braucht, kauft also die. Und fertig.

Ist ja keine Milch oder Brot. Nur eine Grafikkarte. Sie stillt keine Grundbedürfnisse, sondern Wünsche.
 
fox40phil schrieb:
Die vermeintlich falsche Deklaration der GPUs setzt sich fort…
Die 9070(xt) wären fantastische Nachfolger für die x800er Karten und die kommenden 60er dementsprechend für die x700er 🙄🫣?!

Naja, sie haben ihren Bezeichnungsschlüssel jetzt an NVIDIA angepasst - das finde ich nicht mal schwer nachvollziehbar, würde mir nur wünschen sie würden bei der Namensgebung ein wenig Konsistent bleiben...

fox40phil schrieb:
Eine potentielle 9080 dann für die x900er…

Denke da gibt es eher eine 9070XTX als gegenstück zur 5070TiS- aber nicht mal da bin ich sicher: Mehr VRAM braucht ein neues Speicherinterace und die sollte dann halt auch mehr Leistung als die 9070XT haben was mit dem Chip wohl nicht ganz einfach ist (ich gehe nicht davon aus, das AMD auf Oberklasse Modelle Verzichtet hat, weil ihnen einfach nicht danach war - gerade vor erscheinen potentielle Mid-Gen-Karten wie einer 5070TiS und 5080Ti hätte es durchaus raum für eine 5080-Konkurrentin mit 24GB VRAM gegeben - das also keien 9080 kam dürfte auf technische Probleme zurück zu führen sein - u.U. lösen sie die ja noch, aber es ist auch gut möglich dass sie die Kapazitäten woanders einsetzen (neben der Nachfolgegeneration kommt ja vermutlich auch der PS6 Chip wieder von ihnen und u.U. wollen sie auch was von NVIDIAS Ai-Markt abhaben und haben dort ihre entwicklungspotential gebunden)...
 
Ich warte mal mit dem Preis ab.
Bis 400€ würde ich gehen bei der 16GB-Variante. Ob das realistisch ist bleibt abzuwarten.
Francis B. schrieb:
Ich finde die ganze Diskussion einfach nur müßig, ich kann in 1080p, medium-high genauso viel spaß haben, wie in 4k ultra, da geht's um ein paar Details aber hier wird immer so getan, als ist das beste gerade mal gut genug.
Und wie gesagt, das ist die neue Realität, damit muss man sich arrangieren und es ist immernoch ein reines Luxusproblem.
Ich glaube da sind meine Ansprüche gewachsen. Wenn dauernd was vor mir aufploppt dann geht mir das schon auf den Keks weil es die immersion killt.
Klar ich bin keine Grafikhure aber jeder hat seine grenzen und die Anforderungen steigen ja auch immer weiter.
 
Zurück
Oben