News Fortschritte bei Raytracing und AI: AMD bestätigt Radeon RX 8000 für Anfang 2025

Ich finde es extrem schade das AMD den Kampf die Krone zu erhalten aufgegeben hat im GPU Segment.
Ist es nicht der Anspruch den Konkurrenten zu schlagen. Das ist doch auch die Motivation dahinter.
Auch wenn eine 8900XTX 3000€ kostet, 32GB Ram und 800Watt zieht, aber Hauptsache besser als Nvidia's HighEnd Modell.

Der aktuelle AMD Chip ist ok und der neue wird vielleicht etwas runder. Aber aktuell würde ich leider zu Nvidia greifen.
 
Tharan schrieb:
Es gibt vier Säulen: Leistung, Effizienz, Preis und Treiber. Und in der verbreiteten Meinung denken die meisten bei AMD bekomm ich maximal 2 davon, aber wollen eben bei einem 50%-Gefühl halt nicht viele hundert Euro ausgeben, das fällt bei Nvidia leichter, weil man da über die Themen gleichmäßiger abschneidet.

Casillas schrieb:
Oh Mann. Wie kann man nur so eingebildet sein und denken, dass man weiß was „die Meisten“ denken. Bist du Politiker?

MaverickM schrieb:
Er hat doch Recht mit seiner Ausführung? AMD Grafikkarten haben ungerechtfertigter Weise einen schlechten Ruf, den sie auch nicht loswerden.

@MaverickM

1. Mal völlig losgelöst von dem, was er da gesagt hat, finde ich die Formulierung von Tharan sehr gewagt. "Die meisten" denken. Woher will er wissen, was die meisten denken?

2. Findest du wirklich, dass er mit seinen Formulierungen zu seinen 4 Säulen wirklich recht hat? von denen man maximal 2 bekommt? Wenn dem so wäre, wäre AMD schon lange weg vom Fenster.
 
  • Gefällt mir
Reaktionen: cbmik und Clonedrone
Glaube nicht, dass ich nächstes Jahr schon die 6900XT ersetzen werde. Ich bin mit 1440p / 75 noch bei High-Ultra, oft unter 200W. Abwarten, wie sich spieleseitig die Anforderungen an RTGI Fähigkeiten erhöhen, aber meistens bin ich eh 1-2 Jahre mit den Titeln hinterher.
 
An alle die eine 6900 XT oder 6800 XT haben, die könnt ihr ja noch easy zu Geld machen und dann auf ein größeres Modell umsteigen. Jetzt ist besser wie nie. ;)

Die 7900 XT wird wahrscheinlich attraktiv bleiben, 20 GB Speicher sind einfach "alternativlos" im Preissektor. Durch Cashback oder free Games ist der Preis ja auch schon gesunken.
Warum warten? Jetzt Spaß haben und nicht in 5 Monaten. Am Ende ist die Leistung vielleicht sogar enttäuschend vom nächsten Release.
 
  • Gefällt mir
Reaktionen: Wanderwisser, Lonex88, MaverickM und eine weitere Person
Wenn rdna4 signifikant besser sein soll als rdna3, müsste die 7900xtx geschlagen werden? Sonst hätte sie dazu sagen müssen in der jeweiligen Produktkategorie :)

Fsr 4 muss jetzt langsam mal liefern, langsam nervts.
 
Casillas schrieb:
Woher will er wissen, was die meisten denken?

Kann er nicht. Aber die Schlussfolgerung liegt angesichts von 88%+ Marktanteil doch sehr nahe, das viele so denken. Zumal ich immer wieder auf Leute stoße, die eine völlig irrationale, fest eingefahrene Meinung zu AMD Grafikkarten haben.

Casillas schrieb:
Findest du wirklich, dass er mit seinen Formulierungen zu seinen 4 Säulen wirklich recht hat?

Ich würde es so nicht formulieren. Aber im Kern ist die Aussage, das viele Leute denken, AMD Grafikkarten wären schlecht. Und das ist wie gesagt eine Beobachtung die ich absolut teilen kann. Was die jeweiligen Gründe oder vermeintlichen Vorurteile angeht, spielt eigentlich schon gar keine große Rolle mehr. AMD hat ein riesiges Image-Problem, außerhalb der Tech-Enthusiast-Bubble.
 
  • Gefällt mir
Reaktionen: NMA, iron_monkey und Nihil Baxxter
Nuklon schrieb:
Nur Mittelklasse, nur Fokus auf KI und Raytracing? Wer soll da die Zielgruppe sein?
90% der weltweiten gamer, highend findet nur im promilebreich statt. amd will ja geld verdienen und eine breite masse an usern ansprechen.
 
  • Gefällt mir
Reaktionen: sentry0815
Duran schrieb:
Die 7900 XT wird wahrscheinlich attraktiv bleiben, 20 GB Speicher sind einfach "alternativlos" im Preissektor. Durch Cashback oder free Games ist der Preis ja auch schon gesunken.
Warum warten? Jetzt Spaß haben und nicht in 5 Monaten. Am Ende ist die Leistung vielleicht sogar enttäuschend vom nächsten Release.

Das sehe ich tatsächlich sehr ähnlich. Mich reizen die Verbesserungen bei Raytracing sehr. Aber das es "nur" eine Mittelklasse-Karte mit 16GiB Speicherausbau werden soll, stößt mir schon etwas sauer auf. Daher werde ich wohl nicht warten, und mir eine 7900XT(X) holen.
 
daknoll schrieb:
Kann ich das jetzt messen oder ist es doch eher nur "Bauchgefühl"?
Das messen wir und andere Redaktionen/Tester immer wieder. Wenn das "nur Bauchgefühl" wäre würde ich das hier selbstverständlich nicht schreiben. Ich wiederhole aber: Ich seh das persönlich nicht als großes Ding, weil es bei der Kaufentscheidung irrelevant ist. Es gibt einfach keine Grafikkarten mit Speicher-Konfigurationen, die so eng beieinander liegen, dass es deswegen zu einem Overlap käme. Für Full HD sollten es bei einem Neukauf 10 GB sein, für WQHD mindestens 12 GB und für UHD 16 GB. Ob die GeForce mit 12 GB nun de facto "manchmal 13 GB hat", ist da recht egal.
 
  • Gefällt mir
Reaktionen: Ja_Ge
So ist das. Wenn der VRAM nicht reicht ist die GPU für den Anwendungsfall nicht die richtige. Anwendungsfall verändern (Detailregler) oder passende GPU kaufen.

Verstehe auch die Diskussionen dazu nicht immer. Wenn festgestellt wird dass ein Netzteil nicht ausreicht, wird hier im Forum sofort empfohlen es gegen ein ausreichendes auszutauschen, alternativ noch zu versuchen via UV etc. Verbrauch zu reduzieren, wenn es „gerade so“ nicht reicht. Dass verschiedene Netzteile von verschiedenen Herstellern dabei unterschiedliche Belastungsgrenzen haben erzeugt dabei keine seitenlange Diskussion inklusive der Analyse von Spannungswandlern, Gleichrichtern und Glättungskondensatoren.

Was die demnächst erst neu erscheinenden AMD GPUs angeht gebe ich daknoll aber schon Recht. Wirklich wissen wie die Karten sich bei überlaufenden VRAM verhalten bzw. ob sich zu vorherigen Gernerationen was ändert kann man doch jetzt noch nicht?
 
gustlegga schrieb:
Gibt ein Video von HWUB dazu, wo es aber generell um das Thema zuwenig VRAM geht.
Anhang anzeigen 1538531

Bei dem Bild läuft aber generell etwas schief. Die Framerate mal hingestellt wird die GPU inkl. VRAM nicht richtig genutzt. Falls die Release-Version herangezogen wurde ist diese auch inzwischen massiv gepatched und läuft auch auf einer 3070 butterweich. Genug normaler RAM sollte natürlich auch vorhanden sein. Mit 16Gb braucht man da nicht anzufangen.

 
Duran schrieb:
An alle die eine 6900 XT oder 6800 XT haben, die könnt ihr ja noch easy zu Geld machen und dann auf ein größeres Modell umsteigen. Jetzt ist besser wie nie. ;)

Die 7900 XT wird wahrscheinlich attraktiv bleiben, 20 GB Speicher sind einfach "alternativlos" im Preissektor. Durch Cashback oder free Games ist der Preis ja auch schon gesunken.
Warum warten? Jetzt Spaß haben und nicht in 5 Monaten. Am Ende ist die Leistung vielleicht sogar enttäuschend vom nächsten Release.

Also ich sehe keinen Grund für ein Upgrade solange sich die Leistung der neuen Grafikkarten gegenüber meiner 6900XT nicht VERDOPPELT.

Die zeit wo ich immer dem neuesten zeug nachgelaufen bin ist schon lange vorbei. Vorallem bei den mittlerweile zum traurigen Standart gewordenen sehr schlecht optimierten Games macht das keinen sinn mehr.
 
  • Gefällt mir
Reaktionen: cbmik, frames p. joule und TheHille
aldaric schrieb:
Da nVidia typischerweise erst die dicken Schiffe launcht, ist hier noch nichts zu spät. nVidia will im Mainstream auch erst die 4000er los werden, bis da Karten der xx60 (Ti) Klasse kommen, wirds noch ne ganze weile dauern.
Es ist richtig, dass es bis zum GB206 und GB207 noch etwas dauern wird. Aber davon sprach ich ja auch nicht, sondern vom GB205:
CDLABSRadonP... schrieb:
Wenn sie gegen Karten auf GB205-Basis im Markt stehen, die dann schon GDDR7 nutzen werden, hat es Navi 48 schwer.
Welche Namen sie den darauf basierenden Karten geben ist dabei zweitrangig. Es kann gut sein, dass der GB205er-Vollausbau (wie Navi 48) sich in Punto Raster-Performance an 4070S / 7800 XT orientiert; denn bislang sieht der Chip vom Datenblatt her wie eine ziemliche Sparmaßnahme aus.
 
  • Gefällt mir
Reaktionen: Icke-ffm
slogen schrieb:
Ich finde es extrem schade das AMD den Kampf die Krone zu erhalten aufgegeben hat im GPU Segment.
Zwei Fragen dazu.
Wann hatte AMD mit RDNA1, 2, 3 die Chance die Krone zu erhalten?
Wann hat AMD erklärt, sie würden das High-End Segment aufgeben?

AMD hat vor einigen Wochen lediglich bestätigt, dass High-End-GPUs vorerst vom Tisch sind.
Zwischen vorerst und aufgeben ist für mich ein Unterschied. Es ist doch zu sehen, dass RDNA3 kein wirklicher Fortschritt ist. +8% bei Raster und RT. Die Leistungsaufnahme sieht unangenehm aus für diese Leistungsentfaltung zur Konkurrenz. Keiner will RDNA3 im Notebook verbauen.
Da ist es doch eher etwas positives, wenn AMD den kleineren Markt erst einmal liegen lässt, damit man sich noch stärker um die Schwachstellen kümmern kann.
 
MaverickM schrieb:
4060 und 7600 sind nun mal Einstiegsklasse. Darunter gibt es (derzeit) keine aktuellen Karten, also bestenfalls Last Gen Ultra-Low-Budget Karten wie die 3050 oder 6600.

Bei allem Respekt, aber das ist keine vailde Quelle. Auch CB spricht bei der 4060 von einer Einsteigerkarte.

Ich habe ChatGPT + Google Suche + CB + PCGH genannt... deutlicher geht es nicht!

heise: GeForce RTX 4060: Nvidia rechnet seine Mittelklasse schön
https://www.heise.de/news/Nvidia-rechnet-die-GeForce-RTX-4060-schoen-9195945.html

techradar: Die Nvidia GeForce RTX 4060: Perfekte Mittelklasse-GPU
https://global.techradar.com/de-de/...erfekte-mittelklasse-gpu-fur-die-breite-masse

Computerbase!!! „Mittelklasse“-Grafikkarten: Welche Karte ist die beste Alternative zu RTX 4060 & RX 7600?
https://www.computerbase.de/2023-07...ie-beste-alternative-zu-rtx-4060-und-rx-7600/

Chip, Alternate.... alle nennen das Ding "Mittelklasse" und du sagst nein ohne Angabe von Quellen. Das meinte ich mit ChatGPT und Google! Da stecken ja Quellen hinter. Und bei der 4070 wird entweder von oberer Mittelklasse oder unterer Oberklasse geredet.

Ich weiß auch nicht warum du dich so lange über die Begrifflichkeiten so dermaßen aufregst. Habe ja sogar geschrieben, dass du das Ding für dich auch anders einordnen kannst, weil es keine feste Zuordnung gibt. Aber für mich bleibt es eben eine Mittelklasse GPU. Und natürlich ist es die Einstiegs-GPU bei den 4000er Nvidia GPUs, aber das heißt ja noch lange nicht, dass sie nicht zur Mittelklasse gezählt werden kann.

Ich meine wenn Nvidia morgen eine 5090 herausbringt. Dann ist die 5090 auch die Einstiegs-GPU der 5000er Serie und trotzdem Highend und nicht unter Mittelklasse einzuordnen.
 
MaverickM schrieb:
mir eine 7900XT(X) holen
Ich hatte den Finger schon öfter auf dem Bestellknopf, aber meine Bude heizt sich durch meine 5700XT schon genug auf.

Ich warte jetzt ab, was mit den 8000ern kommt. Evtl. gehts dann nach der Geforce 7800XT mal wieder zu Grün.
 
@MaverickM @Hatsune_Miku wenn AMD eine 5090 für 100€ anbieten würde, dann würden 90% der Zocker die kaufen!
Das wäre wie ein vollausgestatteter 911 Porsche für 10`000€ oder einen VW ID 7 für 3'500€.
 
PusteBlume0815 schrieb:
Wenn ich ehrlich bin, hatte ich bei den Spielen, die RT unterstützten genau den gleichen Spielspaß mit aktivierten oder deaktivierten RT. Ob mir ein Spiel gefallen hat oder nicht, lag nie daran, ob es RT unterstützt oder nicht. Meistens hat mich eher der Performanceverlust (4070TI) gestört. Aber das ist halt meine persönliche Wahrnehmung.
Will sagen, RT ist eine tolle Sache aber nicht entscheidend, ob mir ein Spiel gefällt oder nicht.
Das ändert sich aber auch immer mehr. Man gucke sich mal F1 24 zum Beispiel an. Ohne RT ist es einfach optisch ein anderes Spiel und sieht um einiges schlechter aus.
 
Zurück
Oben