News Fortschritte bei Raytracing und AI: AMD bestätigt Radeon RX 8000 für Anfang 2025

Nuklon schrieb:
Nur Mittelklasse, nur Fokus auf KI und Raytracing? Wer soll da die Zielgruppe sein?
Der Preis ist der entscheidende Faktor. Klar hier im CB Forum haben eh alle ne 4090, dass das hier auf Unverständnis treffen kann ist schon verständlich. Aber abseits von den Tech Nerds kaufen die meisten Gamer bezahlbare Grafikkarten im Bereich bis 500 Euro, ansonsten wirds dann eher eine Konsole.
Die Rohleistung der AMD Karten geht aktuell vollkommen klar. Wenn man jetzt noch FSR auf das Niveau von DLSS hieven kann und dabei die Schwächen in RT ausmerzt, hat man ein sehr gutes Produkt. Der Preis wird dann darüber entscheiden, ob man Nvidia ordentlich Marktanteile abgraben kann.
Kannst dir ja mal den Steam Hardware Survey angucken, der Duschschnittsgamer hat eine 3060/4060. Das scheint also eine riesige Zielgruppe zu sein, die genau in dieser Mittelklasse kauft. Wenn AMD ne 8800XT für 499 Euro raushauen würde, könnte das ein richtiger Kassenschlager werden und Nvidia das Upselling ordentlich versalzen.
 
  • Gefällt mir
Reaktionen: Ja_Ge, TheHille, ThommyDD und eine weitere Person
Also ich frage mich ja, was AMD mit Highend denn meint. Ist das die 4080 respektive die 7900XTX? Oder reden sie da von der 4090?
Mit Letzterem könnte ich ja leben. Wenn die aber ernsthaft weniger Leistung als die größte Karte der Vorgängergeneration haben sollten, kaufe ich im Frühjahr wahrscheinlich eher mal wieder eine Nvidia nach sehr sehr langer Zeit.

Ist doch alles sehr nebulös weiterhin.
 
DevPandi schrieb:
Wobei mir da bei bestimmten Spielen auffällt, dass zwar die Nvidia-GPUs "schneller" bleiben, gleichzeitig aber Details verschlucken, während Radeons mehr Details anzeigen, dafür langsamer sind.
Kannst du diese Theorie mal mit Fakten bzw. Screenshots unterfüttern? PCGH_Raff sagt auf Nachfrage, dass die Texturqualität absolut identisch ist und der ist schon sehr lange in diesem Bereich tätig.
Die Intel Grafikchips müssten laut deiner Theorie ja noch bessere Texturen zeigen, denn deren Belegung/Verbrauch liegt nochmal höher als bei Radeons. Aber auch da ist nichts festzustellen.

Um welches Spiel handelt es sich denn beispielsweise?
 
  • Gefällt mir
Reaktionen: Innocience
RDNA2 war einfach der beste Kauf. alles was bisher so vorgestellt worden ist interessiert mich absolut nicht, weil A zu teuer (Nvidia) und B kaum Mehrleistung (AMD), so dass sich ein Upgrade lohnen würde.
 
  • Gefällt mir
Reaktionen: Inxession
Nuklon schrieb:
Nur Mittelklasse, nur Fokus auf KI und Raytracing? Wer soll da die Zielgruppe sein?
Laut all der NVidia Fanboys ist Raytracing doch DER heiße Scheiss, ohne den in Spielen gar nichts mehr geht und weshalb man unbedingt NVidia Karten haben muss.
Die Zielgruppe dürfte somit ziemlich klar sein.
 
  • Gefällt mir
Reaktionen: konkretor, eXe777 und ThommyDD
Mit KI bzw. RT braucht es vermutlich oftmals 16GB VRAM. Da müsste also die 12GB Version schon sehr günstig werden, damit die überhaupt gekauft wird. Mal abwarten...man hört ja schon munkeln, dass die 8000er Karten relativ günstig angeboten werden sollen. Was man unter "günstig" im GPU-Markt auch verstehen mag 😋
 
Nuklon schrieb:
Nur Mittelklasse, nur Fokus auf KI und Raytracing? Wer soll da die Zielgruppe sein?
Hier, ich.
Meine 5700XT möchte in die wohlverdiente Rente.
 
  • Gefällt mir
Reaktionen: konkretor, fox40phil, coral81 und eine weitere Person
@wahli
Eine RX 8800 (XT) mit mindestens 16GB VRAM, der Rasterleistung einer 7900 (GRE, XT), der Raytracing-Leistung einer RTX 4070 (Super) wird gekauft. 500-600€ wäre mir das wert. Na ja, so ungefähr.:D
 
  • Gefällt mir
Reaktionen: wahli
Quidproquo77 schrieb:
Kannst du diese Theorie mal mit Fakten unterfüttern? PCGH_Raff sagt auf Nachfrage, dass die Texturqualität absolut identisch ist und der ist schon sehr lange in diesem Bereich tätig.
Ich konnte jetzt bei mehren Tests beobachten, dass Nvidia-Grafikkarten, sobald der VRAM ausgeht, dazu neigen Texturen nur noch vereinfacht darzustellen. Das ist etwas, was mir bei Baldurs Gate 3 sowie Ratchet & Clank aufgefallen ist.

In beiden Spielen erreichten die Grafikkarten "hinnehmbare" Low- und Avg. FPS, gleichzeitig wurden Texturen nur noch vereinfacht dargstellt. Das ist im Übrigen auch etwas, was Igor getestet hat und was auch er hier beobachtet: "Die NVIDIA-Karten laufen bei identischem Speichermangel zumindest smoother als die AMD-Karten, wobei eben ein paar Inhalte verloren gehen." [Quelle]
 
  • Gefällt mir
Reaktionen: coral81, PulsarS, Obvision und 7 andere
Mein Wohnzimmer PC läuft an einem 4K Fernseher in 1080p@120fps mit einer RX6600 und Linux.
Ich hätte schon gerne die Möglichkeit in manchen Games die Auflösung hochzudrehen wenn es sich einrichten lässt.
Bin auch sehr am AV1 Encoder interessiert aber ich hoffe dieser Bug ist gefixt: https://github.com/GPUOpen-LibrariesAndSDKs/AMF/issues/423 sonst muss ich dann doch mal schauen ob das mit Nvidia besser geht.
 
Ayo34 schrieb:
Warum will man dann die Mittelklasse, wo jede Performance gebraucht wird, mit einem stärkeren Raytracing ausstatten? Bei Nvidia nutzen auch die wenigsten Raytracing mit einer 4060.

die mittelklasse ist wohl eher rtx4070super. und nicht rtx4060. Und dort nutzen bestimmt die meissten RT.

wenn AMD es schaffen würde mit der 4070super oder 5070 mitzuhalten, währe das ein großer schritt voraus.
 
  • Gefällt mir
Reaktionen: FeelsGoodManJPG
Hoffentlich schließt AMD dann bei Raytracing mit Nvidia und Intel auf. Dann hören damit hoffentlich die ganzen "Raytracing ist unwichtig"-Kommentare auf.
 
  • Gefällt mir
Reaktionen: Sirhaubinger und Quidproquo77
Schon lustig, wie hier einige ein geradezu Merz'sches Verständnis von Mittelklasse haben. Egozentrismus könnte man es auch nennen. Das Ansinnen, einen 144Hz-Monitor, womöglich noch mit UHD, nativ betreiben zu wollen, ist ein absolutes Nerd-Thema. Daran ist nichts mehr Mittelklasse. Mittelklasse bedeutet vielleicht QHD mit 60FPS.

Da Raytracing in immer mehr Spielen geboten wird, dieses aber bei AMD immer die Achillesferse gewesen ist und auch bei nVidia ehrlicherweise in der Mittelklasse (300-500€) nicht wirklich nutzbar ist (doppelte Leistung gegenüber AMD bedeutet halt in dem Fall den Unterschied zwischen völlig unspielbar und immer noch ziemlich unspielbar), sondern eher High End erfordert, ist es nur folgerichtig und lobenswert, dass AMD auf diesem Gebiet die größten Anstrengungen unternimmt. Die Demokratisierung von Features - in diesem Fall RT - ist absolut nötig. Gleiches gilt für KI-Upscaling, gerade im Hinblick auf größer werdende Bidschirme.
 
  • Gefällt mir
Reaktionen: fox40phil, janer77, Wanderwisser und 6 andere
Nuklon schrieb:
Nur Mittelklasse, nur Fokus auf KI und Raytracing? Wer soll da die Zielgruppe sein?

Schau dir halt mal die Steam Charts an? Mittelklasse ist der Massenmarkt des Grafikkartensektors.
 
  • Gefällt mir
Reaktionen: konkretor und Mysterion
Die RDNA 3 Karten besitzen KEINE dedizierten Raytracing-Einheiten, es werden die Textur-Einheiten befähigt, diese Berechnungen auszuführen.

Das kann natürlich nicht so performant sein, wie das bei den nVidia-Karten mit hochspezialisierten Einheiten in der dritten Generation der Fall ist.

Wenn man sich jetzt noch entsprechend optimierte Spiele anschaut, die Raytracing vernünftig einsetzen, dann liegen nur noch 10 - 20 % zwischen einer 4090 und 7900 XTX, sehr schön zu sehen in Metro Exodus und Star Wars Jedi Survivor. Alan Wake 2 ist für mich eine 4090-Technologiestudie, denn selbst dort ist massives Upscaling + FG notwendig, damit das überhaupt spielbare Bildraten erreicht, sofern man vor Kotzen, wegen der Latenz, überhaupt etwas vom Bild erkennen kann.

Bezieht man diese wichtigen Fakten in die ewige Diskussion "AMD VS nVidia" mit ein (ohne ein Feindbild, haben viele Menschen offenbar keine Tagesstruktur) und stellt dann noch die Anzahl an ALUs gegenüber, dann liefert AMD eine wirklich beeindruckende Leistung ab.

Ich finde, diese Aspekte dürften durchaus häufiger Erwähnung finden, statt jetzt schon auf RDNA 4 und FSR 4 hoffen. Schlecht optimierte Spiele sollten nicht bedeuten, dass man die teuerste Hardware benötigt, damit zumindest ein Teil der Leistung überhaupt auf die Straße kommt. Ich halte es für sehr fragwürdig, Entwickler/Publisher für eine derart miese Arbeit auf die Weise zu "belohnen".

Mich wundert es auch nicht, dass AMD in der kommenden Generation keine High-End-Modelle anbieten möchte, denn die Absatzmenge von Mittelklasse-Karten ist einfach viel höher, als von den großen Modellen.

Ich weiß auch nicht, wo die Botschaft entstanden ist, dass AMD nie wieder High-End-Modelle anbieten wird...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor, janer77 und Nihil Baxxter
Ich wäre so froh, wenn sie AI Beschleuniger als extra Karten verkaufen würden, und diese nicht in die GPU integrieren. (falls das technisch Sinn ergibt)

Mit meiner 6900XT kann ich keine LLMs hosten und die Rohleistung ist für UWQHD einfach zu wenig und sie hat das schlimmste Spulenfiepen das ich je bei einem Gerät hören musste.

Wenn AMD kein gutes Upgrade bringt, dann muss ich wohl zu NVIDIA wechseln, auch wenn ich das eigentlich nicht möchte.
 
PusteBlume0815 schrieb:
Interessant wird noch sein, was die neuen Modelle so an Strom verbraten. Muß man ja mittlerweile auch im Auge behalten.
die sind noch nicht da, genaues kann man da jetzt noch nicht sagen, gerüchten zufolge sollen die aber wohl gleichviel oder weniger verbrauchen wie die letzten beiden generationen, dann must du da zumindest nicht zur neuen gpu auch noch nen netzteil kaufen.
war wohl eher so an die leute gedacht das die ihre rx6000 oder älter einfach nur tauschen können (amd weiß auch das nicht jeder jede generation tauscht)
 
  • Gefällt mir
Reaktionen: PusteBlume0815
Dann habe ich mit meiner kostenfreien 7900XTX wohl den letzten, fetten Backstein von AMD im System (zumindest für einige Zeit).
Ob das Dingens dann einen Wertzuwachs erhält? ^^

Schade, ich fande das Battle zwischen nVidia und AMD zu RDNA2 Zeiten superspannend und habe eigentlich darauf gehofft, dass da demnächst nochmal was aus dem Hut gezaubert wird.
 
  • Gefällt mir
Reaktionen: Wanderwisser
Zurück
Oben