News Fortschritte bei Raytracing und AI: AMD bestätigt Radeon RX 8000 für Anfang 2025

Wollte mich gerade aufregen daß ich mir letzten Freitag erst ne RX 7900 XTX gekauft habe, aber als ich die VRAM-Mengen gesehen hab war eigentlich auch schon wieder alles gut. Was soll der Rückschritt?
 
Floppy5885 schrieb:
Ist es nicht. Nvidia führt eine Texturkomprimierung durch, um möglichst wenig VRAM zu verwenden. Würde auch schon öfter auf anderen Seiten getestet. AMD verfügt erst gar nicht über die Technologie.


Natürlich ist es nicht bei jedem Spiel das gleiche aber es gibt diverse spiele die mit 4070TI und 7800XT getestet wurden. Während auf der NV 11GB belegt waren, waren es auf der AMD 13 bis 14GB

Was ein Blödsinn!

Jede DX11 kompatible GPU muss Texturkompression beherrschen, das ist Schnee von vorgestern.
Ich habe einen alten Test im Kopf, da waren die NV bei der Texturkompression etwa 6% effizienter.
Das war etwa zu RTX 2000 Zeiten, wies heute ist, kann ich nicht sagen.

Belegt werden und tatsächlich gebraucht werden sind auch zwei paar Schuhe.
Dass AMD und NV den VRAM anders verwaltet ist eindeutig so.

Ich weiss aber auch dass bei NV GPUs wenn der Speicher zur Neige geht, beim Streamen der Texturen die Quallität dieser durch die GPU oder den Treiber reduziert wird, während eine Radeon irgendwann einfach ruckelt.

@gustlegga
War es nicht NV mit mehr Driver-overhead. War doch die letzten Jahre immer mal wieder so, dass deswegen Games bei NV eher im CPU Limit liefen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Perdakles, daknoll und Ja_Ge
Ja_Ge schrieb:
Laufwerksoperationen plötzlich so langsam
Nicht nur langsam sondern gleich ganz weg. :D
Ein Freund hat mal den ganzen Tag die Ursache gesucht warum sein DVD-Brenner plötzlich weg ist.
Hatte sich von einer Chip Heft-DVD die Norton Tune-Up Utilities installiert und den Schieberegler auf "Maximale Performance" gestellt. Beim nächsten Rechnerstart wurden dann einfach die Treiber nicht mehr geladen. Ein optisches Laufwerk ist ja jetzt nicht zwingend für den PC Betrieb notwendig.
Hätte ich nicht bei ihm vorbei geschaut weil er mich wegen einem neuen SATA-Datenkabel gefragt hat, hätte er wohl sein Windows neu aufgesetzt. :lol:
 
  • Gefällt mir
Reaktionen: Ja_Ge
Tharan schrieb:
Ja, aber dafür wird aktuell halt FSR mit dem Treiber wiederum direkt in Verbindung gebracht. Und solange das nicht an DLSS rankommt und jedes Spielevideo in den Tests sagt, dass hier FSR schlechter aussieht und flimmert, wird sich das mit dem Treiberempfinden nicht ändern.
Ist bei mir nicht so, weil mir der Unterschied zwischen dem klassischen, treiberbasierten FSR1 und den neuen Implementierungen von FSR und natürlich DLLS durchaus bewusst ist. Aber wer so denkt wird vermutlich bei Fließkommaberechnung auch den Sockel für den Coprozessor suchen ;) .

Davon ab, wie weit die neuen GPUs an DLSS rankommen oder nicht bleibt erst mal Spekulation. Aber mit Features wie z.B. dem WattMan im AMD-Treiber lässt AMD den Nvidia – Treiber weit hinter sich, selbst mit der neuen Nvidia (Beta)App und Afterburner.

Letztlich hängt es davon ab was einem wichtig ist, ich zocke am 4K-TV mit einer 6700XT und einer 3070, und tatsächlich ist nach viel Testerei der mir am besten gefallende Upscaler bei einigen Games der meines TV's.
 
Phobsen schrieb:
Mit Verlaub, das ist Blödsinn.
Texturkompression ist ein sehr alter Hut,und wird zwangsweise von jedem Hersteller benutzt.
Mein letzter Stand ist, das AMD dies nur Spielseitig beherrscht es aber nicht im Treiber integriert ist. Nutzt eine Engine das nicht, nutzt die AMD Karte das auch nicht, während NV es trotzdem beherrscht.
Phobsen schrieb:
Heute geht gar nichts ohne Texturkompression, und auch AMD Karten beherrschen das seit Urzeiten.
Genau das stimmt so nicht. NV beherrscht dies Treiberseitig daher hat AMD Natural Textur Block Compression (NTBC) vorgestellt. Wann das kommen soll ist aber unklar.
Phobsen schrieb:
Aber du kannst dich diesbezüglich gerne im Netz
Das würde ich dir gerne nahe legen. Und falls du einen Bericht findest der meine Aussagen die ich getätigt habe bzgl. VRAM Usage wiederlegt, kannst du mir gerne die Quelle geben.

Phobsen schrieb:
Brustton der Überzeugung weiter das Falsche behauptest.
Wo habe ich denn etwas falsches behauptet?
Nvidia hat ein besseres VRAM Management als AMD. Dazu gibt es unzählige Berichte in dem von dir vorgeschlagenem Netz. Ebenso wenn AMD oder NV der VRAM ausgeht. Das ist zwar bei beiden nicht schön aber NV kommt bis zu einem gewissen Punkt besser damit klar.
Ich sehe daher meine Aussagen nicht als Falsch an.
 
@Floppy5885, https://www.reddit.com/r/pcmasterra...o_radeon_gpus_use_more_vram_than_nvidia_gpus/

https://gpuopen.com/download/publications/202407_MAM-MANER_NeuralTextureBlockCompression.pdf

https://www.amd.com/content/dam/amd...-docs/white-papers/amd-cdna-3-white-paper.pdf


Hinzu kommt der Fakt von nicht dargestellten Objekten in Spielen, auf Balken fällt dies nicht auf und wenn man es nicht anderes kennt auch nicht.

Zuletzt war StarWars Outlaws welches einfach mal Objekte in Distanz auf zB. 4070 viel schneller ausblendet als zB einer 4090.

Hier ist AMD bei den Balken Benchmark dann benachteiligt da durch mehr VRAM auch mehr zu sehen ist.

Apple kann ja angeblich auch mit weniger RAM alles besser, oh nee warte mit dem iPhone 15 und zu wenig RAM wird's nichts mit KI
 
  • Gefällt mir
Reaktionen: eXe777 und Ja_Ge
modena.ch schrieb:
@gustlegga
War es nicht NV mit mehr Driver-overhead.
Falls ich da nichts durcheinander bringe hatte AMD da früher das Nachsehen diesbezüglich, wodurch die unter DX11 gegenüber Nvidia immer an Leistung verloren haben, was unter DX12 ja deutlich besser wurde.
 
modena.ch schrieb:
Ich weiss aber auch dass bei NV GPUs wenn der Speicher zur Neige geht, die Texturquali durch die GPU oder den Treiber reduziert wird, während eine Radeon irgendwann einfach ruckelt.
Was aber auch Vorteile haben kann, wenn das quasi ohne Userzutun leicht die Texturqualität senkt anstatt anfängt zu ruckeln.
modena.ch schrieb:
War es nicht NV mit mehr Driver-overhead. War doch die letzten Jahre immer mal wieder so, dass deswegen Games bei NV eher im CPU Limit liefen.
Kommt drauf an bei was und für was.
NV hat mit dem 337.50 aka "Wundertreiber" dafür gesorgt, dass Teile von Berechnungen auf die CPU ausgelagert werden was dazu führt, dass die CPU Last im allgemeinen etwas steigt und im Fall von einer CPU die zu schmal ist (zu wenig CPU Cores / zu wenig Leistung) eben darin resultiert, dass die FPS eher einknicken. Letztlich ist es auch "mehr" Overhead wenn man so will.

Allerdings hat(te) es damals einen eklatanten Vorteil. Nämlich dass ein System mit NV GPU im direkten Vergleich 1:1 viel mehr DrawCalls verarbeiten konnte als ein System mit AMD GPU, was dazu führte, dass gerade seinerzeit moderne DX11 Titel mit high FPS Settings teils deutlich schneller als auf AMD GPUs liefen.

Mit RDNA2 hat AMD aber an anderer Stelle eine Bremse gelöst und das war die Abhängigkeit von High FPS Settings zur Speicherbandbreite des VRAM. Sie haben einfach eine extrem bandbreitenstarke Cachestufe eingeführt und die sorgt dafür, dass sich der Spaß letztlich umgekehrt hat. Wo früher in DX11 eine NV GPU als Pascal ggü. bspw. Vega oder Hawaii teils merklich schneller unterwegs war, schafft eine RDNA2 GPU ggü. bspw. Ampere das komplett umzudrehen, weil bei niedrigeren Auflösungen die Skalierung bei AMD besser ist - eben mitunter durch den viel schnelleren Cache.
Die höhere Arbeit für die CPU ist meines Wissens nach zumindest in Teilen immernoch drin.
 
Nuklon schrieb:
nur Fokus auf KI und Raytracing?

Wie kommst Du auf "nur"? Welchen Artikel hast Du gelesen? Die Rasterleistung bei AMD ist sehr gut. Was fehlt ist eben KI-Upsampling und mehr Raytracing-Leistung. Also wird man gezielt diese Punkte angehen. Was ist daran verkehrt?

Nuklon schrieb:
Wer soll da die Zielgruppe sein?

Die Zielgruppe erklärt sich von selbst. Die Mittelklasse, und somit der absolute Großteil der Käufer.

Ayo34 schrieb:
Raytracing ist ja aktuell nicht mal mit den Topkarten von AMD gut machbar.

Das ist faktisch einfach nur falsch. Sieh dir einfach die CB Benchmarks dazu an... :rolleyes:

Ayo34 schrieb:
Bei Nvidia nutzen auch die wenigsten Raytracing mit einer 4060.

Mal abgesehen davon, dass es tatsächlich welche machen (Was ich für wenig sinnvoll halte in dieser Leistungsklasse), ist die 4060 halt auch keine Mittel- sondern nur Einsteigerklasse.

Ayo34 schrieb:
Warum will man dann die Mittelklasse, wo jede Performance gebraucht wird, mit einem stärkeren Raytracing ausstatten?

Warum nicht? Raytracing wird nicht verschwinden, es wird immer wichtiger. Und wenn die Karten das auch in der Mittelklasse, der mitunter am Umsatzstärksten Preisklasse, vernünftig können, wird es sich auch immer weiter verbreiten. Es ist eines der Punkte, bei dem man nVidia noch hinterher hinkt. Also was spricht dagegen, diesen Punkt zu verbessern?

Ayo34 schrieb:
Entweder man greift oben an oder man konzentriert sich auf die Gamingleistung wie bisher.

Was ist das für ein Satz!? Was ist denn bitte "Gamingleistung"!? Und wieso sollte da mehr Raytracing-Leistung nicht mit drin sein?

Floppy5885 schrieb:
Bei allen AMD Karten kann man pauschal 25-30% Vram wieder abziehen, da AMDs VRAM Mangament im Vergleich zu NV schlechter ist

Das ist auch wieder so ein oft kolportierter Unsinn, für den mir bisher noch kein einziger einen wirklichen Beweis liefern konnte. Kannst Du es denn, wenn Du das hier schon erwähnst?
 
  • Gefällt mir
Reaktionen: daknoll und Ja_Ge
gustlegga schrieb:
Falls ich da nichts durcheinander bringe hatte AMD da früher das Nachsehen diesbezüglich, wodurch die unter DX11 gegenüber Nvidia immer an Leistung verloren haben, was unter DX12 ja deutlich besser wurde.
NV hatte für DX10/11 einen Sheduler im Treiber, der die Tasks verteilt hat, AMD hatte einen Sheduler in Hardware.
Das Resultat war ein höherer Treiberoverhead bei NV. Dadurch konnte NV mehr Drawcalls ziehen, ist aber später dann eher ein Overhead Problem geworden.
 
  • Gefällt mir
Reaktionen: gustlegga
fdsonne schrieb:
Was aber auch Vorteile haben kann, wenn das quasi ohne Userzutun leicht die Texturqualität senkt anstatt anfängt zu ruckeln.
Ich spiele gerade Forza Horizon 4 mit meiner 6700 auf 4K und bin erstaunt, wie gut die dynamische Anpassung hier funktioniert. Wenn das so gut implementiert ist wie in dem Spiel dann ist das echt klasse.
Aber was waren das noch für Zeiten wo es in Spielen so Regler gab, die man bei Leistungsproblem einfach etwas nach (meistens) Links verschieben konnte. Leider für viele der heutigen User (damit bist nicht du gemeint) scheinbar zu kompliziert.
 
Sublogics schrieb:
Was soll der Rückschritt?
was für ein Rückschritt? Die Klasse deiner Karte wird doch garnicht bedient. Es ist eher stillstand mit VRAM.
 
MaverickM schrieb:
Das ist faktisch einfach nur falsch. Sieh dir einfach die CB Benchmarks dazu an... :rolleyes:

Ich habe nicht gesagt, dass man bei einer AMD Karte kein Raytracing einschalten kann, aber die Leistung bricht in den meisten Fällen einfach viel zu stark ein und genau das sieht man auch bei den Benchmarks. Man muss also einen deutlich größeren Kompromiss als mit einer Nvidia Karte eingehen.

MaverickM schrieb:
Mal abgesehen davon, dass es tatsächlich welche machen (Was ich für wenig sinnvoll halte in dieser Leistungsklasse), ist die 4060 halt auch keine Mittel- sondern nur Einsteigerklasse.

Für mich die 60er Serie immer Mittelklasse bei Grafikkarten. 1060 bis 4060... das sind gute Karten mit den sehr viele alles Spielen können. Darunter gab es dann immer mal wieder kleine Karten und dann sind da auch noch die integrierten Grafikchips. Abgesehen davon kann (für mich) eine Einsteigerkarte keine 300€+ kosten. Wir sind also im Bereich der Konsolen. 70er Serie Oberklasse und 80er Karten die Topkarten für Gaming. Darüber gibt es dann eben jetzt noch die 90er, die aber häufig als reine Gamerkarten keinen Sinn machen. Da gehts einfach Richtung AI/Anwendungen.

Die RTX 4060 wird allgemein als Mittelklasse-Grafikkarte eingestuft.

Egal ob man ChatGPT fragt oder Google benutzt... CB, Alternate... alle schreiben von Mittelklasse bei der 60er Serie. Aber du kannst es auch anders einordnen. Ist ja subjektiv.

MaverickM schrieb:
Was ist das für ein Satz!? Was ist denn bitte "Gamingleistung"!? Und wieso sollte da mehr Raytracing-Leistung nicht mit drin sein?

Naja, du hast ja nicht unendliche Ressourcen und wenn du an Stelle X Leistung dazu packst, dann musst du woanders Abzüge hinnehmen. Alternativ wird die Karte sonst teurer. Und wenn man jetzt in der Mittelklasse viele Kerne für AI dazupackt, dann fehlt die Fläche und die Kosten für Rasterleistung. Und da denke ich eben, dass man in der Mittelklasse nicht zu viele Ressourcen auf Raytracing verschwenden sollte, weil es kein so wichtiges Feature ist. Oder überspitzt, was bringt mir 50% mehr Raytracing Leistung, wenn die GPU gerade mal so die Spiele mit der Rasterleistung schafft?

Schreibst du ja auch selbst, bei der 4060 macht Raytracing häufig keinen Sinn, also warum dann da Ressourcen verschwenden, die dann woanders wirklich fehlt? Bleibe dabei, Raytracing ist ein Feature, wenn man genug Leistung hat...
 
Grundgütiger schrieb:
Apple kann ja angeblich auch mit weniger RAM alles besser
iOS ist sicher besser optimiert, da alles aus einer Hand, aber auch bei Android würden 2GB fürs OS selber völlig reichen, wenn nicht die Bloatware die halben Systemressourcen wegfressen würde.
Mein 7 Jahre altes BQ AquarisX Reservetelefon, läuft mit Android14 (LineageOS) und 3GB noch recht passabel,
nur der kleine 625er Snappy ist mittlerweile ziemlich an seiner Leistungsgrenze.

Das Problem bei den Apfel-Telefonen war eher, wenn mehrere Apps geöffnet hattest und eine länger nicht genutzte wieder aus dem Hintergrund raus geholt hast dass die oft komplett neu gestartet werden musste weil, das Speichermanagement die wegen RAM-Mangel längst rausgeworfen hat.
Da hat man auch manchmal bemerkt bei mehreren geöffneten Browsertabs das die Webseiten beim Umschalten neu geladen werden mussten wenn viel Multimedagedöns enthalten ist.
Bei Androiden hatte man das Verhalten deutlich geringer durch mehr RAM.
Soviel zur "überlegenen Apple-Technik".
Die haben auch lange genug, jedesmal wenn auf dem Display was zu rendern war, alle anderen Prozesse im Hintergrund gestoppt; das erzeugt natürlich auch den Eindruck das OS würde wesentlich flüssiger reagieren, wenn der SoC sonst nix zu tun hat ausser bunte Bildchen auf den Screen zu zaubern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grundgütiger
Perdakles schrieb:
Ich hoffe du hast recht. Man kann es aber auch allein auf die Architektur beziehen: Eine RDNA4 CU ist deutlich stärker als eine RDNA3 CU. Bedeutet halt leider nicht, dass 64 RDNA4 CUs automatisch schneller als 96 RDNA3 CUs sind...
Der Fokus bei der Entwicklung von RDNA4 lag ursprünglich auf dem Chiplet-Design (Navi 41/42). Daher dürfte sich die eigentliche Kern-Architektur außer Bugfixes und ein paar Optimierungen nur wenig von RDNA3 unterscheiden. Durch die Optimierungen und bessere Fertigung dürften aber die Taktraten höher ausfallen. 50% mehr Leistung pro CU halte ich aber für ausgeschlossen. Was Raytracing und AI angeht kann man auf die IP zurückgreifen, die für den PS5 Pro Chip und CDNA entwickelt wurde.

Sollte die Leistung am oberen Ende der Erwartungen herauskommen, werde ich meine 6700XT in Rente schicken, ansonsten muss sie eine weitere Generation durchhalten.
 
Floppy5885 schrieb:
Mein letzter Stand ist, das AMD dies nur Spielseitig beherrscht es aber nicht im Treiber integriert ist. Nutzt eine Engine das nicht, nutzt die AMD Karte das auch nicht, während NV es trotzdem beherrscht.

Genau das stimmt so nicht. NV beherrscht dies Treiberseitig daher hat AMD Natural Textur Block Compression (NTBC) vorgestellt. Wann das kommen soll ist aber unklar.

Das würde ich dir gerne nahe legen. Und falls du einen Bericht findest der meine Aussagen die ich getätigt habe bzgl. VRAM Usage wiederlegt, kannst du mir gerne die Quelle geben.
Netter Versuch !
Diese Infos hast du dir hier aus dem Thread gezogen, von Menschen die mehr Ahnung haben :daumen:
Ist ein "Okay,ich habe mich geirrt" wirklich so eine unüberwindliche Hürde ?

Was die VRAM Belegung angeht, nur weil 13GB belegt sind,heißt das nicht dass das Spiel diese auch dringend benötigt.
Aber es ist praktisch für Spieleentwickler Zugriff auf schnell angebundenen Speicher zu haben !
 
Eine Nullrunde bei der Performance und dafür Halbierung der Leistungsaufnahme wäre mal was Tolles.
Dass die Effizienz von Karten wie der 4080 in fps/Watt betrachtet viel besser ist als bei den Highend-Karten vorheriger Generationen ändert ja nix daran, dass die Leistungsaufnahme insgesamt seit langem nur noch den Weg nach oben kennt.
Und es ist ja völlig wumpe wie fett der Kühler sein kann, den man sich drauf schnallt, und wie leise man die Karten trotz 300-450W damit noch gekühlt kriegt. Selbst wenn es komplett lautlos wäre, es werden trotzdem 300-450W nahezu vollständig in Form von Wärme an die Umgebung abgegeben und ins Gehäuse gepustet.
Ich finde das ist mittlerweile schon hart an der Grenze, was noch gemütlich ist, wenn der PC nicht im Nachbarraum sondern unterm Schreibtisch steht. In dieser Form muss ich ein Spiel nicht unbedingt „fühlen“.

Sollte jemand (egal ob AMD oder Intel) sowas bringen wie die Performance der 4080 bei einer TDP von 200-225W, wäre das doch prima. Die Performancekrone NVIDIA überlassen, die so wie es aussieht die Leistungsaufnahme abermals hochdrehen, und dafür die Performance der vorherigen Generation bei deutlich geringerer Leistungsaufnahme reproduzieren, das ist auch Fortschritt.
 
Zurück
Oben