Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Icke-ffm schrieb:
Fakt ist aber RT steckt noch in den Kinderschuhen, ist noch lange nicht ausgereift, weil es eben zuviel Leistung Kostet. nicht mal eine RTX4090 läuft mit max RT nicht durchgängig flüssig
Dann wäre aber auch Fakt, dass Rastergrafik in den Kinderschuhen steckt, komplett unausgereift ist und man diverse Effekte extrem runterschrauben muss, damit man spielbare Frameraten erhält.

Man hat nach 30 Jahren Raster 3d- Grafik immernoch Probleme realistische Schatten zu erhalten, viele schattenwerfende Lichtquellen zu Implementieren oder gar Schatten in Schatten darzustellen.

Von je nach Perspektive in sich zusammenbrechenden Spiegelungseffekten, extrem grob gerechnete global Illumination mit light- leaks aus der Hölle usw. usf. nicht zu sprechen.

Würde man diese Probleme in der Rasterengine angehen, sinkt die Leistung noch unter die, die man RTRT erhält.

Was tun? Stillstand akzeptieren, oder neue Wege gehen? Da hat man sich für Zweiteres entschieden. Irgendwann muss man halt mit neuer Technik mal anfangen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rumpeLson, Jagdwurst und Ragnarök88
@.Sentinel.
Einigt euch auf folgendes:
Intel hat 2009 RT Grafik gezeigt, aber die Marktführer (nvidia und AMD als zweiter) sahen keinen Grund in einer Implementierung. Nun, wo man eben nicht mehr mit Tesselation, 3D Whatever punkten kann,. schiebt man RT voran.. Warum? weil es überfällig ist und gerade beim Thema CGI neue Möglichkeiten eröffnet.

Der Navi31 Launch krankt an einem Treiber, der die Vec32 Einheiten nicht sauber auslasten kann... (theoretisch kann man ja 2 Befehle in einem Shader abarbeiten, was aber derzeit nur bedingt geht)
Ich sage heute vorraus, dass auch dieses Problem lösbar ist und die A0 Nummer ein Strohmann ist von denen, die eh niemals eine AMD Karte kaufen würden.
 
  • Gefällt mir
Reaktionen: ThePlayer, Bengart und .Sentinel.
So, meine ist jetzt da!
 

Anhänge

  • 14D545A6-EAD4-4C75-8B31-687E9C76251D.jpeg
    14D545A6-EAD4-4C75-8B31-687E9C76251D.jpeg
    1,4 MB · Aufrufe: 163
  • Gefällt mir
Reaktionen: McTheRipper, rumpeLson, PegasusHunter und 13 andere
.Sentinel. schrieb:
Dann wäre aber auch Fakt, dass Rastergrafik in den Kinderschuhen steckt, komplett unausgereift ist und man diverse Effekte extrem runterschrauben muss, damit man spielbare Frameraten erhält.

Man hat nach 30 Jahren Raster 3d- Grafik immernoch Probleme realistische Schatten zu erhalten, viele schattenwerfende Lichtquellen zu Implementieren oder gar Schatten in Schatten darzustellen.

Von je nach Perspektive in sich zusammenbrechenden Spiegelungseffekten, extrem grob gerechnete global Illumination mit light- leaks aus der Hölle usw. usf. nicht zu sprechen.

Würde man diese Probleme in der Rasterengine angehen, sinkt die Leistung noch unter die, die man RTRT erhält.

Was tun? Stillstand akzeptieren, oder neue Wege gehen?
RT ist ein Fortschritt, aber RT ist nicht der Fortschritt. Das Thema RT begleitet uns ja schon eine ganze weile. Und es war immer klar, das das jetzige RT alleine nicht die Lösung ist und das RT sehr ineffizient ist im Vergleich zu Rasterization.

Hier ein Artikel von 2009, der ziemlich gut die Problematik erklärt. Und der bezieht sich auf eine Zeit von 2004 an in der das Thema bei Intel, AMD, Nvidia schon diskutiert und das jetzige RT schon Teil einer Lösung war.

https://www.tomshardware.com/reviews/ray-tracing-rasterization,2351.html

Ich persönlich finde den Trade-off zwischen Aufwand (also Leistungsbereitstellung und dadurch Preis) und Ertrag nicht sehr überzeugend. D.h. nicht, das grundsätzlich RT nicht gut ist.

Hier das Zitat von einem Nvidia Mitarbeiter: "Rasterization is fast, but needs cleverness to support complex visual effects. Ray tracing supports complex visual effects, but needs cleverness to be fast." Der zweite Teil ist noch nicht gelöst, warum man unfassbar viel Rechenpower da rein stecken muss. Portal 2 zeigt das gut. Das ist schön aber nicht clever.
 
  • Gefällt mir
Reaktionen: Jagdwurst, Rockstar85 und Rambo5018
Icke-ffm schrieb:
Fakt ist aber RT steckt noch in den Kinderschuhen, ist noch lange nicht ausgereift, weil es eben zuviel Leistung Kostet. nicht mal eine RTX4090 läuft mit max RT nicht durchgängig flüssig
Spiel doch keine Rolle. Es ist DA, im Gegensatz zu DP 2.1, wo noch nichts da ist und noch lange nichts kommen wird.
 
PHuV schrieb:
Wo gibt es so einen Monitor? Hand hoch, wer plant eine DP 2.1 Anschaffung als Monitor, weil notwendig? Ich mache dazu mal eine Umfrage.
Entspann dich mal! Musst ja nicht gleich Schnappatmung bekommen nur weil dein Spielzeug hier nicht mitziehen kann.
Ich heul hier auch nicht herun das RT scheiße ist nur weil meine RX6800xt gerade mal so schnell wie eine 3070 in RT ist.
Und ja ich habe schon so einige Monitore in meinem Leben gehabt, angefangen mit 12" in grün.
Ich weiß das es zu Verzögerungen kommen kann. Aber stell dir mal vor vielleicht kannst du die ersten wirklich schon in Q2 2023 kaufen.
Es ist ja auch nur ein Beispiel um Leute wie dich hier bloß zu stellen die hier immer erzählen das Nvidia der Innovator ist und AMD immer hinterherläuft.
Und du hast das schön bewiesen, DP2.1 braucht kein Mensch ist nur Müll weil kommt nicht von Nvidia. Wenn überhaupt braucht man das in 2-4 Jahren. Wenn jetzt die 4090 mit DP2.1 hier glänzen würde, würdest du ständig drauf herumreiten wie toll es ist und AMD ja voll von gestern ist.
Deswegen ist für mich die Diskussion mit dir hier beendet.
Denn ich habe heute besseres zu tun als mich mit einem Uneinsichtigen Fanboy rumzuschlagen.

Ich muss noch nach Pandora in HFR!
 
  • Gefällt mir
Reaktionen: Jagdwurst und Nekkepenn
DevPandi schrieb:
So, meine ist jetzt da!
Meine hab ich schon seit gestern in Betrieb, läuft überall eigentlich gut, nur Stromhunrig ist das Teil schon, AC Valhalla alles an und ohne FPS Limit war ich bei 411 Watt im 4K Betrieb.

Einzig wo die Karte sich komisch verhält ist in Star Citizen, da hab ich ewig Texture/Sharer Ruckler ?!?! Sobald ich in eine neue Umgebung laufe, das hatte ich mit der 3080 soooo nicht.

Aber der erste Treiber ist glaube ich eh noch nicht das gelbe vom Ei. Ich hoffe da kommt die Tage die 12.2.
Auch in MSFS 2020 zickt es extrem rum.
 
  • Gefällt mir
Reaktionen: b|ank0r und Yar
Die Stromspikes der 7900xtx/xt soll wohl sehr hoch ausfallen. Teilweise bis zu 600 Watt. Entsprechend sind auch schon 750 Watt Netzteile ausgestiegen. Das was Nvidia also in der letzten Generation hatte, hat AMD scheinbar bei der aktuellen Generation. Die 4000er sind da dieses mal sehr human laut Igor.
 
Bengart schrieb:
das das jetzige RT alleine nicht die Lösung ist und das RT sehr ineffizient ist im Vergleich zu Rasterization.
Das stimmt so nicht. Es ist von einigen Faktoren abhängig ob RT effizienter ist oder ob Rasterization.

Ein Beispiel sind zum Beispiel Spiegelungen, die über Screen-Space-Reflections hinaus gehen. Bei diesen musst du bei Rasterization entweder auf vorberechnete Spiegelungen als Textur zurückgreifen, hier muss man dann den Aufwand im Vorfeld betreiben. Diese Spiegelungen haben auch einige Nachteile.

Will man vollwertige Reflexionen, muss man eine weitere "Kamera" sowie ein neues Render Target Textur öffnen und in dieses dann erst mal rendern. Diese Texturen kannst du nicht "Klein" wählen - sonst wird es Pixelmatsch.

Als Rechenbeispiel: Wenn du ein Spiel in 2160p berechnerst und die Texturen auf 2K gestellt hast, dann ist die Grundlast bereits bei 8,2 MPixel, für jede Spiegelfläche kommen bei 2K für die Texutren ca. 4 MPixel noch dazu.

Entsprechend wählt man die Auflösung für Spiegel oft niedriger und gleichzeitig verzichtet man auf sehr viele Effekte. Einen PathTracer interessiert das aber nicht wirklich, dort wird die Last durch andere Faktoren bestimmt.

Ein Raum mit Echtzeitspiegelungen bei gleicher Qualität wie das eigentliche Bild, lässt sich in RT wesentlich effizienter berechnen.
Ergänzung ()

Melu76 schrieb:
wieviel euronen hast du dafür bezahlt?
Genug. ;) Aber Weihnachtsgeld war da.
 
  • Gefällt mir
Reaktionen: McTheRipper, Sun-Berg, Oppagolf und eine weitere Person
Ayo34 schrieb:
Die Stromspikes der 7900xtx/xt soll wohl sehr hoch ausfallen. Teilweise bis zu 600 Watt. Entsprechend sind auch schon 750 Watt Netzteile ausgestiegen. Das was Nvidia also in der letzten Generation hatte, hat AMD scheinbar bei der aktuellen Generation. Die 4000er sind da dieses mal sehr human laut Igor.
Hast du wirklich alles durchgelesen haben bei Igor? Seine Empfehlungen für Netzteile sehen aber ganz anders aus...ab 650W https://www.igorslab.de/amd-radeon-...hritt-nach-vorn-und-ein-kleiner-zur-seite/11/
 
  • Gefällt mir
Reaktionen: nille02, Oppagolf, Anon-525334 und 3 andere
Ayo34 schrieb:
Das was Nvidia also in der letzten Generation hatte, hat AMD scheinbar bei der aktuellen Generation.

hatte nvidia in der letzten generation nicht.
das ist immer so ein kappes der immer wieder wiederholt wird.


die empfehlungen der (GPU) hersteller haben einen anderen grund:
sie wollen sich nicht die ganze zeit mit trotteln in der hilfehotline herumschlagen

davon abgesehen hatte AMD in der 6000er generation schon die höheren spikes
 
Ayo34 schrieb:
Teilweise bis zu 600 Watt. Entsprechend sind auch schon 750 Watt Netzteile ausgestiegen.
Ist immer schwer, wenn man ein altes 650 W Netzteil hat, kann das durchaus stimmen, bei neueren sollte das nicht so sein, aber ich werde bald berichten!
 
Ich kann bis jetzt auch mit meinen BeQuiet 750er keine Probleme feststellen und ich hab jetzt 1,5 Tage hier echt ordentlich Watt durchgejagt beim Games Benchen.
 
DevPandi schrieb:
Ist immer schwer, wenn man ein altes 650 W Netzteil hat, kann das durchaus stimmen, bei neueren sollte das nicht so sein, aber ich werde bald berichten!
ich habe noch ein 620W Seasonic, von 2011 ;-), mal sehen ob es sich mit der XTX in die Hosen macht, die Palit RTX 2080 Super GRP mit R7 5800 X 3D schafft es noch logger. Meiner Erfahrung nach sind Singlerail NT wesentlich belastbarer als mit aufgeteilten 12V Rails.
 
Melu76 schrieb:
hatte nvidia in der letzten generation nicht.
das ist immer so ein kappes der immer wieder wiederholt wird.


die empfehlungen der (GPU) hersteller haben einen anderen grund:
sie wollen sich nicht die ganze zeit mit trotteln in der hilfehotline herumschlagen

davon abgesehen hatte AMD in der 6000er generation schon die höheren spikes
3 Seiten vorher hatte ich was zu den Spikes, gemessen von TPU gepostet. Die vorherige Generation und damit ist die 3090ti und 6800/6900XT gemeint, fetzt richtig.

power-spikes.png
 
malajo schrieb:
ich habe noch ein 620W Seasonic, von 2011 ;-), mal sehen ob es sich mit der XTX in die Hosen macht, die Palit RTX 2080 Super GRP mit R7 5800 X 3D schafft es noch logger. Meiner Erfahrung nach sind Singlerail NT wesentlich belastbarer als mit aufgeteilten 12V Rails.
Ich hab jetzt ein 750 drin, statt dem 650, aber auch nur weil ein Sicherheitspandi bin und weil ich die Verkabelung neu machen will. :)
 
  • Gefällt mir
Reaktionen: McTheRipper
Zurück
Oben