nutzername schrieb:
Hast du dir deinen Screenshot mal angeschaut?
Mal davon abgesehen dass Control sponsored by Nvidia war und grundsätzlich schlechter auf AMD performte... Statt 18 auf einer 6900 32 auf einer 3090. Unspielbar also auf beiden.
Dein Post strotzt nur so vor Fanboygeblubber.
In erster Linie ging es mir um den reinen Leistungsvergleich und da spielt es keine Rolle, ob es 1 FPS vs 2 FPS oder 18 FPS vs 32 FPS sind. Fakt ist, dass Ampere schon doppelt so schnell in RT ist.
nutzername schrieb:
Dazu kommt dann jedoch dass Nvidia die RT Leistung im Verhältnis zu RT bei den 40er nur geringer steigern konnte.
Bis zu 90% mehr RT Performance bezeichnest du als geringe Steigerung? Das alleine zeigt schon, dass jegliche Diskussion mit dir hinfällig ist:
nutzername schrieb:
Ich sehe also ehrlich gesagt eher das AMD hier nur aufschließen wird.
Die 90% bei Ada sind für dich gering, aber 50% mehr bei AMD bezeichnest du dann als "aufschließen"?
Witzigerweise ist das genaue Gegenteil der Fall. Der Abstand wird hier immer größer.
nutzername schrieb:
Nicht nur reicht die Performance für Games mit massiven RT uplift auch bei 40er nicht aus - gerade einmal 4 Jahre alte Spiele wie Control lassen sich jetzt endlich mal sinnvoll daddeln. Und das nicht einmal bei einer 4090 und das ist schon die Speerspitze.
In 4K 60 FPS sind nicht spielbar? Was soll man bei solch dämlichen Argumenten noch sagen?
Vor Pascal waren mit ach und krack gerade mal 30 FPS in 4K möglich und jetzt reichen nicht mal 4K 60 FPS.
Ich habe Crysis damals in 22 FPS mit der schnellsten single Chip GPU von AMD durchgezockt und es geliebt.
Sorry, aber den Dünnpfiff kann ich nicht für voll nehmen.
nutzername schrieb:
Auch für den Stromverbrauch ist es fraglich für etwas das man oft in der Bewegung nicht einmal wahrnimmt.
Blöd nur, dass die 4090 effizienztechnisch alles andere in den Schatten stellt. Selbst die kommende 7900XTX.
nutzername schrieb:
Aber klar, ist sicher Klasse bei Spielen in 2024 dann mit RTX on einen Screenshot machen zu können oder nach wie vor auf 1440 zu landen oder Artefakte von FSR, DLSS und co. zu genießen.
Bla bla. Ich spiele jedes Spiel mit DLSS und hatte noch nie "Artefakte". Selbst DLSS3 läuft 1a. bei NFS Unbound und A Plague Tale. Klar, wenn du dir ein Standbild mit der Lupe anschaust, dann wirst du was finden, aber während du spielst, fällt dir das absolut nicht auf.
Gibt aber scheinbar Leute wie dich, die Standbilder untersuchen, um sich an Grashalmen hochzuziehen.
Kleiner Tipp von mir: schau dir niemals an, wie Rasterization im Detail funktioniert, denn dann wirst du feststellen, dass sehr vieles gefaket, falsch oder fehlerhaft ist. Wenn du mir also mit dem Argument kommst, dürftest du gar nichts spielen.
Beispiel:
Das Ergebnis ist falsch, aber es ist so nah am korrekten Ergebnis, dass man es, aufgrund der Performance, trotzdem genutzt hat.
nutzername schrieb:
"Heavy RT", wie du es nennst, wird auch noch in naher Zukunft im Grundsatz vollkommener Unsinn bleiben wenn die Effekte nicht sinnvoll gewählt und platziert werden.
Im ersten Punkt hast du recht, aber der Grund ist falsch. Bis sich RT grundlegend durchsetzt, muss der Großteil der Spielerschaft eine RT fähige Graka besitzen.
nutzername schrieb:
Und ja, es gibt defacto auch kein fully Raytrace. Es gibt nur RT Effekte - Nvidia versucht natürlich diese zu pushen die auf ihrer Hardware sehr gut laufen - das ist eigentlich schon alles.
Doch gibt es: Path Tracing.
Spiele wie CyberPunk, Far Cry oder CoD sind Hybride, welche Rasterization in Verbindung mit RT nutzen.
Minecraft, Portal, Quake und Metro Exodus Enhanced setzen hingegen für die komplette Beleuchtung auf Path Tracing.
nutzername schrieb:
Gut designte Games laufen auch mit RT auf AMD extrem gut - und über die Jahre altern AMD Karten eh besser als Nvidia Karten.
Was Path Tracing angeht fällt mir da nur ein Spiel ein: Metro.
Wenn man sich die Kommentare von Leuten mit Ahnung (
@.Sentinel.,
@Zer0Strat) anschaut, dann stellt man fest, dass diese den AMD Karten viel weniger rohe RT Power zusprechen. Ich vertraue den Aussagen dieser User eher, als einem wie dir, der sich persönlich angegriffen fühlt, wenn seine Hardware gegen die Konkurrenz abstinkt.
Diverse Tools und Tests untermauern ihre Aussagen auch. Es steht dir aber frei, mich vom Gegenteil zu überzeugen. Allerdings will ich dafür Beweise/Fakten und keinen Kommentar in dem du nur sagst: "Ist so".
Mit RDNA2 war AMD effizienter, günstiger und gleich schnell wie die Konkurrenz. Das wurde in sämtlichen Threads jeden Tag rauf und runter breitgetreten und die Effizienz war auf einmal das wichtigste Kriterium überhaupt.
Jetzt haut Nvidia einen Hammer raus und auf einmal spielen Effizienz und Leistung für genau diese User keine Rolle mehr und man versucht sich krampfhaft an irgendwelchen Grashhalmen hochzuziehen wie jetzt in diesem Thread an einer kostenlosen Techdemo, die nur zeigen soll, was möglich ist.
AMD hat mit RDNA3 nur noch einen in einer Kategorie die Oberhand: der Preis. In allen anderen überwiegt Nvidia, wenn man neutral an die Sache rangeht. Warum können das User wie du nicht einfach hinnehmen? Es ist nur Hardware.
Benji18 schrieb:
Glaskugel? Warum bei der UE5? Wie kommst denn auf sowas eigentlich?
Weil die UE4 schon besser mit Nvidia zurechtkam. Das las man doch immer wieder als Argument unter sämtlichen Tests von irgendwelchen UE4 spielen. Warum sollte es bei der UE5 also anders sein?
Benji18 schrieb:
Wie gesagt, Navi 1 hat die schwachpunkte von GCN angegangen. Der weg den AMD beschreitet ist gut und Sie holen auf, jahre der Durststrecke kannst nicht von heute auf morgen aufholen.
Sie haben mit RDNA2 gleichgezogen und liegen jetzt wieder hinten. Wo ist das aufholen?