Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Grafikkarten 2021 Q2 im Test: GeForce RTX und Radeon RX mit rBAR im Benchmark-Duell
- Registriert
- Nov. 2002
- Beiträge
- 8.997
Generell hat ein gemeinschaftliches Rasterizer/Raytracing-Rating erst einmal das Problem, dass die Ratings mathematisch nicht funktionieren, wenn ein Produkt in einem Diagramm den Wert "0" hat. Kann eine Grafikkarte kein RT - davon gibt es ja noch genug in den Diagrammen - und man trägt in dem jeweiligen Spiel "0" ein, wäre das Rating kaputt. Dort würde dann nichts für das Produkt stehen.troyan schrieb:Das verstehe ich nicht. Spiele wie Control, Cyberpunk, Dirt 5 etc. benutzen Raytracing als normale Option im Menü. Seit wann ist es für ein GESAMT-Rating relevant, wie welche grafischen Effekte realisiert werden?
Wird dann das Next-Gen Update von Metro Exodus nie im GESAMT-Rating auftauchen?
Das ist eine Baustelle, wofür ich bis jetzt nächsten Überarbeitung eine sinnvolle Lösung finden muss. Alleine deswegen ist es relevant, welcher Grafikeffekt im Hauptrating (nennen wir es so, ein wirkliches Gesamtrating über alles gibt es ja nicht) vertreten ist. Ist das gelöst, kann der nächste Schritt angegangen werden, also Spiele mit RT ins normale Rating zu bringen. Das geschieht wie bereits geschrieben bei der nächsten Umstellung.
Ein heisses Thema.iNFECTED_pHILZ schrieb:Dafür gibts ja dlss. Wenn raytracing und dlss zusammen laufen wird ein Schuh draus und du bekommst in Summe massig mehr Bildqualität als wenn du nichts von beiden kannst.
Raytracing alleine ist nicht wirklich der Rede wert , daher ist es ja für AMD so wichtig einen eigenen Konter zu dlss zu bringen.
wird ja nicht ohne Grund mot Hochdruck dran gearbeitet.
Denn im Gegensatz zu VRAM bringt dir das wenigstens optisch was.
Der wird Gerüchten nach nämlich mit der nächsten iteration von dlss auch entlastet. Aber mal gucken was kommt. Die 3080 hat aber meiner Meinung nach auch zu wenig Speicher gefühlt.
Inhaltlich stimmst du mir ja zu, dass RT keinen optischen bahnbrechende Vorteile bringt. Das ist ja mein Wortlaut. Es ist nett aber im Moment sind wir eher im Auflösung und FPS/Hz Rennen als Weltspiegelungen in Wasser und co.
DLSS ist allerdings ein Thema, dass genau das oben beschriebene Rennen betrifft.
Dennoch ist es kein Trick wie man auf einmal mehr FPS bekommt, man erkauft sich diese eben auf eine andere Art und Weise.
HW wird deswegen schließlich nicht schneller als sie ist.
Ich habe es selbst noch nicht erfahren, bin persönlich eher der pingelige Charakter, allerdings gibt es Meldungen die DLSS aufgurnd des offensichtlichen Nachteils in der Qualität lieber aus lassen (schärfe).
Daher denke ich, dass DLSS solange ein Thema bleibt bis die nächste Generation WQHD mit ca 100 FPS leisten wird. Danach ist die Leistung wieder auf der Höhe des Bedarfs angekommen.
4K sehe ich aufgrund der GUI Skalierung noch nicht als Standard.
Dann gehört rBAR aber auch nicht in das Gesamtrating, sondern muss genauso betrachtet werden wie Raytracing.
Ich verstehe den Versuch einer subjektiven Separation von Funktionen und Features nicht, die auf aktueller Hardware funktioniert. Wenn alte Hardware nur "Software"-RT oder überhaupt nicht funktioniert, dann kann man das mit 1/"erreichte FPS" abbilden. Dadurch geht das Rating nicht kaputt. Ich meine, ihr stellt Spiele doch auch nicht so ein, dass Karten mit "wenig" VRAM in hohen Auflösungen und mit gewissen Einstellungen nicht benachteiligt werden...
Ich verstehe den Versuch einer subjektiven Separation von Funktionen und Features nicht, die auf aktueller Hardware funktioniert. Wenn alte Hardware nur "Software"-RT oder überhaupt nicht funktioniert, dann kann man das mit 1/"erreichte FPS" abbilden. Dadurch geht das Rating nicht kaputt. Ich meine, ihr stellt Spiele doch auch nicht so ein, dass Karten mit "wenig" VRAM in hohen Auflösungen und mit gewissen Einstellungen nicht benachteiligt werden...
GERmaximus
Rear Admiral
- Registriert
- Sep. 2015
- Beiträge
- 5.292
Blackfirehawk schrieb:Und wie viele Leute nutzen wirklich raytracing? Mir ist es der performance drop nicht wert.
Zwei ehemalige 3090er Besitzer im Bekanntenkreis haben es beide nicht genutzt, weil selbst mit der 3090 der Performance Impact viel zu hoch ist.
Wir sind aber auch 100fps+ User
Capthowdy
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.113
Genau das ist der springende Punkt und deshalb muss DLSS auch genauso mitgetestet werden, egal ob AMD nun was vergleichbares hat oder nicht.NotFlawless schrieb:@Optimus Heinz
Sehe ich nicht so, es ist ein Feature, welches mehr FPS bringt, warum sollte man es also weglassen. RBAR wurde ja auch immer mit einbezogen, obwohl es die Grünen nicht hatten.
iNFECTED_pHILZ
Commodore
- Registriert
- Dez. 2008
- Beiträge
- 4.282
KlarDannyA4 schrieb:mit Vega?
Capthowdy
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.113
Dai6oro schrieb:Nein muss es nicht. Es sind 2 völlig unterschiedliche Dinge. Schon allein, dass DLSS etwas an der Darstellung verändert, was rBar nicht tut, macht es alleine schon nicht vergleichbar.
DLSS verbessert mitunter sogar die Bildqualität, wieso sollte man es nicht zusätzlich mit reinnehmen? Ich sehe daran überhaupt kein Problem.
Blackfirehawk
Commander
- Registriert
- Dez. 2018
- Beiträge
- 2.394
Richtig.GERmaximus schrieb:Zwei ehemalige 3090er Besitzer im Bekanntenkreis haben es beide nicht genutzt, weil selbst mit der 3090 der Performance Impact viel zu hoch ist.
Wir sind aber auch 100fps+ User
Gerade wer einen 144+ Hz Monitor hat wird das viel flüssigere Bild gegenüber raytracing bevorzugen. Auch muss man sich Mal anschauen welche Spiele es haben.. viele Games davon sind multiplayer Games wie Call of Duty wo sinnvoller ist Hohe FPS zu fahren
Von einem anständig implementierten HDR hat man meiner Meinung nach mehr als wie von raytracing
Capthowdy schrieb:DLSS verbessert mitunter sogar die Bildqualität, wieso sollte man es nicht zusätzlich mit reinnehmen? Ich sehe daran überhaupt kein Problem.
Und es verschlechtert sie auch, je nach Umsetzung und bei Nutzung von RT generell:
z.B. Cyberpunk
"Hinzu kommt das Problem, dass DLSS 2.0 keine Raytracing-Reflexionen optisch aufwerten kann und diese daher schlicht in der gerenderten Auflösung dargestellt werden. Entsprechend sind die Reflexionen sichtbar unschärfer als bei nativer Renderauflösung."
https://www.computerbase.de/artikel...eite-3#abschnitt_benchmarks_mit_und_ohne_dlss
Und das tut rBar eben nicht. Es verändert nicht die Bildqualität. Also ist das auch nicht gleichzusetzen.
Capthowdy
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.113
Nochmal: wo ist das Problem es zusätzlich mit reinzunehmen?Dai6oro schrieb:Und das tut rBar eben nicht. Es verändert nicht die Bildqualität. Also ist das auch nicht gleichzusetzen.
DarkerThanBlack
Commander
- Registriert
- Juli 2016
- Beiträge
- 2.077
Köstlich wie hier manche Leute herumtoben, weil AMD hier und da mal den längeren Balken hat. 😁
Am besten rBAR gleich abschaffen, damit AMD nicht zu viel an Prozent zulegt...
Was ich mir wünschen würde, ein Test mit Customkarten welche die OC-Fähigkeit mit dazu vergleicht, welche man ja dann out of the box dazu bekommt.
Weil Referenz ist eben kaum noch erhältlich und man kauft eigentlich hauptsächlich nur Customkarten.
Am besten rBAR gleich abschaffen, damit AMD nicht zu viel an Prozent zulegt...
Was ich mir wünschen würde, ein Test mit Customkarten welche die OC-Fähigkeit mit dazu vergleicht, welche man ja dann out of the box dazu bekommt.
Weil Referenz ist eben kaum noch erhältlich und man kauft eigentlich hauptsächlich nur Customkarten.
Zuletzt bearbeitet:
Blackfirehawk
Commander
- Registriert
- Dez. 2018
- Beiträge
- 2.394
Naja jede Karte lässt sich anders übertakten.. oft garantieren die Hersteller auch nicht viel mehr takt als die Referenz.. oder +50mhz wird als dickes OC dargestelltDarkerThanBlack schrieb:Was ich mir wünschen würde, ein Test mit Customkarten welche die OC-Fähigkeit mit dazu vergleicht, welche man ja dann out of the box dazu bekommt.
Weil Referenz ist eben kaum noch erhältlich und man kauft eigentlich hauptsächlich nur Customkarten.
iNFECTED_pHILZ
Commodore
- Registriert
- Dez. 2008
- Beiträge
- 4.282
Also ich bin der Meinung dass Raytracing eben doch enorme optische Vorteile bietet. Nicht die exakte Umsetzung in spielen momentan sondern renderbilder die wirklich fotorealistisch sind. Das ist das Ziel und das klappt eben nur mit raytracing. Jeder Schritt zum Fotorealismus wird mit klassischen rasterizing eben exponentiell aufwändiger.Ferax schrieb:Ein heisses Thema.
Inhaltlich stimmst du mir ja zu, dass RT keinen optischen bahnbrechende Vorteile bringt. Das ist ja mein Wortlaut. Es ist nett aber im Moment sind wir eher im Auflösung und FPS/Hz Rennen als Weltspiegelungen in Wasser und co.
Daher denke ich, dass DLSS solange ein Thema bleibt bis die nächste Generation WQHD mit ca 100 FPS leisten wird. Danach ist die Leistung wieder auf der Höhe des Bedarfs angekommen.
4K sehe ich aufgrund der GUI Skalierung noch nicht als Standard.
und nur weil die Hardware besser wird, heißt das nicht mehr FPS. Die Spieleschmieden nutzen einfach die vorhandene Hardware aus und haben ein Performance Target.
Wir hingen jetzt Jahre bei 60 FPS@fhd. Das Gros der neuen trippleA Titel hat maxed out mit potenter Hardware eben genau diese 60fps unter fhd erreicht. Mal mehr mal weniger je nach Fähigkeiten des Studios.
Jetzt ist der Anspruch gestiegen und wqhd bzw. 144hz wird immer mehr Mainstream. Das zwingt die Hersteller eben dazu mit optischen Reizen zu geizen um nicht als Performance krüppel zu gelten
Man erinnere sich an crysis. Hier wurde selbst mot high end Hardware kein flüssiges Spielen ermöglicht wenn man alles auf high gesetzt hat. Nach unten hat es auch sehr schlecht skaliert.
daher wird einfach schnellere Hardware den Entwicklern nur mehr Effekte ermöglichen, was kn der Regel auch ausgenutzt wird.
jetzt heißt mehr Effekte aber eben auch mehr Aufwand. Entwicklungskosten steigen und und und.
mit raytracing wird das entschärft. Hier kann man die Bildqualität mit der Anzahl der Strahlen und der Auflösung sehr gut steuern. Und genau an diesem Scheidepunkt befinden wir uns gerade.
Und wenn jetzt erste größere optische Sprünge ( seien wir mal ehrlich , RTX war jetzt rein optisch das größte Update in Grafik der letzten 10Jahre ) mit einer Mischung aus raytracing und rasterizing erreicht werden dann ist das jetzt erst mal so. Wird sich über die Jahre sicher auch noch ändern.
und weil wie oben beschrieben die Performance der Hardware das limitierende Glied in der Kette für Bildqualität ist, bietet sich dlss eben an diese teuren RTF Effekte zu aktivieren. Die entstehenden Bildartefakte sind gegenüber der falschen Beleuchtung der weitaus kleinere optische Kompromiss
hurga_gonzales
Captain
- Registriert
- Aug. 2004
- Beiträge
- 3.277
Danke für das Update. Sehr schön!
Hätte schon zwei PCs gebaut, gäbe es Karten zu kaufen. Ich blicke mit zumindest etwas Hoffnung der 3080Ti entgegen.
Hätte schon zwei PCs gebaut, gäbe es Karten zu kaufen. Ich blicke mit zumindest etwas Hoffnung der 3080Ti entgegen.
Klever
Lt. Commander
- Registriert
- Dez. 2020
- Beiträge
- 1.393
Hier wird die ganze Zeit nur über Verschlimmerung von DLSS gesprochen, tatsächlich muss man da differenzieren, da DLSS als ein deep learning Ansatz zur Bildzusammensetzung ist mit Einsatz von KI das Bild gegenüber alten AA Effekten bei Rasterisierung verbessern kann. Flimmereffekte usw werden so beseitigt, was mit traditionellen AA Methoden nicht möglich ist, was nicht nur bei RT relevant ist. DLSS kann auch ohne RT genutzt werden, um die Leistung nochmal zu steigern (das zur Frage, dass Karten durch "Tricks" nicht schneller werden, denn dafür ist eine hardwareseitig verbaute Komponente nötig die in Form von Tensor-Kernen auf Nvidia Karten nun mal vorliegt).
DLSS Einstellungen sind auch nicht gleich DLSS Einstellungen, einfach zu sagen "es ist matsch" ist meiner Meinung nach unzutreffend. Vielleicht sind meine Augen auch nicht mehr gut genug, aber wenn ich folgende Bilder für mich vergleiche, sehe ich keinen Unterschied der mich jetzt in einem grafisch forderndem Titel auf Hoch-Ultra mitsamt den RT-Effekten bei Licht, Schatten und Reflektionen (was man im Spiel auch merkt, hier wurde mit RT ausgiebig gearbeitet) einfach mal so auf 20+ Extra FPS in WQHD verzichten lässt, außer dass DLSS da das Kantenflimmern während der Bewegung sogar beseitigt.
Zumal man bei Nvidia (genau wie bei AMD) das Bild mit Filtern nachschärfen kann, was ich persönlich auch ausgiebig nutze. Ohne diese Filter sehen für mich Spiele mittlerweile matschig aus, ob mit oder ohne DLSS spielt keine Rolle.
DLSS Einstellungen sind auch nicht gleich DLSS Einstellungen, einfach zu sagen "es ist matsch" ist meiner Meinung nach unzutreffend. Vielleicht sind meine Augen auch nicht mehr gut genug, aber wenn ich folgende Bilder für mich vergleiche, sehe ich keinen Unterschied der mich jetzt in einem grafisch forderndem Titel auf Hoch-Ultra mitsamt den RT-Effekten bei Licht, Schatten und Reflektionen (was man im Spiel auch merkt, hier wurde mit RT ausgiebig gearbeitet) einfach mal so auf 20+ Extra FPS in WQHD verzichten lässt, außer dass DLSS da das Kantenflimmern während der Bewegung sogar beseitigt.
Zumal man bei Nvidia (genau wie bei AMD) das Bild mit Filtern nachschärfen kann, was ich persönlich auch ausgiebig nutze. Ohne diese Filter sehen für mich Spiele mittlerweile matschig aus, ob mit oder ohne DLSS spielt keine Rolle.
Zuletzt bearbeitet:
Fighter1993
Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 7.384
Der wartet jetzt schon auf FSR und dann heulst du evt weil du für das selbe Ergebnis min. 50% mehr bezahlt hast.R2D2 schrieb:Habe selber 3090rtx freund von mir 6900xt habe ihm cyberpunk mit rt und dlss in wqhd gezeigt,der hat geheult.
Ähnliche Themen
- Antworten
- 356
- Aufrufe
- 115.293
- Antworten
- 691
- Aufrufe
- 210.251