Test 3DMark Speed Way: Bestenliste mit über 45 Gra­fik­kar­ten (GeForce, Radeon, Arc)

BAR86 schrieb:
ich habe ja befürchtet, dass du das sagst ;)
Weil es sagt nicht, dass die GPU zu langsam ist oder langsamer geworden ist, sondern, dass es dir wichtig ist im Vergleich zu anderen den längsten Balken zu haben ;)
Gut kombiniert, Sherlock Holmes, aber leider einen Ticken daneben.
Meine Karten werden alle im verteilten Rechnen eingesetzt, wo sie für wissenschaftliche Projekte im Bereich Medizin rechnen. Da ist Rechenpower gefragt und da oft genug Wettbewerbe innerhalb der Rechenteams stattfinden, ist eine möglichst schnelle Karte von Vorteil. Gewinner ist dabei stets das Projekt, für welches man rechnet. Und das Team/Teammitglied, welches die meisten Arbeitspakete durchgerechnet hat und die meisten Punkte dafür eingeheimst hat....
 
Zuletzt bearbeitet:
@Oldtimer aha, seltsame Vorgehensweise. Irgendwas mit privaten Karten. Rechengeschwindigkeiten usw.
Läuft bei uns alles über HPC Karten, offiziell von den Instituten bezahlt oder von der Uni... aber hey, wenn ihr da lieber so zwielichtige Konstrukte habt...
 
Selbst die nächsten EA Standard-Titel bzw frostbite werden RT(GI) haben, das wird jedenfalls kein "finewine" für aktuelle AMD Karten werden.
 
@TheInvisible Das mit dem Finewine ist doch seit 8 Jahren widerlegt, da "reift" nix mehr.
Die Vega ist nach wie vor genauso schnell wie die 1080 neben der sie rausgekommen ist und obwohl sie zum Ziel hatte die 1080 Ti zu schlagen.
 
Lee Monade schrieb:
Ich habe bis heute nicht verstanden was an RT so toll sein soll?
Dann kennst du entsprechende Titel halt nicht.
Lee Monade schrieb:
das man es nicht braucht.
Ja, wenn man sichs Schönreden kann ... (Der Klassiker unter den Klein-Fritzchen Argumenten)
Lee Monade schrieb:
RT Beleuchtung ist ganz nett, aber dadurch wird kein schlechtes Spiel plötzlich gut
Und genau dafür ist es ja auch nicht vorgesehen.
Lee Monade schrieb:
und wenn mir ein Spiel mit RT gefällt dann auch ohne RT
Ja nee, iss klar Biene.
Lee Monade schrieb:
weil mir das fehlen im Zweifelsfall nicht mal auffällt.
Traurig, für dich.
RT ist schon ganz hübsch und in richtig gut programmierten Spielen auch eine sinnige Bereicherung.
 
  • Gefällt mir
Reaktionen: GrooderWanderer, DaHell63 und ElliotAlderson
BAR86 schrieb:
@TheInvisible Das mit dem Finewine ist doch seit 8 Jahren widerlegt, da "reift" nix mehr.
Die Vega ist nach wie vor genauso schnell wie die 1080 neben der sie rausgekommen ist und obwohl sie zum Ziel hatte die 1080 Ti zu schlagen.
Den letzten CB Artikel dazu nicht gelesen?
https://www.computerbase.de/artikel/grafikkarten/high-end-gtx-1080-ti-spielen-vega.88044/

Die GeForce GTX 1080 Ti war 2017 unangefochten die schnellste Grafikkarte für DirectX-11-Spiele. Vega lag im Mittel 31 Prozent zurück und benötigte dazu sogar mehr Energie. Es war tendentiell für die Games der nächsten Generationen ausgelegt und aktuell liegt der Rückstand nur noch bei 23 Prozent; Vega ist (den Speicher außen vor gelassen) besser gealtert als Pascal.

Bringt natürlich recht wenig weil beide Karten heute nicht mehr wirklich brauchbar sind in den Auflösungen wofür sie damals gekauft wurden, aber sie ist eben doch etwas besser gealtert
 
Zuletzt bearbeitet:
BAR86 schrieb:
@Oldtimer aha, seltsame Vorgehensweise. Irgendwas mit privaten Karten. Rechengeschwindigkeiten usw.
Läuft bei uns alles über HPC Karten, offiziell von den Instituten bezahlt oder von der Uni... aber hey, wenn ihr da lieber so zwielichtige Konstrukte habt...
HPC-Karten kann kein Normalsterblicher bezahlen, ebenso wenig wie die Technik drumherum.
Schau dir verteiltes Rechnen einfach einmal an, dann wirst du deine Vorurteile diesbezüglich überdenken. :)
 
Bekloppter Benchmark, verzerrt total die Leistung der AMD-Karten. Mich interessiert das unausgereifte RT-Feature überhaupt nicht. Reden wir mal in 4..5 Jahren drüber, wenn besseres Verfahren verfügbar ist.
 
Ich habe einen 4K 155Hz Monitor und mit meiner 4090er kann ich den Monitor nicht mal voll ausreizen. Die RTX 5090 macht für mich keinen Sinn wenn ich mir den beschnittenen Chip anschaue und dessen angebliche Specs! Der Vollausbau der 5090er mit 32GB und über 24'000 Shader Einheiten ist dann wieder schon ne geile Sache aber so wie ich nvidia kenne kommt diese dann als Ti Version 6 Monate vor der 6090 raus und ist dann langsamer als die 6080er welche dann 2'000€ günstiger sein wird. So wie bei der 3090 Ti!
 
Oldtimer schrieb:
HPC-Karten kann kein Normalsterblicher bezahlen, ebenso wenig wie die Technik drumherum.
Schau dir verteiltes Rechnen einfach einmal an, dann wirst du deine Vorurteile diesbezüglich überdenken. :)
Deshalb meine ich ja: seltsames Konstrukt. Entweder es geht um Forschung, dann wird das die Forschungseinrichtung wohl bezahlen. Und nicht ein "normalsterblicher" der irgendwelche privaten Geräte miteinbringt. Was soll das sein, ein Start-Up für Straßenforschung?

Ist - wie erwähnt - bei uns sehr wohl so.
Ergänzung ()

kmf schrieb:
Bekloppter Benchmark, verzerrt total die Leistung der AMD-Karten. Mich interessiert das unausgereifte RT-Feature überhaupt nicht. Reden wir mal in 4..5 Jahren drüber, wenn besseres Verfahren verfügbar ist.
Gibt kein besseres Verfahren, RT ist die Zukunft und AMD muss endlich nachlegen. Schließlich haben sie 2018 ordentliche RT Karten vollmundig angekündigt
 
ich habe mich vertippt
 
Zuletzt bearbeitet:
BAR86 schrieb:
Oder siehst du die 2 plötzlich gleichauf, was ursprünglich der Plan war? Nö.
Also bleibt mein Statement bestehen.
Dein Statement war dass sie heute immer noch da ist wo sie früher war und nichts "gereift" ist und das ist halt falsch, sie hat sich im Duell mit der 1080Ti um 11,5% verbessert (von 0,69x auf 0,77x) und ist somit "gereift".
Alternativ müsste man unterstellen, die 1080Ti wäre über die Jahre 11% langsamer geworden
 
Zuletzt bearbeitet:
Taxxor schrieb:
Dein Statement war dass sie heute immer noch da ist wo sie früher war und das ist halt falsch, sie hat den Abstand zur 1080Ti um 11% verringert und ist somit "gereift".
Sie ist geringfügig schneller geworden und ist nach wie vor auf Augenhöhe der 1080, sie hat nicht den benötigten Sprung gemacht um in eine andere Kategorie vorzudringen was damals aber so gewünscht war.
Taxxor schrieb:
Alternativ müsste man unterstellen, die 1080Ti wäre über die Jahre 11% langsamer geworden
Wenn du die alten Spiele testest sind sie vielleicht noch gleichauf. Nvidia nimmt bei neuen Spielen und alten Karten einfach die Optimierungen oft nicht so genau. Was ja auch logisch ist zu einem gewissen grad. Also man macht die alten Karten nicht langsamer, man macht sie halt nur nicht mehr schneller in neuen Spielen, was dazu führt, dass wenn ein modernerer Parcour anliegt sie an performance "verlieren". Wie man sieht so geringfügig, dass es völlig irrelevant ist.

Wie in der News hier bzw. dem Artikel ja ersichtlich ist: Vega ist 3% schneller als die 1080

das war ja auch schon früher manchmal so:
https://www.computerbase.de/2017-08...#abschnitt_ultrahdbenchmarks_in_3840__2160_4k
 
Den nächsten großen RT-Titel hat hier offenbar niemand auf dem Schirm: Black Myth: Wukong

Sofern es keine Last-Minute-Verschiebung gibt, erscheint das Spiel schon am 20. August 2024. Erwartet wird vollumfängliches RT/PT wie in Alan Wake 2 und Cyberpunk 2077.
 
  • Gefällt mir
Reaktionen: BAR86
kmf schrieb:
Bekloppter Benchmark, verzerrt total die Leistung der AMD-Karten.
jup...am besten nichts testen wo AMD nicht so gut aussieht

Wie wäre es stattdessen die wahre AMD Leistung mit Fire Strike und Time Spy zu bewerten.
Ich bin mir sicher, dass das die wahre Spieleleistung ist :daumen:
Time Spy.jpgFire Strike.jpg

kmf schrieb:
Mich interessiert das unausgereifte RT-Feature überhaupt nicht.
Das ist für wen, ausser für Dich persönlich, relevant?
 
Zuletzt bearbeitet:
kmf schrieb:
Bekloppter Benchmark, verzerrt total die Leistung der AMD-Karten
Nö, bzgl RT bildet es deren Leistung ziemlich gut ab.
 
  • Gefällt mir
Reaktionen: NoNameNoHonor
Ich hatte mich für die 7900XTX entschieden, weil die einfach mehr Rohleistung bot für einen guten Preis. Ich finde RT zwar super, aber weiterhin hat es einfach nicht Relevanz für mich. Cyberpunk bisher das einzige Spiel von großem Format was RT deutlich mehr nutzte als ein paar Features. Wenn RT einen Sprung macht, sind sicher weitere Generationen an GraKas raus, die RT noch viel besser können.
 
  • Gefällt mir
Reaktionen: SweetOhm
Lee Monade schrieb:
Ja RT Spiegelungen und RT Beleuchtung schauen gut aus, aber es ist eben kein Gamechanger.
Kommt immer darauf an, welche Spiele man sich ansieht und ob man den direkten Vergleich hat.

Gehen wir mal auf die RT-Spiegelungen: Spiegelungen in der gleichen Qualität sind bei Rasterizer teils mit deutlich höheren Kosten verbunden, als RT und die Spiegelungen sind sogar der Hauptgrund, warum RT in der Form heute überhaupt wirklich "relevant" wurde.

Es gibt für Spiegelungen bei Rasterizer 3 mögliche Arten, die man umsetzten kann und alle haben Sie ihre Nachteile:

Vorberechnete Spiegelungen - Benötigen quasi keine Leistung, können toll aussehen, fehlt jegliche Dynamik und wirken daher oft wie Fremdkörper.
Screenspace Reflections - Benötigen "relativ" wenig Leistung, können toll aussehen, sind weitgehend dynamisch. Zeigen jedoch nur das, wass der Spieler sieht.
Render-to-Target - Benötigen je nach Auslegung "wenig" bis "sehr" viek Leistung. Können toll aussehen (kostet sehr viel Leistung), sind dynamisch, zeigen auch Sachen, die der Spieler nicht sieht.

Vorberechnete Spiegelungen werden heute kaum noch verwendet. Man muss in mehreren Stufen vorberechnen und auch dann ist immer noch etwas rechen Leistung notwendig, da die Texturen passend zum Spieler einberechnet werden müssen. Hier macht die Menge das "Gift" auf die Leistung.

SSR wiederum sind eine relativ gute Lösung für die meisten Fälle, kosten allerdings je nach Aufwand, der betrieben wird, durchaus auch Leistung. Hier wird sich damit beholfen, dass der Screenspace gröber "abgetastet" wird für die Textur, die dann genutzt wird. Was SSR richtig kosten kann: VRAM. Nachteil ist aber halt, das alles außerhalb des Blickwinkels quasi nicht existiert.

Render-to-Target - Hängen von der Auflösung ab und werden deswegen oft auch nur stark vereinfacht umgesetzt, wenn sie denn genutzt werden. Meist wird in besonderen Bereichen mal "eine" so eine Reflexion umgesetzt, weil sie ein Wow-Effekt hat, dann aber meist auch stark vereinfacht, weil man quasi eine "Szene" in der "Szene" rendert mit all den Informationen.

Und genau das ist auch der Punkt, weswegen RT hier in einem gewissen Punkt anfängz rentieren: Dynamische "echtzeit" Spiegelungen können sowohl ohne großen Programmieraufwand und mit nur einem relativ überschaubaren Bedarf an "mehr Leistung" in einen RT-Renderer implementiert werden. So manche RT-Demo mit all den Spiegelungen, würde bei einem normalen Rasterizer überhaupt nicht funktionieren und hätte sogar einen höheren Bedarf an Rechenleistung, als die Szene in RT.

Bei der "Beleuchtung" ist es ähnlich. Globale Beleuchtung lässt sich heute mit Rasterizer zwar gut nachbilden, gleichzeitig muss man bei der dynamischen Beleuchtung die Anzahl der Lichtquellen beschränken, da jede Quelle in den Algorithmus voll eingeht. Das ist auch einer der Gründe, warum selbst in vielen modernen Spielen bestimmte Lichtquellen zwar "leuchten", aber keinen Einfluss auf Schatten oder gar die Lichtstimmung haben. Bei RT kann man auch dieses mal mit relativ wenig aufwand bei der Programmierung jede Lichtquelle mitnehmen und hat am Ende einen überschaubaren Impact auf die Leistung.

Das primäre Problem, weswegen RT aktuell auch teilweise noch sehr viel "Leistung" kostet, ist der Tatsache geschuldet, dass wir entweder Hybrid-Engines haben, die manche Berechnungen "doppelt" ausführen, oder nicht die effizienteste Implementierung gewählt werden kann, weil bestimmte Effekte nicht "on-the-fly" mit berechnet werden, sondern die Effekte noch getrennt implementiert sind.

Lee Monade schrieb:
Ja ne ist klar 😂
Ray Tracing auf der einen seite eine der "ältesten" Arten, wie 3D-Grafik am Computer berechnet wird und zu gleich seit der Entwicklung auch das erstrebenswerte Endziel der Berechnung.

Die ersten "kommerziell" erfolgreichen 3D-Spiele sind in ihrer Form Ray Tracer, egal ob jetzt Wolfenstein 3D oder Doom sowie Duke Nukem 3D. Das waren Ray Caster und gehören damit zu den Ray Tracern.

Rasterizer und das, was aktuell noch als Engines genutzt wurden, sind - wenn man es denn sehr genau nimmt - eine Verlegenheitslösung gewesen, weil die Rechenleistung nicht vorhanden war. Ray Tracing hatte bereits in den "80er" quasi die Ausbaustufe erhalten, die man heute versucht zu erreichen. Path Tracing wurde 86 vorgestellt.

Rasterizer sind entstanden, weil sie eine "günstige" und "schnelle" Art des Renderns waren, in dem man den Z-Buffer einführte und entsprechend gegen diese die Sichtbarkeit prüfte. Es war halt damals "schneller" alle Polygone mit den Texturen in einen Raum zu setzen, die vorberechnete Shadow- und Lightmap aufzupflanzen und das ganze dann auszugeben. Nur sind damals bereits Shadow- und Lightmaps per "RT" vorberechnet worden.

Illuisionen von dynamioscher Beleuchtung zu erschaffen, ist dann ein leichtes, weil man mit simplen "Tricks" an Texturen die an roter Lava" einfach aufsteigend schwächere Rotwerte einrechnet. Lichtbolzen? Einfach in der Flugbahn aufhellen. Auswirkungen auf Schatten und Co gab es damals nicht, denn Schatten waren meist Blobs unter der Figur.

Selbst mit der Zeit "dynamischer" schatten, waren diese gerne mal vollkommen "losgelöst" von der eigentliche Beleuchtung und waren immer "da" und immer im selben Winkel und verschwanden selbst dann nicht, wenn sie eigentlich nicht merh zu sehen sein sollten.

Mit vielen Tricks hat man dann angefangen die technischen Limitierungen der Rasterzier zu verschieben, nur dass diese Tricks mit der Zeit auch immer mehr Leistung gekostet haben und mit der Zeit sich sogar Ray-Tracing in Spiele geschlichen haben, ohne dass man es merkt.

SSR sind da so ein Beispiel, die sich auch Ray Tracing-Techniken zu nutzen machen, um die Textur auf die Fläche zu projezieren, die spiegelt. Dynamische Beleuchtung arbeitet bei der Sichtbarkeitsprüfung der Lichtquellen mit RT-Ansätzen. Selbst bei Schatten wird heute teilweise für weitere Verbesserungen verstärkt auf RT-Ansätze zurück geriffen, wenn man die Schatten noch etwas "realistischer" machen will.

Problem an all den Ansätzen ist aber, dass sie immer nur als "ganzes" Wirken. Besonders auffällig ist das an Schatten, die bei keinem Rasterizer wirklich gut berechnet werden, weil keine Engine es hintbekommt vernüftig zwischen "harten" und "weichen" Schatten zu unterscheiden und auch glaubhaft zwischen diesen zu Wechseln oder gar gleichzeitig anzuwenden.

Genauso die "Lichtbrechnung" durch Glas und Co, das sind alles Sachen, die Rasterizer nur aufgrund von Annahmen vornehmen können und die umständlich programmiert werden müssen.
Powl_0 schrieb:
(bzw PT, was letztendlich RT in vollem Ausbau ist).
Es ist eine Art, gibt da noch nen paar. Aber aktuell ist Path Tracing die "effizienteste".
Powl_0 schrieb:
Doch, ist es. Avatar nutzt für die gesamte Beleuchtung (Licht, Schatten, Spiegelungen, AO, etc) RT. Für Karten ohne RT Cores gibt es einen Compute (!) Fallback, der aber trotzdem RT berechnet (mit entsprechend niedriger Qualität).
Nein, dass was du schreibst ist falsch und den Eindruck den die GameStar als auch der techniche Direktor da vermitteln, ist stark verfälschend.

Avtar ist kein "kompletes Ray Tracing" und der besagte "Fallback" ist das zurückfallen auf teilsweise sogar rückständige Rasterizer-Effekte, die in der Form durchaus mindesten 10 Jahre bis 15 Jahre auf den Buckel haben.

Avatar ist eine Hybrideengine, die die Entwicklung seit 2010 bei den einzelnen Grafikeffekte weiter aufgreift und verstärkt auf RayTracing setzt, um die "Genauigkeit" der Effekte zu verbessern und gleichzeitig auch mehr Details mit einzubeziehen. Statt also bei einzelnen Effekten - wie bei modernen rasterizer Titeln üblich - vielleicht mit einem oder zwei Strahlen für einen "Kegel" zu arbeiten, werden mehr Strahlen verwendet um die "Kegel" feiner zu bestimmen.

Komplettes RayTracing sieht aber anders aus.
 
  • Gefällt mir
Reaktionen: Sirhaubinger, Penman, SweetOhm und 3 andere
DaHell63 schrieb:
jup...am besten nichts testen wo AMD nicht so gut aussieht

Wie wäre es stattdessen die wahre AMD Leistung mit ... Time Spy zu bewerten.
Ich bin mir sicher, dass das die wahre Spieleleistung@Raster ist :daumen:
Jein,
kommt darauf an, ob Du die RDNA2 mit Ada oder Ampere vergleichen möchtest, mit Ada mag der TS passen
aber mit Ampere ist nach m.E. der TSE aussagekräftiger

Dein TSE-Score ist für die kleine 6800 aber ähnlich impressiv: = hochgeprügelt auf 6800xt-Niveau >3080
 

Anhänge

  • DaHell-TSE.JPG
    DaHell-TSE.JPG
    155,7 KB · Aufrufe: 44
Zuletzt bearbeitet:
Zurück
Oben