• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Cyberpunk 2077 Patch 1.2 im Test: Raytracing auf AMD Radeon RX kostet bis zu 75 Prozent FPS

och.. hier schlägt man sich immer noch die köpfe ein.. dachte das hätte sich mittlerweile gelegt. Ist ja auch wurscht, denn niemand wird zum Glück dazu gezwungen RT einzuschalten et voila... Rot vor Grün.
Mir macht es die Entscheidung jedenfalls einfacher weiterhin auf CP zu verzichten und es noch 1 halbes Jahr reifen zu lassen. Man sieht ja, das es noch massig Bugs hat.. irgendwann wird es dann auch besser laufen (und AMD kann ja auch noch an optimierten Treibern für CP arbeiten, damit die Differenz ähnlich groß/klein ausfällt wie bei anderen RT Titeln). Irgendwann kommt dann auch die AMD DLSS Variante (von der ich stark annehme, das es sich dabei um eine aufgebohrte Form von Checkerboarding handeln wird. Checkerboarding zeigte auf der PS4 pro teilweise sehr gute Ergebnisse.
Ergänzung ()

rumpeLson schrieb:
Klar, wenn ich eine RTX 3080 für 700€ kaufen könnte, würde ich die 6900 für 1000€ auch nicht in Betracht ziehen. Aktuell muss man aber, sofern man nicht den Preis für eine 3090 zahlen möchte, irgendein Übel wählen. Und wenn wir die 6900 mit der 3070 vergleichen, ist die Wahl auf einmal weniger einfach.
Der Typ, von dem ich meine 6900 gekauft hatte, hatte auch eine 3080Fe (zum gleichen Preis).. hab mich für Team Rot entschieden.. ausschlaggebend für mich waren die bessere Effizienz (NT konnte bleiben), mehr VRAM und die höhere Raster Performance in der Auflösung die ich spiele (3440 x 1440). Hätte aber auch mit der 3080 keine Bauchschmerzen gehabt (bis auf das mulmige Gefühl beim Speicher)
 
Zuletzt bearbeitet:
vander schrieb:
AFAIK ist es bei DXR nicht möglich MultiGPU zur RT Beschleunigung zu nutzen.
Ich hatte ja vor einigen Seiten genau das kritisiert. Raytracing kann man in der Theorie super parallelisieren. Aber den aktuellen hybriden Ansatz nicht. Da hofft @.Sentinel. auf die Zukunft, anders kann ich es nicht formulieren.
 
  • Gefällt mir
Reaktionen: .Sentinel.
PogoPogo schrieb:
@.Sentinel.
Man kann sich auch wirklich alles schön reden.
Was rede ich wem schön?
PogoPogo schrieb:
PC Gaming stagniert in FHD vor sich hin
Ja- Die Adaptionsrate richtung WQHD und 4K ist nicht wirklich umwerfend. Die Leute legen einfach nicht den Wert auf Auflösung und HZ- Zahlen, wie es einem dieses Forum hier und auch die Industrie immer glauben machend will.
PogoPogo schrieb:
und die aktuelle Knappheit hat das ganze ins absurdum geführt.
Wann begreift Ihr denn, dass eine Knappheit überhaupt nichts mit den technischen Themen zu tun hat, um die es hier geht.
Nach dieser Logik verböte sich nämlich jegliche Diskussion um moderen GPUs und teils CPUs, weil diese schlichtweg nicht massenhaft am Markt verfügbar sind.

PogoPogo schrieb:
60FPS in 4k mit RT sollten bei Karten mit einer UVP ab 700€ zum Standard bei aktuellen Spielen gehören.
Schön, dass wir jetzt wissen, was Deine Einschätzung zu diesem Thema ist.
Nur ist da wieder der Wunsch eher Ausschlaggebend, als die Realität. Wir sind jetzt in Sachen Rasterisierung noch nicht mal bei 4K 60FPS angekommen und das x- Fach so Rechenaufwändige Verfahren Hybrid- Raytracing soll das in der zweiten Iteration bieten, was die Rasterizer, die seit zig Jahren auf dem Markt entwickelt werden, bis jetzt nicht durchgängig hinbekommen haben?

Die Industrie, die Entwickler und Grafikkartenhersteller geben sich auch ziemliche Mühe, den Usern so etwas bieten zu können.
Nur zaubern können sie halt auch nicht und die leergefegten Märkte machen das Unterfangen halt nicht einfacher.

PogoPogo schrieb:
Ansonsten steige ich wieder auf meinen C64 um und zocke Elevator Action.
Mit dem C64 hatte ich Spielspaß der teils auf einem deutlich höheren Niveau lag, als bei den größten AAA Blingbling 8K 120FPS Technikschleuderspielen.

PogoPogo schrieb:
Ich vertrete auch nur meine Meinung, mir also egal ob dir das nicht passt.
Das passt mir nicht nur sehr gut, sondern ich bitte sogar sehr darum :)
Ergänzung ()

vander schrieb:
Ich tu einfach mal so als würden wir hier gerade starten.
Daumen hoch!
vander schrieb:
Was meinst DU mit RTRT? Für mich ist das Realtime Raytracing, eingeführt z.B. mit der Unreal Engine, basierend auf DXR. Können andere Engines sicher ebenso.
Ja- Realtime Raytracing agnostisch irgendeiner Schnittstelle oder API
vander schrieb:
AFAIK ist es bei DXR nicht möglich MultiGPU zur RT Beschleunigung zu nutzen.
Im Hybridverfahren ist es das auch nicht, weil Du eben nicht Tile, Ray oder Pixel- Based arbeiten kannst.
Da ist AFR derzeit noch das Mittel der Wahl mit allen einhergehenden Nachteilen, aber eben auch Kompatibilitätsvorteilen.
vander schrieb:
Die nVidia Doku spricht lediglich von Viewport Beschleunigung, also kann man mehrere Karten für unterschiedliche Ausgabegeräte einsetzen. NICHT UM DIE GLEICHE SZENE AUF EINEM VIEWPORT ZU BESCHLEUNIGEN.
Otoy macht das beispielsweise inzwischen im Pixelbasierten Ansatz (z.B. Brigade).
vander schrieb:
Selbst wenn es technisch möglich wäre Mutli GPU zu nutzen, derzeit sind die GPUs die DXR Unterstützung bieten (oberhalb 1060 6GB) schlecht verfügbar und abartig teuer. Was ist daran bitte falsch?
Das ist richtig. Wenn es aber nun möglich wäre, GPU Chiplets zu produzieren, die eine geringere größe haben können und nicht so taktstabil sind und energetisch im absoluten Sweetspot arbeiten zu können, kannst Du aufgrund des verteilten Ansatzes, der mit Path- Tracing möglich ist, eben viele, viele günstige Chiplets, die in Summe mehr Kerne liefern, weniger Kosten verursachen und zudem weniger Strom brauchen auf eine Grafikkarte oder MCM packen und diese auf den Pathtracer loslassen.

Genau das bzw. solche Produkte sind auch bei den größeren Herstellern aus gutem Grund in der Pipeline.
vander schrieb:
Den Rest deines Post lese ich mir vielleicht später noch mal durch, muss grad los.
Klar- Da erkläre ich einfach noch ein wenig weiter.
vander schrieb:
Also schreib doch mal wie du gedenkst DXR mit mehreren Karten zu beschleunigen.
DXR schreibt mir ja nicht vor, wie ich die Calls aus meiner Engine starte, oder wie ich überhaupt in letzter Instanz auf die Grafikkarte zugreifen muss. Es ist eine lib, API, Funktionssammlung die lediglich einen abstraction- Layer zur Hardware bilden KANN.
vander schrieb:
Nur bei DXR geht das AFAIK nicht, also auch nicht bei Spieleengines, das ist der Punkt.
Siehe oben. DXR zwingt mich keinesfalls zu einem Hybrid- Rendering, welches derzeit wie Du richtig sagst, die üblichen Skalierungsprobleme aufweisen muss.
 
Zuletzt bearbeitet:
Die Kommentare hier sind schon schwierig und sehen recht Tribalistik aus:
Ohh ich bin Nvidia Fan, seht AMD Hardware ist scheiße und meine Kaufentscheidung war gut. AMD Fans ohh es liegt NUR an dem Spiel AMD hat gar kein Problem.

Ein bisschen mehr Nuance könnte man doch erwarten, beides stimmt zu einem Gewissen Anteil, die schlechten Frames kommen zum einen wegen der Hardware aber eben zum anderen wegen dem schlechten Spiel zustande. Das AMD im Raytracing aber nicht mit Nvidia mithalten kann war kein Geheimnis, jeder der AMD Hardware gekauft hat war sich dessen vermutlich bewusst und wenn nicht war das dessen Fehler.

Nun aber ausgerechnet 1 einziges Spiel das die Erwartungen extrem entteuscht hat (wurde auch extrem gehyped davor) und vermutlich das Bug-reichste Spiel seit Gothic 2, also wenn ich sehe das Entwickler eines Spiels so ins Klo gegriffen hab würde ich erst mal vermuten das die Hauptschuld bei denen liegt, und nicht auf die Idee kommen zu sagen, ja das meiste ist wohl die schlechte AMD Hardware.

Und ja wenn ihr gar keine Abstiche bei Raytracing machen wollt und euch das wichtig ist, und ihr den Aufpreis gerne bezahlt und die schlechten Linuxtreiber bei Nvidia egal ist, dann habt ihr mit dem Nvidia-kauf alles richtig gemacht, aber daran hat diese News nichts geändert.

Es ist mir nur ein Raetzel wie man solch eine Bananen-samen-software wie dieses als pre-alpha veroeffentlichte Spiel so viel Bedeutung zu messen kann. Das Spiel wurde offensichtlich mindestens 6 Monate bis 1 Jahr zu frueh released, ich mein ein 33gb Patch erbaermlicher kann man sein Versagen nicht eingestehen imho.
 
cunhell schrieb:
Anm.: DLSS hätte man z.B. sicher auch offen gestalten können. Aber Nvidia reitet ja lieber die properitäre Schiene. SAM steht dagegen jedem offen und es kann jeder verwenden, wenn er will. Und wer nich will, darf sich halt nicht beklagen, wenn der Balken etwas kürzer ausfällt.
Erstens, DLSS wurde von Nvidia, die zufällig zu den den innovativsten KI-Firmen gehören, entwickelt und vorangetrieben. Mit welcher Begründung sollten die das offen für die Konkurrenz gestalten? Es steht AMD frei das gleiche zu entwickeln und zu promoten. Das Prinzip ist bekannt. Nvidia ist vorangegangen, hat hoch gepokert und jetzt zahlt es sich aus. Genau wie AMD bei den CPUs innovativ nach vorn gegangen ist und Intel abgehängt hat, hätten sie es lange auch schon bei den GPUs machen sollen. Bisher waren sie lediglich stets bemüht hier und da einigermaßen mitzuhalten.

Zweitens, SAM ist die Marketing-Bezeichnung von AMD für den offenen Standard "Resizable BAR", der im Jahr 2008 noch vor dem offiziellen Launch von PCI Express 3.0 vorgestellt wurde. Nvidia wirbt hier nicht mit einem eigens entwickelten Feature, sondern AMD. Die Technologie war schon erfunden bevor im Jahr 2010 ATI wieder zu AMD wurde. Also soviel zum Thema. 😅 AMD hat es zuerst ausgekramt und hier war Nvidia knapp ein halbes Jahr lahmarschiger. Jetzt haben es halt beide.

Du stellst es so dar, als sei AMD der Samariter, der Nvidia erlaubt auch SAM/RBAR nutzen zu dürfen. Ist eben nicht so. Das war sowieso offen für alle und zwar schon eine ganze Zeit. Bisher hatten sich nur beide nicht darum bemüht. DLSS ist eine andere Geschichte. Das ist eine Eigenleistung von Nvidia, die man aus Patentgründen nicht stumpf kopieren kann. AMD kommt dafür jetzt mit Fidelity FX Super Resolution und das ist ja auch schon für viele Spiele vorgemerkt, unter anderem auch für Cyberpunk2077. Vielleicht taugt das ja sogar. Wer weiß.

blackiwid schrieb:
ich mein ein 33gb Patch erbaermlicher kann man sein Versagen nicht eingestehen imho.
Ja das Game ist für seine fette Ankündigung und den Hype total verbuggt. Man muss aber sagen das letzte Update hat echt was gebracht. Seit gestern hab ich da mit dem Ultra-Preset, RT-Psycho, DLSS-Quality in WQHD statt ca 58-62FPS satte 65-72FPS. Es läuft definitiv spürbar besser und es crashte gestern auch nicht mehr, was sonst locker 1-2x pro Tag passierte. ^^

Der Patch war aber schon der Hammer. 33GB-Größe und benötigte ca 430GB freien Speicher oder so aufgrund der Hin- und Herschieberei. Schon heftig. Bin komplett bei dir. Das Spiel hätte man erst in 6-12 Monaten herausbringen dürfen. Der Shitstorm am Anfang war berechtigt. Mittlerweile ist es aber gut spielbar.
 
Zuletzt bearbeitet:
Gut das die RX 580 so viel mehr Vram hat wie die 1060, so bricht sie bei den Frametimes nicht so krass ein wie die 1060 ... achso moment :evillol:
 
Ich möchte hier mal anmerken Konsole = RDNA2 / Sony / Microsoft mit RT Support.
Das Bild wird sich daher verändern, denn totalen Mist werden die da auch nicht implementieren.
Bei Cyberpunk hatte bei der PC Version in erster Linie Nvidia die Finger im Spiel.
Hier stimmt es schon, wer Premium bezahlt bekommt auch ein einziges Feature, muss dann aber auch sehr hohe Summen aufbringen als Beta Tester :P

Bei den AMD Karten kann man das derzeit vergessen, aber wenn die den DLSS Konter bringen + Next Gen Games die auch auf Konsole mit RT performen müssen kann RDNA2 eigentlich nur besser altern als die aktuellen Geforce.

Leider hat Nvidia hier auch wieder viel am Speicher gespart. RT brauch nachweislich mehr VRAM und die meisten Enthusiasten zocken bei so etwas in 4k und oder Ultra. Da sind 8 oder 10 schon knapp und wie viele haben eine RTX 3090? Genau... Premium heißt alle 1-2 Jahre neu kaufen bei denen, einfach schade.
Hätte mir diesmal sogar eine Nvidia gekauft, aber so ist das mal totaler Murks.
 
Erzherzog schrieb:
RT brauch nachweislich mehr VRAM und die meisten Enthusiasten zocken bei so etwas in 4k und oder Ultra. Da sind 8 oder 10 schon knapp
Ja aber mit DLSS und das senkt ja den VRAM-Bedarf auch wieder massiv.
Oftmals in der Größenordnung 20-35%. Ohne DLSS ist RT in 4K nicht spielbar.

Schau mal hier:
1617319449196.png

Erzherzog schrieb:
und wie viele haben eine RTX 3090?
Geschätzt?

Auf Basis von den Steam-Nutzer-Zahlen von 2020 (Statista) und den aktuellsten Steam-Hardware-Surveys vom Februar sind es (von mir grob geschätzt) ca 350.000 RTX3090er und ca 900.000 RTX3080er. Inwiefern das korrekt ist hängt von den Daten ab, aber aufgrund der Aktualität sind es eher mehr als weniger, Tendenz natürlich steigend. Die Zahlen von Februar bzw 2020 sind ja heute sehr wahrscheinlich deutlich höher.

Wieviele 6800XTs und 6900XTs? Die werden in den Steam-Hardware-Surveys nicht angezeigt, zumindest finde ich sie nicht. Gibt es zu wenig Karten, dass die noch nicht drin sind? Keine Ahnung. Es fließen nur Karten ein mit einem Anteil von >0,15%. Vielleicht bei der nächsten Erhebung.

https://www.overclockers.co.uk/foru...-hardware-survey-big-navi-still-mia.18919025/
With the January survey, the 3090, 3080 and 3060ti have all met the treshold to appear in the survey.
However, no Big Navi cards have met the minimum threshold yet [0,15%] so we don't know what the market share is.

https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

0,29% RTX3090
0,74% RTX3080

https://www.statista.com/statistics/733277/number-stream-dau-mau/
monthly active users of Steam worldwide 2020

120Mio * 0,0029 = 348.000
120Mio * 0,0074 = 888.000
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Erzherzog
Ist halt auch alles ziemlich subjektiv. Ich hab die ersten 60 Stunden cyberpunk mit 1800x + 2080S gespielt. WQHD ist meine Auflösung. Trotz der Bugs hab ich mich in das Spiel verliebt und das passiert mir, wie in der Liebe, ausgesprochen selten, mag am fortschreitendem Alter liegen ;-) Im Standbild hab ich sehen können, wie das Spiel eigentlich aussehen könnte, hat mich fasziniert. Danach hab ich auf 5950 u 3080 aufgerüstet, am Ende halt nur wegen Cyberpunk. Damit hab ich die zweiten 60 Stunden dann gespielt und die Atmosphäre viel mehr genießen können. Das kann man alles gut oder schlecht finden. Meine Hardware wird komplett ausgereizt und das was dabei auf meinem Bildschirm ist, hab ich so noch nie gesehen. Für mich das die erste echte Next Gen Grafik und das wird sie möglicherweise auch lange bleiben. Jedem steht es frei, vernünftig zu bleiben und sich davon nicht triggern zu lassen. Allen anderen viel Spaß damit ;-)
 
  • Gefällt mir
Reaktionen: deady1000, Mumusud, Oli_P und eine weitere Person
Ich habe noch niemals und werde auch niemals eine Grafikkarte oder Prozessor nur wegen einem Spiel kaufen. Aber selbst mit meiner "auen" 2070 kann ich vernünftig CP2077 zocken. Aber ich zock natürlich "nur" FullHD. Mittlerweile hab ich mich auch mal an RT versucht, aber nur die globale Beleuchtung aktiviert; z.Z. in mittlerer Einstellung, mit Ultra hatte ich doch zuviel Verlust an FPS. Und "Psycho" hab ich bisher gar nicht probiert. Aber das Game ist so auch schon genug "Psycho". Auch ich denke, es ist der wirklich erste NextGen-Titel den ich auf PCs spielen konnte. Und auch ich bin wohl im Vergleich zu vielen anderen CBlern im "fortschreitendem Alter" ;)
Ja, das Game macht Spaß... deswegen hab ich auch 120 Stunden Zeit damit verbracht mittlerweile laut Steam. Und immer noch kein(!) einziger Absturz im Spiel und ein zwei schwerere Bugs erlebt. Hab schon schlimmere Machwerke erlebt :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: deady1000 und Ichaufloesung
Solange es bei AMD kein richtiges DLSS oder DLSS "Ersatz" gibt, sind AMD Grafikkarten für mich ein absolutes NoGo.
 
  • Gefällt mir
Reaktionen: deady1000
Kurze Frage, ich habe ne RTX 3070 und nen Ryzen 2700X und das Spiel läuft super in 1440p und Ultra. Hab dann mal wegen des Tests hier auf RT Ultra mit DLSS Quality gestellt und läuft auch gut. Allerdings hatte ich im Lizzys an der Bar extreme FPS Einbrüche. Kommt sowas öfter vor? Dann stelle ich RT lieber wieder ab. So einen großen Unterschied sehe ich nicht. Bzw. sehe ich einen, weiß aber nicht, ob ich es besser finde. ^^
 
foo_1337 schrieb:
solange du den Zen+ hast, würde ich RT auf Medium stellen.
Also überall anders läuft es damit sehr gut, nur in dieser Bar gab es das Problem bisher.
 
.Sentinel. schrieb:
Was rede ich wem schön?

Mit dem C64 hatte ich Spielspaß der teils auf einem deutlich höheren Niveau lag, als bei den größten AAA Blingbling 8K 120FPS Technikschleuderspielen.
Dann spiel das doch mit einem Emulator und wunder dich, dass es nicht so toll ist, wie in deiner Erninnerung.
Das liegt an eurem schwammigen Gedächtnis.
Aktuelle Spiele sind um Klassen besser, komplexer und aufwendiger.
 
  • Gefällt mir
Reaktionen: fritz ost
deady1000 schrieb:
Zweitens, SAM ist die Marketing-Bezeichnung von AMD für den offenen Standard "Resizable BAR", der im Jahr 2008 noch vor dem offiziellen Launch von PCI Express 3.0 vorgestellt wurde. Nvidia wirbt hier nicht mit einem eigens entwickelten Feature, sondern AMD. Die Technologie war schon erfunden bevor im Jahr 2010 ATI wieder zu AMD wurde. Also soviel zum Thema. 😅 AMD hat es zuerst ausgekramt und hier war Nvidia knapp ein halbes Jahr lahmarschiger. Jetzt haben es halt beide.
Du kritisierst, dass SAM oder rBAR, falls Dir das besser gefällt in den Benchmarks längere Balken bei AMD ergibt. Das ist ein Feature, dass ohne properitäre Software verfügbar ist. Jeder dessen CPU/Chipsatz-Hardware zusammen mit der GPU das unterstützt, kann es aktivieren. Es ist daher aus meiner Sicht vollkommen korrekt, dass auch in den vergleichenden Benchmarks zu verwenden.
Das Nvidia erst ein halbes Jahr später nachgezogen hat und in Benchmarks ggf. Nachteile hatte oder hat, ist deren Problem. Sie hätten das ja jederzeit verwenden können.

Und es ändert auch nichts daran, dass Nvidia fast ausschliesslich properitäre Features bring anstatt etwas zum Vorteil aller. PhysX auf nach dem Kauf auf Nvidia-Hardware limitiert, Gsync statt Freesync, Gameworks, etc etc..
DLSS reiht sich da natlos ein. In wie weit RTX ein spezieller Dialekt von DXR aus DX12 ist, wäre auch noch interessant. Reines DXR kann es fast nicht sein, sonst hätte man z.B. in CP77 nicht so ewig gebraucht, DXR für AMD freizuschalten. Und das Nvidia erst seit dem RT-Feature DX12 toll findet, ist auch nicht verwunderlich. DX11 lief und läuft bei ihnen besser als DX12. Dummerweise benötigen sie aber DX12 für ihr RTX. Sonst würden jetzt noch Spiele mit DX11 gepuscht werden.

Cunhell
 
cunhell schrieb:
In wie weit RTX ein spezieller Dialekt von DXR aus DX12 ist, wäre auch noch interessant.
Zum restlichen schreibe ich mal nix, da es sonst ausufert. Aber das hier kannst du direkt streichen, denn es gibt keinen "RTX Dialekt" in DXR.
cunhell schrieb:
Reines DXR kann es fast nicht sein, sonst hätte man z.B. in CP77 nicht so ewig gebraucht, DXR für AMD freizuschalten
Deine "Argumentation" könntest du bei Godfall btw. auch bringen. Nur eben umgekehrt. Aber auch da ist es natürlich blödsinn.
 
cunhell schrieb:
PhysX auf nach dem Kauf auf Nvidia-Hardware limitiert, Gsync statt Freesync, Gameworks, etc etc..
DLSS reiht sich da natlos ein.
Und jetzt? Darf Firma X keine Technologien entwickeln und sie dann für sich beanspruchen und patentieren? Leben wir im Kommunismus, wo jedem alles gehört, was andere erwirtschaftet haben? 😂 Was ist das bitte für ein lächerliches Argument? Lass denen doch ihr Physx, GSync, Gameworks, RTX. AMD hat doch entsprechende Pendants. Man muss nicht immer alles offen lassen. Natürlich will Nvidia mit solchen Technologien und dem Marketing drum herum Kunden binden und schließt Verträge ab, dass ander Firmen wiederum ihre Technologien verwenden. Das ist komplett legitim und passiert überall auf der Welt. Soll AMD sich eben was eigenes ausdenken, so wie das Chiplet-Design bei Ryzen.
cunhell schrieb:
Reines DXR kann es fast nicht sein, sonst hätte man z.B. in CP77 nicht so ewig gebraucht, DXR für AMD freizuschalten.
Weiß der Geier warum sie so lange gebraucht haben. Vielleicht ging es eben doch sehr einfach, nur hatte man das Problem, dass es vor dem Patch 1.2 so dermaßen beschissen lief, dass man es erstmal (zumindest minimal) optimieren wollte bzw es zumindest versuchen musste. Abgesehen davon hatten die Entwickler von Cyberpunk mal ganz andere Probleme, als RayTracing für AMD zu implementieren. 😂 Das hatte garantiert nicht die oberste Priorität bei diesem Bugfest am Anfang.
Ich hätte es auch besser gefunden, wenn RT direkt für beide Marken freigeschaltet gewesen wäre. Jetzt kann man sich wenigstens einreden, dass RT auf BigNavi noch "optimiert" wird. 😆 Nur Fidelity FX Super Resolution kann hier noch was retten.
cunhell schrieb:
Und das Nvidia erst seit dem RT-Feature DX12 toll findet, ist auch nicht verwunderlich. DX11 lief und läuft bei ihnen besser als DX12. Dummerweise benötigen sie aber DX12 für ihr RTX. Sonst würden jetzt noch Spiele mit DX11 gepuscht werden.
Haltlose Unterstellung. Woher willst du denn wissen seit wann Nvidia im Hintergrund am DX12-Support und an RT arbeitet? Jetzt ist es eben soweit und läuft auch hervorragend.
 
Tom_111 schrieb:
Dann spiel das doch mit einem Emulator und wunder dich, dass es nicht so toll ist, wie in deiner Erninnerung.
Das liegt an eurem schwammigen Gedächtnis.
Aktuelle Spiele sind um Klassen besser, komplexer und aufwendiger.
Nö- Es geht hier um Spielmachanik Wenn der core- Gameloop spaß macht, ist alles andere egal. Siehe Tetris....
Ergänzung ()

cunhell schrieb:
Und es ändert auch nichts daran, dass Nvidia fast ausschliesslich properitäre Features bring anstatt etwas zum Vorteil aller.
Hör mal mit diesem Samariter- Denken auf. AMD entwickelt Dinge rein ausschließlich mit dem Hintergedanken Geld zu verdienen und dem "armen User" Geld aus der Tasche zu ziehen.
Sie stellen Dinge unter Anderem open source, weil diese dann von findigen Usern kostenlos weiter bzw. durchentwickelt werden.
cunhell schrieb:
PhysX auf nach dem Kauf auf Nvidia-Hardware limitiert,
Nein
cunhell schrieb:
Gsync statt Freesync,
Gsync hat ganz andere Anforderungen an die Hardware. Du bekommst mit Gsync gelabelte Bildschirme nur, wenn diese hardwaretechnisch festgelegte Mindestanforderungen liefern. Zudem ist der Arbeitsbereich, in welchen die Systeme greifen unterschiedlich.
cunhell schrieb:
Gameworks, etc etc..
Gameworks Bibliotheken funktionieren uneingeschränkt auch auf nicht NVIDIA- Hardware. Somit geht das Argument, was Du hier zum Nachteil Nvidias versuchst zu liefern komplett nach hinten los....
cunhell schrieb:
DLSS reiht sich da natlos ein. In wie weit RTX ein spezieller Dialekt von DXR aus DX12 ist, wäre auch noch interessant.
Ja- Welchen offenenen Standard hätte NVIDIA denn wählen sollen, wenn es keinen gibt und auch keine Hardware vom Konkurrenten vorhanden ist, die spezialisiert entsprechende Funktionen beschleunigt?

Danke NVIDIA, dass Ihr neue Dinge entwickelt, so dass AMD mit dem Hintern hochkommen muss und z.B. ein DLSS Pendant entwickeln muss. So wie damals AMD mit Mantle/Vulkan. Danke AMD.

cunhell schrieb:
Reines DXR kann es fast nicht sein, sonst hätte man z.B. in CP77 nicht so ewig gebraucht,
AMD hat keine dediziert concurrent funktionierenden RT- Einheiten. AMD kann RT nicht zeitgleich mit anderen Operationen in den TMUs berechnen.
Da kann DXR überhaupt nichts dafür. Der ganze Spaß kommt verspätet, weil AMD unfähig ist, DXR kompatible Treiber zu entwickeln.
cunhell schrieb:
DXR für AMD freizuschalten. Und das Nvidia erst seit dem RT-Feature DX12 toll findet, ist auch nicht verwunderlich.
Ist es auch überhaupt nicht. Nvidia ist bis dahin mit DX x- 11.x bestens (besser als AMD/ATI) zurecht gekommen.
cunhell schrieb:
DX11 lief und läuft bei ihnen besser als DX12.
Ja- Weil AMD zu dämlich war, die scheduler/Hardwareorganisation und treibersystem so weit anzupassen, wie es NVIDIA tat.
cunhell schrieb:
Dummerweise benötigen sie aber DX12 für ihr RTX. Sonst würden jetzt noch Spiele mit DX11 gepuscht werden.
Garnix benötigen die. Sie sind nicht im Geringsten darauf angewiesen irgendwelche APIs zu unterstützen.
Wenn es Dir lieber ist, dass jeder Hersteller wieder seine eigene API ins Feld führt (3dfx glide), dann ist Dir auch nicht zu helfen....

Dieses Fanboy- Gequatsche ist echt unerträglich geworden....
Macht mal Euren Kopf auf.... Es geht hier um Unternehmen, die im Wettbewerb stehen. Da erfindet man "unverschämter Weise" Dinge, um den anderen auszustechen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: deady1000
habla2k schrieb:
Also überall anders läuft es damit sehr gut, nur in dieser Bar gab es das Problem bisher.
Bestimmte Ecken im Game ziehen überdurchschnittlich an den FPS. So zum Beispiel das Jig-Jig-Viertel oder der Marktplatz davor eine Ebene tiefer. Das Lizzys hat auch ein paar extreme Beleuchtungs-Features, die an den FPS nuckeln.
 
  • Gefällt mir
Reaktionen: habla2k
Zurück
Oben