• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Raytracing zum Start nur mit Nvidia-Grafikkarten

.Sentinel. schrieb:
Die Unreal- Engine implementiert DXR ohne wenn und aber und komplett spezifikationskonform. Wenn AMD damit nicht läuft, hat AMD ein Problem und sonst niemand.

AMD läuft mit DXR@UE4. Godfall nutzt die Engine auch. Es kann sich da höchstens um Teilaspekte der Implementierung handeln die fehlerhaft sind.

KlaraElfer schrieb:
Fraglich ist eher die fehlende RT Unterstützung auf Nvidia Karten bei Godfall.

Die Unterstützung fehlt nicht.
Du musst lediglich in der INI Datei der Gameengine die DXR Option von False auf True ändern :D
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wadenbeisser schrieb:
GPU Physik kannst du gleich wieder streichen denn die dafür zuständige Technologie wurde lediglich aufgekauft und auf die eigenen Produkte beschränkt. Eher haben sie sich dadurch als Technologiebremse erwiesen.
Das ist schon eine ziemlich arge Verdrehung der Tatsachen.

Die Ageia-Karten musste man zusätzlich kaufen.
Das waren auch keine GPUs, sondern extra Physik-Beschleuniger.
Dadurch dass die niemand hatte, gab es nur eine Hand voll Games, die das supporteten/voraussetzten.

Diese Technologie spielte keine Rolle, bis NVidia die Firma übernahm und die Physik-Beschleunigung in ihre Grafikkarten integrierte.
Ohne diese "Technologiebremse" hätten wir diese Technologie heute vielleicht gar nicht.

Mag sein, dass es VRR schon auf Mobil-Geräten gab. Aber für PC-Gaming spielte es eben keine Rolle.
Auch hier brauchte es ein Vorpreschen NVidias, um das Ganze zum Thema zu machen.

Raytracing ist alt, aber spielt beim Gaming erst seit RTX eine Rolle.
Das wäre sicher auch irgendwann so gekommen. Aber NVidia hat das Ganze deutlich beschleunigt.
Und dass das nun möglich ist, liegt nicht nur daran, dass es "beschnitten" ist, sondern eben auch daran, dass es spezielle Recheneinheiten gibt, die das berechnen.
Dazu kommt auch noch das Tensor-Kern beschleunigte AI-Denoising. Auch in diesem Bereich ist NVidia einer der Big Player.

Mit 3D-Gaming ist natürlich stereoskopisches 3D gemeint.
Leider sind und waren die Spiele-Entwickler (bis auf ein paar ganz wenige Ausnahmen) so inkompetent, das Thema komplett zu ignorieren.
NVidia entwickelte deshalb einen Treiber-seitigen Hack, der es ermöglichte und stellte außerdem noch entsprechende Hardware bereit.

Ohne NVidia hätte das es Thema 3D Gaming quasi gar nicht gegeben.
Sie haben's ja nun leider auch aufgegeben, aber eine ganze Weile wenigstens versucht, zu etablieren.

Wieso muss man eigentlich diese extrem wichtigen Erfolge und Errungenschaften leugnen, nur weil man vielleicht gerne AMD mag?
 
  • Gefällt mir
Reaktionen: foo_1337
Wadenbeisser schrieb:
Die Variable Refresh Rate gab es ebenfalls bereits vorher im mobilen Bereich
mir fällt grad kein mobile, mit VRR ein, was vor gsync rausgekommen wäre. also vor 2013.
die Technik an sich ist aber schon älter, das stimmt, aber spielte absolut keine rolle.
USB-Kabeljau schrieb:
Wieso muss man eigentlich diese extrem wichtigen Erfolge und Errungenschaften leugnen, nur weil man vielleicht gerne AMD mag?
weil wadenbeisser amd ultra ist
 
  • Gefällt mir
Reaktionen: USB-Kabeljau und pietcux
Jesterfox schrieb:
Die erste Gaming 3D Karte kam tatsächlich von NVidia (Diamond Edge 3D mit NV1 Chip).
Ich denke darüber kann man angesichts des Wikipedia Eintrags streiten da die Karten auf ein komplett andere Technologie setzten. Es ist zwar eine 3D Karte aber fürs 3D Gaming eher irrelevant.
Der Chip nutzte jedoch nicht das übliche Polygonverfahren heutiger Grafikchips, um 3D-Objekte darzustellen, sondern setzte auf so genannte NURBS. Da eine Weiterentwicklung des Prozessors (NV2) auch in einer Sega-Konsole integriert werden sollte, wozu es jedoch nie kam, besaß die mit dem NV1 ausgerüstete Diamond Edge 3D neben einem Sound-Subsystem (Sound-Blaster-kompatibel) noch zwei Anschlüsse für einen Sega Gamecontroller. Die Liste der unterstützten Spiele war letztendlich jedoch recht kurz (alle stammten von Sega, z. B. Virtua Fighter), und die recht „exotische“ NURBS-Technik setzte sich nicht durch.
 
cruse schrieb:
mir fällt grad kein mobile, mit VRR ein, was vor gsync rausgekommen wäre. also vor 2013.
Das wurde schon 1000x durchgekaut, es basiert auf einer stromspar Technologie aus dem eDP Bereich die nur dann ein Bild an den Bildschirm schicken soll wenn ein neues Bild verfügbar ist. Letztendlich machen die ganzen adaptive Sync Technologieen genau das, nur eben dauerhaft.
Genau deshalb wurde es von AMD am Anfang auch auf einem Laptop demonstriert weil die Bildprozessoren der normalen Monitore aufgrund des Netzbetriebs darauf verzichtet hatten.
 
cruse schrieb:
Es spielt für die Bezeichnung "erster 3D beschleuniger" keine rolle ob das die nurbs-technik war oder nicht.
Jepp. Wichtiger ist der Zusatz "Gaming", denn 3D Beschleuniger gabs vorher schon (z.B. von Matrox oder 3D Labs. Waren halt für CAD gedacht, nicht für Spiele)
 
USB-Kabeljau schrieb:
Das ist schon eine ziemlich arge Verdrehung der Tatsachen.

Ich verdrehe garnichts.
Ja die PhysX Karten mußte man seinerzeit extra kaufen was kein Wunder ist da die Firma keine Grafikkarten oder dergleichen entwickelte aber nvidias erste Aktion nach dem Aufkauf war die Einstampfung jener Karten und Beschränkung auf die eigenen Grafikkarten. Man hatte sogar später die PhysX Unterstützung mit einer scheinheiligen Begründung für die eigenen Karten per Treiber gesperrt solange diese nicht die primäre Grafikkarte waren. Selbst den CPU Fallback hatte man im Steinzeit Alter vergammeln lassen (singlethread, FPU Code) und selbst als das aufflog kam nicht viel mehr als Lippenbekenntnisse bei rum denn die Version mit der längst überfällige Multicore Unterstützung (SDK 3.x) kam natürlich nicht für den Spiele Markt. Bis heute basiert die PhysX System Software auf SDK Version 2.x.
https://www.nvidia.com/de-de/drivers/physx/physx-9-19-0218-driver/

Ach ja, die Nummer mit dem CPU Fallback war übrigens von 2010.
https://www.hartware.de/2010/07/13/nvidia-weist-physx-kritik-zuruck/

Im übrigen ist auch das stereoskopische 3D per Shutterbrille ein alter Hut denn damit hatte ich entweder mit meiner damaligen Geforce 2 GTS oder Geforce 3 am CRT Monitor rumexperimentiert.
Seinerzeit kam die Umsetzung von den Hersteller Treibern meiner ELSA Karte, später wurde es in reduzierter Form (für mich leider unbrauchbar) auch eine Zeit lang in den Geforce Treibern fortgeführt.

Im übrigen wurde die aktuelle RT Umsetzung zusammen mit Microsoft entwickelt.
Überhaupt ist die gesammte Weiterentwicklung seit nvidias quasi monopol massiv ins stocken geraten denn worauf nv kein Bock hat weil sie dadurch Vorteile verlieren würden wird ganz einfach nicht unterstützt/gefördert und wird entsprechend auf die lange Bank geschoben. Nirgends sieht man das besser als bei DX12 das seit gut 5 Jahren auf dem Markt ist erst mit der RT Geschichte in Fahrt kommt die nun offenbar den DX11 Multicore Workaround als Zugpferd für den Absatz absetzt.

Das sind Jahre die mit dem beharren auf veralteten Technologieen verplempert wurden obwohl sie schon lange ihren Zenit überschritten hatten und die Nachteile unübersehbar waren, obwohl es bereits einen Nachfolger gibt der diese Probleme nicht mehr hat.
Das wäre natürlich auch AMD zu gute gekommen die ihre Architektur gleich auf die Gegebenheiten der neuen APIs ausgerichtet hatten. Es hätte mehr Wettbewerb gegeben weil beide ihre volle Leistung hätten ausspielen können und zur Flaute zwischen der R-200 und der aktuellen RX-6000-Serie wäre es vielleicht in dem Ausmaß nie gekommen weil es sich ganz einfach rentiert hätte komplexere GPUs zu entwickeln.

Allgemein hatte der Entwicklungsfortschritt im Gaming Bereich erheblich nachgelassen seit bestimmte Schlüsseltechnologieen auf neue Produkte beschränkt werden um deren Absatz zu steigern. Das fing bereits mit DX10 beim wenig erfolgreichen Vista an, wodurch es weitestgehend unter den Tisch fiel weil Windows 7 bereits mit DX11 kam. 3 Jahre die weitestgehend verplempert wurden. Bei DX11 war nvidia wiederum die treibende Kraft weil sie sich mit ihrem Multicore Workarond einen Vorteil gesichert hatten den sie mit dem besseren Multicore Support der neuen APIs wieder verloren hätten und man sich entsprechend wenig um deren Unterstützung gekümmert hat. Die werden erst seit der RTX Geschichte gefürdert und schon wurden die nächsten Jahre an die Wand gefahren......

Im übrigen kann man beim letzten Satz den Spieß auch umdrehen denn es wird schließlich auch nicht zu knapp AMDs Rolle bei der Entwicklung und vor allem Verbreitung von Technologieen geleugnet.

@cruse

Nein ich bin kein von dir benannten "amd ultra" sondern nur einer der alten Säcke die seit Anfang des 3D PC Gamings dabei sind und viele Entwicklungen kritisch betrachtet hatten.
Ergänzung ()

cruse schrieb:
Es spielt für die Bezeichnung "erster 3D beschleuniger" keine rolle ob das die nurbs-technik war oder nicht.
Der nv1 war ein Beschleuniger der für 3D Gaming praktisch irrelevant war weil er eine Technologie nutze die dort keine Rolle spielt. Genau deshalb dürfte dessen Relevanz fürs 3D Gaming eher fragwürdig sein.
Ergänzung ()

Wo ich schon dabei bin, habe ich es überlesen oder sind ausgerechnet jene hier still die AMD für die RT Beschränkung bei Godfall so ausgiebig kritisiert hatten und nun erstaunlich sparsam mit der Kritik an der Beschränkung bei diesem Spiel?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: AssembIer und cunhell
USB-Kabeljau schrieb:
Fakt ist, dass NVidia treibende Kraft bei neuen Technologien ist, darin investiert, und dabei natürlich auch einen Return of Invest sehen möchte.
....................................................
AMD trabt immer brav hinterher.
Aber bis sie nachziehen (oder Entwickler eigene Methoden entwickeln) fehlen solche Features bei ihnen dann eben.

Darum wurden damals auch Spiele (Assassins Creed) DX10.1 unterstützt haben plötzlich wieder nur auf DX10 gesetzt, da der Patch zurückgezogen wurde. Komischerweise lag DX10.1 Nvidia-Karten damals nicht besonders weil sie eben im Gegensatz zu ATI nur DX10 beherrschten.
Und DX12 wurde für Nvidia erst interessant als sie es für RT brauchten. Ohne DXR, was DX12 voraussetzt, würde Nvidia immer noch DX11 puschen, da sie dort einen eklatanten Vorteil haben.

ATI hatte z.B. schon 2001 eine Tessellation-Funktion Namens ATI TruForm die auch in einigen Spielen eingesetzt wurde. Leider war es properitär und lief nur auf ATI Karten. Das Feature kam dann erst mit DX11 richtig in schwung.
Was eindrücklich zeigt, dass properitäre Lösungen eine Sackgasse sind obwohl sie evtl. sogar für alle ein Gewinn wären.
Async Compute von DX12 lief auch auf AMD-Hardware besser als auf Nvidia-Karten und wurde von Nvidia Maxwell versprochen aber soweit ich weiß nie richtig geliefert. Und selbst Pascal war da auch nicht gerade
überragend.
Anm.: Ja, ich weiß, Features die die Mitbewerber bevorzugen sind nicht weiter relevant, weil sie nicht zu häufig eingesetzt werden. Man könnte sich aber auch fragen, warum wohl?

MMn hat Nvidia immer da gepuscht, wo sie Vorteile hatten (z.B. DX11, massives Tesellation) und dort verzögert (z.B. DX12) wo es ihrem Mitwerber mehr in die Karten gespielt hat. Nvidia hat zudem einiges wie PhysX-Ageia und Know-How von 3DFx ein/aufgekauft.
Nvidia macht vieles und vieles auch gut, aber sie sind ganz bestimmt nicht der strahlende Held, der als Einziger die Entwicklung nach vorne bringt. Und jeder, der zumindest versucht, Nvidia objektiv zu beurteilen, wird zugeben müssen, dass der strahlende Held auch einige Leichen im Schrank hat, die so gar nicht zu dem Image passen wollen.

Cunhell
 
  • Gefällt mir
Reaktionen: ComputerJunge
Un ich hatte so gehofft, dass wenn AMD endlich Karten, welche auch DXR in Hardware bearbeiten können, liefert, diese Lager Diskussionen Vergangenheit sind. Alle großen Player kaufen ständig Entwicklungen Anderer hinzu. Mal erfolgreich, mal nicht. AMD hat übrigens mal eben so ATI geschluckt. Hätte auch Nvidia sein können, so what?
 
  • Gefällt mir
Reaktionen: opalau
pietcux schrieb:
Hätte auch Nvidia sein können, so what?
Nvidia wäre auch AMD's erste Wahl gewesen. Jensens Bedingung war jedoch, CEO von AMD zu werden. Daraus wurde nix, daher kaufte man ATI. Wenn man sich die Werte beider Unternehmen heute anschaut, wäre es besser gewesen, Jensens Bedingung zuzustimmen ;)
Das Kleinreden von Zukäufen ist auch lächerlich. Apple wäre mit dem M1 jetzt nicht da, wo sie jetzt sind, wenn sie nicht PA Semi gekauft hätten. PA Semi umgekehrt wäre ohne Apple wiederum nie so weit gekommen. Und sowohl Apple wie auch NeXT wären gar insolvent, wenn es damals nicht den Kauf gegeben hätte.
Übrigens hat ATI auch diverse zukäufe getätigt, die Ihnen unter Anderem zum Erfolg verholfen haben... Remember N64 anyone?
 

Anhänge

  • 1606149298881.png
    1606149298881.png
    122,8 KB · Aufrufe: 297
  • 1606149319005.png
    1606149319005.png
    140,4 KB · Aufrufe: 293
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ComputerJunge, KlaraElfer und pietcux
@pietcux

Die neuen Karten können DXR in Hardware bearbeiten, und nun?


@foo_1337

Das wäre für PC Spieler der Supergau gewesen denn AMD von heute wäre damit mit Sicherheit Geschichte gewesen.
Da ATI seinerzeit auf einem absteigenden Ast war (der R600 war das was sie in der Pipeline hatten....) wäre das GPU Monopol absehbar gewesen und mich würde nicht wundern wenn er den CPU Bereich wegrationalisiert hätte.
Damit gäbe es dann Monopol Nummer 2 und nun rate mal was das für die Produktentwicklung und die Verkaufspreise bedeutet hätte.
 
Eine andere Möglichkeit wäre, dass z.B. Intel ATi gekauft hätte. Komplett vor die Hunde wären sie nicht gegangen, irgendjemand hätte sie gekauft.
Muss mich bzgl. ATi oben korrigieren, der genannte Zukauf hatte nicht den N64 Grafikchip gefertigt, denn Flipper war der Chip im Gamecube. Der R300 Chip hatte diesen dann als Basis.
 
@foo_1337

Wenn diese Interesse gehabt hätten dann wäre AMD damals wohl kaum zum Zug gekommen und eine Versteifung von AMD/Nvidia auf den GPU Bereich und eine damit entsprechend schwache Konkurrenz wäre genau das was Intel ins Konzept gepasst hätte denn damit hätten sie ihr Itanium Konzept durch den Wegfall der x64 Architektur durchziehen können.
ATI wäre dann wohl ganz einfach in den Konkurs gegangen und wer weiss wo die entsprechenden Patente dann gelandet wären.
 
Jensen hatte schon immer höchsten Respekt von AMDs x86 CPU und ist nach wie vor ein Fan von diesen, weswegen er auch unbedingt der AMD CEO werden wollte. Er hätte diese sicher nicht eingestampft. Er hat ja einige Zeit sogar daran mitgearbeitet.
Ergänzung ()

USB-Kabeljau schrieb:
Raytracing ist alt, aber spielt beim Gaming erst seit RTX eine Rolle.
Jo, ca 1979.

USB-Kabeljau schrieb:
Das wäre sicher auch irgendwann so gekommen. Aber NVidia hat das Ganze deutlich beschleunigt.
Ja, sie haben denjenigen, der es 1979 "erfunden" hat eingestellt ;)
 
Zuletzt bearbeitet von einem Moderator:
@foo_1337

Jensen wollte die Kontrolle über das Unternehmen weil er sie sie nicht abgeben oder teilen kann.
Damit war die Übernahme praktisch schon vom Tisch denn seit wann übernimmt das aufgekaufte Unternehmen die Kontrolle über das Gesammtunternehmen? Erst recht mit jemanden wie Hector Ruiz an der Unternehmensspitze.

Zudem hat die Geschichte ja bereits gezeigt das es bei nvidia primär um Gewinnmaximierung gegangen ist.
Was wäre warscheinlicher gewesen? Das man beim Aufkommen der starken Core Achitektur Intels kräftig Geld in die CPU Entwichlung geschossen oder das man die Konkursmasse von ATI aufgekauft hätte um das eigene Monopol auszubauen?
 
Schau mal, was passierte, als Apple NeXT gekauft hat. Brauchst du weitere Beispiele? Hier geht es um Konzerne und nicht um Inhabergeführte Unternehmen. Der Vorstand sieht das ganze ggf. anders als der CEO.
Und AMD hätte in diesem Fall nicht die (kanadische) Konkursmasse von ATi kaufen dürfen.
 
Wadenbeisser schrieb:
Die neuen Karten können DXR in Hardware bearbeiten, und nun?
Hab ich das etwa bezweifelt? Komm mal runter so dumm bin zumindest ich nicht.
Und nun kann der Lagerkampf doch eigentlich aufhören. Das ist meine Hoffnung. War wohl wieder nix.
 
Zurück
Oben