News FidelityFX Super Resolution: DLSS-Konkurrenz ab 22. Juni für AMD- und Nvidia-GPUs

Nolag

Also ich glaube nicht dass hier viele daran denken, dass NV theoretisch in FSR ihre Tensor Cores einbinden könnten, da es ein offener Standard ist. Das selbe gilt eben für AMD und Intel auch.
Deshalb würde ich mich nicht wundern, wenn NV selbst in Zukunft zu den Schritt genötigt sehen wird, DLSS zu öffnen, sobald eben Intel und AMD ML Cores integrieren bzw in deren SIMD, CU ect einbauen. Muss ja kein externer spezieller Core sein.

GSync ist das beste Beispiel, dass auf den offenen Standard und bei vorhanden der benötigen Platine auf die "Pro" Variante umschaltet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ChrisMK72 und Mcr-King
Das beste für alle wäre doch sowieso, wenn aus DLSS und FSR irgendwann ein einziger Standard wird, auf den dann beide Herstellet( alle drei, wenn Intel mit dabei ist) ihre Hardware auslegen können, bzw alle drei an dessen Entwicklung beteiligt sind.
 
  • Gefällt mir
Reaktionen: LukS, -> m1 <-, Hatch und 9 andere
pipip schrieb:
Deshalb würde ich mich nicht wundern, wenn NV selbst in Zukunft zu den Schritt genötigt sehen wird, DLSS zu öffnen, sobald eben Intel und AMD ML Cores integrieren bzw in deren SIMD, CU ect einbauen.
DLSS ist ja keine geheime Technologie. Man weiß wie es funktioniert. Es kann auch sein, dass EPIC seine temporale Super Resolution auf ML umstellt, sobald das in der Hardware verbreitet ist, und damit dann ein ähnliches Ergebnis wie DLSS erzielt. Ich glaube, dass Standards bei den Grafik Bibliotheken überbewertet werden. Bei den APIs ist das eine andere Sache, aber die Industrie ist inzwischen daran gewöhnt alle möglichen Bibliotheken in ihre Renderer einzubinden. Es haben auch viele Studios ihre eigenen temporalen Upsampling Verfahren entwickelt und sind dort nicht auf einen Standard angewiesen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
Man kann die katastrophale Marketingpolitik (z.B. gekaufte 3090 Berichterstattung bei Linus TT und Marcus Brownley oder die absurden Ampere Slides) und die ANTI Gamer Preismodelle Nvidias verurteilen, aber die Technologie per se wertschätzen,

Laphonso schrieb:
Und hier kann man dann gerne applaudieren, dass AMD nachzieht (siehe dei erfolgreiche RNDA2 Generation auf Augenhöhe mit Ampere!) , um Nvidia nicht das Feld zu überlassen. Denn ohne AMD hätten auch die Nvidia Jünger irgendwann Schmerzen.
Da hast Du ja nicht unrecht. Das Problem ist nur das a. der Kunde/Gamer ein sehr kurzes Gedächtnis hat und nur Monate später die Aktionen von Nvidia vergessen sind und wieder Nvidia gekauft wird. Eigentlich sollten die Leute glücklich sein das AMD endlich wieder die Ressourcen hat um mit Nvidia schritt zu halten.
Und b. haben die Leute wohl eine sehr hohe Schmerztoleranz. Den schon die Turing Preise haben kaum jemanden vom Kauf abgehalten. Und jetzt ist es auch nicht viel besser obwohl die Preise explodiert sind.

AMD zieht da leider mit, was aber auch verständlich ist, wieso sollten sie Geld verschenken. Wenn der Gamer die von Nvidia etablierten Preise mitmacht.
Die Frage ist nur ob wir mit diesen Preisen jetzt für immer leben müssen. Oder ob es nach dem Mining wieder in Richtung der UVP von RDNA2 und Ampere geht.
Ich glaube aber das es nicht passieren wird und die UVP für die Ampere Karten bewusst so niedrig von Nvidia angesetzt worden ist. Um guten Willen den Gamern gegenüber zu beweisen. Obwohl man wusste das selbst ohne Mining die Preise durch die Probleme in der Fertigung/Logistik durch die Decke gehen werden.
Nur solange wir bereit sind fast jeden Preis zu zahlen wird weder Nvidia noch AMD die Preise senken.
Vielleicht kommt mit Intel Bewegung in den Markt was die Preise angeht, nur ist Intel auch nicht gerade als Samariter beim Preis bekannt.
 
  • Gefällt mir
Reaktionen: Kampfkeefer und Laphonso
Die Verkaufspreise werden von den Händlern/Distributoren gemacht. Da verdient weder nvidia noch AMD nur einen Cent mehr.
Und AMD wird die Preise nicht nur theoretisch erhöht haben. Sie werden auch mehr Geld im Research Bereich in die Hand genommen haben um nvidia paroli zu bieten sowie auch teurere Produktionskosten aufgrund der höheren Komplexität der Chips.
 
  • Gefällt mir
Reaktionen: Slayn, Tanzmusikus, Mcr-King und eine weitere Person
Ich bin ganz entspannt. Ich habe mir noch eine XBox Series S geholt, damit ich ab und an mal nach Corona mit Kumpels ne Runde for fun zocken kann. Ich habe die jetzt seit einer Woche und genau 2h damit gezockt ^^.

Daher lohnt sich eine Series X für mich 0,0. Dennoch denke ich dass gerade auch die Series S davon profitiert, da sie ja deutlich schwächer ist, als die Series X. Somit supporte ich meinen Teil von AMD.

Dennoch war ich kurz davor meine CPU und das Board zu verkaufen, einfach weil ich den Intel Hate und diesen AMD Fanboyism kaum noch aushalte.

Overclocking war bei Intel einfach smoother als bei AMD. Ja der 5950X ist eine sehr gute CPU, aber in Spielen fühlte sich der 9900KS mit 5.1Ghz Allcore und DDR4-4400 CL17 nicht schlechter an, eher noch einen Tick direkter durch die Core Architektur.

Der Grund warum ich nicht zum 11700K gewechselt bin, ist der doch wieder deutlich gefallene Preis bei 5950X und der vermutlich grausame Wiederverkaufswert des 11700K. Bock den zu testen hätte ich dennoch.

Nun hat AMD allerdings noch das Ass mit dem 3D VCache aus dem Ärmel gezogen was schon echt nice ist.

So richtig warm werden, werde ich mit AMD aber irgendwie nie. Es läuft alles ok, ich habe keine WHEA Fehler oder sonstwas. Aber ich habe noch immer den USB Fehler, die Killer NIC zickt manchmal rum und mir fehlt einfach ein fest definierter Allcore Turbo der auch tasächlich immer erreicht wird.

Das AMD nun bei den GPUs auch auf den "DLSS" Zug aufspringt war doch zu erwarten. DLSS wurde von den AMD Jüngern genau so zerredet, wie Raytracing auch. Nun ist es auf einmal super und toll.

Dann wollte mir noch jemand erzählen das Gsync; Freesync nicht überlegen sei. Man muss sich nur mal die Sync Range und die Specs angucken um zu sehen, dass es schon einen Grund gibt warum echtes Gsync teuer ist. DLSS wird über die Tensor Cores berechnet und nicht über einen reinen Treiber Algorithmus.

Was AMD super gemacht hat, ist die rBAR Geschichte. Hier wurde Nvidia einfach gezwungen ähnliches anzubieten.

Ich hoffe das bald Storage i/o Einzug hält, dann machen NVMe's endlich Sinn. Wenn ich sehe wie die Series S die Spiele lädt, ist das schon deutlich schneller als an meinem PC. Dabei könnte der PC so viel mehr.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, foo_1337 und Laphonso
t3chn0 schrieb:
Dennoch denke ich dass gerade auch die Series S davon profitiert, da sie ja deutlich schwächer ist, als die Series X. Somit supporte ich meinen Teil von AMD.
Die Series S ist dafür aber ja auch auf 1440p ausgelegt und rendert intern sowieso niemals höher als das, während die X auf 4K ausgelegt ist.
Insofern würde FSR bei beiden gleich viel bringen, denn wo die X 4K60 schafft, schafft die S idR auch 1440p/60

t3chn0 schrieb:
und mir fehlt einfach ein fest definierter Allcore Turbo der auch tasächlich immer erreicht wird.
Wozu würde man den denn brauchen? Das einzige, was man damit hätte, wäre nicht optimale Performance in Anwendungen, wo der Allcore-Turbo eigentlich höher liegen könnte, es aber nicht tut weil man sich auf einen gemeinsamen Nenner festlegen musste, der immer erreicht wird.
 
  • Gefällt mir
Reaktionen: LukS, Tanzmusikus, ThePlayer und eine weitere Person
foo_1337 schrieb:
Du hast CUDA/OpenCL vergessen
Wollte jetzt nicht alles aus den letzten 20 Jahre und mehr aufzählen. Da wären ja noch mindestens die 3,5GB und 3Dfx zu nennen. Oder auch dieses Nvidia Partner Programm aus 2019 glaube ich, komme gerade nicht auf den Namen und bin zu faul zu suchen.
Ergänzung ()

foo_1337 schrieb:
Die Verkaufspreise werden von den Händlern/Distributoren gemacht. Da verdient weder nvidia noch AMD nur einen Cent mehr.
Und AMD wird die Preise nicht nur theoretisch erhöht haben. Sie werden auch mehr Geld im Research Bereich in die Hand genommen haben um nvidia paroli zu bieten sowie auch teurere Produktionskosten aufgrund der höheren Komplexität der Chips.
Ja aber glaubst Du das Nvidia und AMD jetzt nicht schon längst die Preise erhöht haben. Somit die GPUs teurer werden und das geht dann so weiter bis zum Händler deines verstauens. Ich bin mir sicher das spätestens seit Januar/Februar die GPUs/Karten seitens Nvidia/AMD deutlich teurer geworden sind. Die werden sich doch den Boom nicht durch die Finger gehen lassen. Falls doch sind die richtig blöd.
 
ThePlayer schrieb:
Ich bin mir sicher das spätestens seit Januar/Februar die GPUs/Karten seitens Nvidia/AMD deutlich teurer geworden sind. Die werden sich doch den Boom nicht durch die Finger gehen lassen. Falls doch sind die richtig blöd.
amd.com, wo du immer noch die 6800XT für ~630€ kaufen kannst(ist seit release kontinuierlich von 649 runter gegangen), wenn mal wieder welche reinkommen, widerspricht dir da ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Slayn und Tanzmusikus
Taxxor schrieb:
amd.com, wo du immer noch die 6800XT für ~630€ kaufen kannst, wenn mal wieder welche reinkommen, widerspricht dir da ^^
Jop.. gestern erst gab es nen AMD Drop.. Nvidia ebenso gestern sowie heute. Die Boardpartner berichten ebenfalls nix gegenteiliges obwohl die immer die ersten sind, die groß jammern.
 
  • Gefällt mir
Reaktionen: Ein_Freund
ThePlayer schrieb:
Wollte jetzt nicht alles aus den letzten 20 Jahre und mehr aufzählen. Da wären ja noch mindestens die 3,5GB und 3Dfx zu nennen. Oder auch dieses Nvidia Partner Programm aus 2019 glaube ich, komme gerade nicht auf den Namen und bin zu faul zu suchen.
Ergänzung ()


Ja aber glaubst Du das Nvidia und AMD jetzt nicht schon längst die Preise erhöht haben. Somit die GPUs teurer werden und das geht dann so weiter bis zum Händler deines verstauens. Ich bin mir sicher das spätestens seit Januar/Februar die GPUs/Karten seitens Nvidia/AMD deutlich teurer geworden sind. Die werden sich doch den Boom nicht durch die Finger gehen lassen. Falls doch sind die richtig blöd.
Die uvp hat sich bei AMD nicht geändert. Und fast jeden Donnerstag kannst du dort eine gpu zu diesen Preisen kaufen. Sind schnell weg, aber einige schaffen es.
 
pipip schrieb:
Und auch jene die verzweifelt im jeden Satz Tensor Core einbauen um die "Überlegenheit" von NV gegenüber den Rest der Welt hervorzuheben. Xilinx baut selbst derartige Beschleuniger, sowie Tesla, Facebook, Google und Co.
CDNA hat ja bereits entsprechende Beschleunigungseinheiten. Heißen dort Matrix Core Extensions und sind ungefähr auf dem Niveau von Volta, also Tensor Cores v1. Da geht in Zukunft sicher noch was, auch bei RDNA.
 
  • Gefällt mir
Reaktionen: .Sentinel., ZeroStrat, Mcr-King und 2 andere
t3chn0 schrieb:
Ich hoffe das bald Storage i/o Einzug hält, dann machen NVMe's endlich Sinn. Wenn ich sehe wie die Series S die Spiele lädt, ist das schon deutlich schneller als an meinem PC. Dabei könnte der PC so viel mehr.

Das ewige Problem bei PC-Spielen ist, dass immer für den kleinsten gemeinsamen Nenner entwickelt werden muss. Deswegen dauert es oftmals Jahre, bis eine im high-end übliche Technologie ihr volles Potenzial erreicht.

Nimm zum Beispiel RayTracing: In den meisten PC-Spielen wird das irgendwie ganz am Ende als Zusatzfeature in Form von reflektierenden Pfützen und Autos draufgeklatscht, während die Grafik ansonsten voll darauf ausgelegt ist, auf einer 1060 in FHD flüssig und gut aussehend zu laufen. RayTracing als Kernelement der Grafikpipeline wie bei manchen Konsolenspielen (z.B. Miles Morales) werden wir am PC so schnell nicht bekommen.

Das selbe gilt für Spiele, die für NVMe-SSDs und letztendlich Technologien wie DirectStorage optimiert werden. Solange es noch viele Spieler gibt, die mit alten SATA SSDs oder sogar Festplatten zocken, werden die schnellen SSDs nur sehr begrenzt ihr Potenzial ausnutzen können.
 
t3chn0 schrieb:
Dennoch war ich kurz davor meine CPU und das Board zu verkaufen, einfach weil ich den Intel Hate und diesen AMD Fanboyism kaum noch aushalte.

Oh, jetzt kommst du wieder mit so einem Irrsinn um die Ecke. Einfach Wunderbar ! :daumen:


t3chn0 schrieb:
Overclocking war bei Intel einfach smoother als bei AMD. Ja der 5950X ist eine sehr gute CPU, aber in Spielen fühlte sich der 9900KS mit 5.1Ghz Allcore und DDR4-4400 CL17 nicht schlechter an, eher noch einen Tick direkter durch die Core Architektur.

Ach und dieses Märchen, dass Intel "direkter" ist, erzählst du auch mal wieder. Da warten wir immer noch auf die Beweise...vll. hilft es ja einfach die Intel-Brille abzuziehen.

t3chn0 schrieb:
So richtig warm werden, werde ich mit AMD aber irgendwie nie. Es läuft alles ok, ich habe keine WHEA Fehler oder sonstwas.

Ja, genau. Ein Stück Technik von Firma "zufälliger Name hier einfügen" verrichtet seinen Dienst. Damit kann ich einfach nicht warm werden. Ich hab zuhause auch das Gefühl, dass mich dieser Philipps Kaffeevollautomat ganz komisch anschaut.

t3chn0 schrieb:
Dann wollte mir noch jemand erzählen das Gsync; Freesync nicht überlegen sei. Man muss sich nur mal die Sync Range und die Specs angucken um zu sehen, dass es schon einen Grund gibt warum echtes Gsync teuer ist.

Es gab durchaus auch bei FreeSync Monitore die dementsprechende Ranges hatten, waren halt etwas teurer als der 0815 FreeSync Monitor für 199 €. Das nVidia die G-Sync Range enger gezurrt hat, war ja schön und gut, entsprach trotzdem nicht dem Preisaufschlag den die Monitore hatten.
 
  • Gefällt mir
Reaktionen: Slayn, LukS, M4deman und 4 andere
Wenn jemand Intel vorzieht, bitte, steht jedem frei mit seinem Geld zu kaufen was man möchte. Darüber braucht man hier nicht diskutieren und ist komplett OT.
 
OldZocKerGuy schrieb:
Wenn jemand Intel vorzieht, bitte, steht jedem frei mit seinem Geld zu kaufen was man möchte. Darüber braucht man hier nicht diskutieren und ist komplett OT.
Von wegen, wir befinden uns hier mitten in einem Fanboy krieg, falls du es noch nicht gemerkt hast.
 
t3chn0 schrieb:
Ja der 5950X ist eine sehr gute CPU, aber in Spielen fühlte sich der 9900KS mit 5.1Ghz Allcore und DDR4-4400 CL17 nicht schlechter an, eher noch einen Tick direkter durch die Core Architektur.
Spielt heutzutage eigentlich noch jemand Spiele auf dem PC oder sind diese nur noch das Mittel um die Hardware Architektur "direkt" zu "fühlen"?
 
  • Gefällt mir
Reaktionen: jonderson, McFritte, Benji21 und 4 andere
Schade wohl gerade nicht mehr dabei, dabei könnte ich den letzten Ticken mehr Leistung gut gebrauchen bei der aktuellen Marktlage ^^
 
Colindo schrieb:
CDNA hat ja bereits entsprechende Beschleunigungseinheiten. Heißen dort Matrix Core Extensions [...]
Wusste ich noch gar nicht. Böse Wissenslücke... ^^

@aldaric Wenn man jemand mal Ryzen nicht über alles lobt, zack, bist du getriggert. Der 11900K fühlt sich tatsächlich geschmeidiger und reaktiver an unter Windows* und scheint im Gaming auch weniger zu hakeln. Ich baue den am WE wieder ein ins Hauptsystem, denke ich.

* Das könnte natürlich an der hohen Bandbreite von 72k MB/s liegen, die man mit dem Gear 2 Modus erreichen kann.
 
Taxxor schrieb:
amd.com, wo du immer noch die 6800XT für ~630€ kaufen kannst(ist seit release kontinuierlich von 649 runter gegangen), wenn mal wieder welche reinkommen, widerspricht dir da ^^
Aber wie sind da die Stückzahlen zum gesamten Markt? Bestimmt sehr gering.
 
Zurück
Oben