News Radeon RX 7900 XTX: Erste Benchmarks sind mit Vorsicht zu genießen

@Taxxor
Ich halte mich an die "offiizielen" Aussagen und die Skalierung.. Igor liegt ja zB auch wesentlich dichter an der Wahrheit, als es zB ein Red Gaming Tech..
Wie gesagt, der letzte Videocardz Geekbench war nicht mal auf RDNA2 Niveau..
Erfreu dich an deiner 4090 und gut.

1670345158648.png


https://browser.geekbench.com/v5/compute/6013315
Also ich sehe da 16% oberhalb einer 4080... Und Laut AMD sollen es ja ~67% werden.
Ich würde sagen, wir sehen noch keine finalen Treiber.
 
Rockstar85 schrieb:
@Taxxor
Ich halte mich an die "offiizielen" Aussagen und die Skalierung..
Und die offiziellen Aussagen sagen genau das
RADEON-RX-7900-3.jpg


Wo meine +~55% nun "ins blaue geraten" sein sollen, weiß ich nicht, es ist genau das, was AMD präsentiert hat.
Und da eine 4080 bei CB 35% vor einer 6950XT liegt, kommt man damit eben auf +15%
 
  • Gefällt mir
Reaktionen: ThirdLife und Ragnarök88
LamaMitHut schrieb:
Ist klar... Natürlich kann man mit den Karten von AMD jetzt schon gut in 4k zocken, ich weiß echt nicht was das unreflektierte getrolle soll.

¯⁠\⁠⁠(⁠ツ⁠)⁠⁠/⁠¯
Es ist halt sehr stark vom Titel abhängig und RT bedeutet quasi immer das Aus für 4K ohne FSR. F1-22 kommt zB auf nur 44fps, eine 3080 Ti ist auch nicht krass schneller mit 50, 57 bei einer unrealistisch teuren 3090 Ti und 74 bei ner 4080.

Sobald 4K und RT zusammenkommen sind beide Hersteller mit RDNA2 als auch Ampere schnell am Ende der Fahnenstange angekommen. Umso spannender wirds jetzt wie viel mehr RDNA3 auch hier nachlegt.

Kaliauer schrieb:
Wofür kauf ich denn ne 4080? Die 16 GB reichen heute aus, ja. Aber in zwei Jahren? Wie schauts denn heute mit der 3080 Ti mit 12 GB aus - die läuft auch schon bei einigen Games in den RAM-Falschenhals.

Die Frage die ich mir heute stelle ist ganz einfach Kauf ich heute eine "günstigere" Karte und in zwei Jahren eine neue "günstige" oder kauf ich mir jetzt ne teure - die muss dann aber 4 Jahre halten. Und da mach ich bei 16 GB eben ein Fragezeichen dran.
Ich würd Speicher immer von der aktuellen Konsolen-gen abhängig machen. Wenn man jetzt mit 12GB in 4K mit RT gut klarkommt, dann braucht es nicht mehr in absehbarer Zeit. Mir wäre es sogar lieber gewesen wenn die 4090 nur 16GB hätte statt 24 aber dafür ein 512 Bit Speicher IF. 1,34 TB pro Sekunde ggü. 1 TB bringen der Architektur garantiert mehr als mir 24 GB VRAM bringen die eh in jedem Spiel zu 50% oder mehr brach liegen.

Ich zock grad The Outer Worlds und laut Afterburner werden zwar 8,9GB im Mittel reserviert auf der GPU, "in-use" sind aber nur ca. 4GB. Und das in 4K alles maxed und Aussenbereichen.

Was die 3080 Ti angeht hatte ich kein Spiel mit Flaschenhals finden können, welches wäre das (rein interessehalber) ?

Kaliauer schrieb:
Was interressiert mich mein dummes geschwätz von vor 5 Minuten? :p:D Warten wir ab, was AMD aufruft (und was lieferbar ist). Davon hängt ab, welche Karte interessanter ist.
Es wird spannend. Es wär mir mehr als Recht wenn AMD eine 7990XTX noch nachlegt um die 4090 vom Thron zu stoßen. Das nötigt nämlich auch nVidia wieder mehr zu machen oder an den Preisen zu drehen. Seit 2016 mit Ryzen und 2019 mit RDNA2 macht Technik endlich wieder Spaß !

Ich hab kein Problem eine Radeon zu kaufen, sie muss halt schneller sein als das NV oder irgendwann mal Intel Produkt. Mich interessiert nur nackte Power.

Kaliauer schrieb:
Wenn du kein professioneller User bist, dann "brauchst" du auch keine Grafikkarte in der Leistungsklasse für Videobearbeitung & Co. Man kann es sich gönnen, definitiv, aber brauchen tut man es nicht.
Das ist es eben. Man "braucht" wenige Dinge wirklich. Wir wollen sie einfach gerne :D

anthony274 schrieb:
Ich definiere das daran, dass es nVidia, das ist der Hersteller, damals so propagiert hat und auch deswegen die Karte nicht der GTX Familie zugerechnet hat. Die Karte sollte abseits davon im Semi-Pro Bereich platziert werden. So hieß es damals. Wenn Du andere Infos hast; z.B. dass nVidia das nicht so gemeint hat, weil die Treiber andere waren, dann weißt Du mehr als das nVidia Marketing von damals.
Also ist das Marketing und nicht die Technik maßgeblich ? In dem Fall ist die 3090 was ? Mal als Gaming-Karte beworben, mal als Pro-Karte beworben ist die jetzt beides ?

anthony274 schrieb:
Du unterschlägst völlig den technischen Fortschritt in der Fertigung. Nach Deiner Rechnung geht der zu 100 % in die Tasche der Hersteller. Wenn das so wäre, müsste eine Alufelge mit Reifen heute mehrere 10.000 € kosten, weil man noch immer die Arbeitszeit und den Wareneinsatz von Zeiten nimmt, als ein Kutschrad per Hand gefertigt wurde, die Inflation und aktuellen Löhne draufschlägt, aber die Weiterentwicklung in der Fertigung unterlässt. Was Du machst, ist einfach nicht richtig. Die nächste GPU müsste dann 1000 € mehr kosten.
Nö, es ändern sich halt viele Rahmenbedingungen mit dazu. Software und dedizierte Zusatzhardware gewinnen immer mehr an Stellenwert (DLSS, FSR, RT, CUDA, NVENC, VCE etc. pp).

Beim Felgenvergleich würde ich sagen, wer Highend Alufelgen gekauft hat und immer das "krasseste" haben wollte, der kann heute 10k für einen Satz problemlos ausgeben - sind dann halt Carbonfelgen mit Einzelabnahme. Analog dazu EUV Belichtung und Highend-Chips und Materialien. Alles wird komplexer und technischer Fortschritt bedingt meist einen erhöhten Einsatz von neuen Fertigungs-Technologien, Materialien und somit auch einen gestiegenen finanziellen Aufwand. Das nVidia von heute hat auch nicht mehr nur 400 Mitarbeiter, das sind jetzt über 22k, die wollen alle bezahlt werden. AMD dasselbe, als Lisa Su übernommen hat hatten die etwa 8000 Mitarbeiter, jetzt sind es knapp 16000 und noch über 2k Stellen unbesetzt ausgeschrieben - die können nicht immer beim gleichen Preis bleiben und immer mehr Leute einstellen, immer mehr forschen, immer mehr und mehr und alles am Besten für Lau.

anthony274 schrieb:
Die Wafer haben zu Zeiten der 1080 sicherlich nicht weniger gekostet. Es waren ja 16nm Chips, bei denen viel weniger Chips aus einem Wafer kommen.
Aber selbst wenn wir all das außen vor lassen, kommen wir trotzdem nicht auf die Preise, die es heute gibt.
Leider falsch. Die Waferpreise für 16/12nm lagen bei TSMC noch knapp unter 4000$, ein 5nm Wafer kostet dich schlappe 17k $. Dazu war der Chip einer 1080 knapp halb so groß wie der einer 4090, selbst der einer 4080 ist noch ca. 20% größer und kostet pro mm² 4,25x soviel Geld wie ein Die aus 16nm Fertigung.

Ich rechne dir die Kosten mal so vor: aus einem 300mm Wafer konnte man bestenfalls 136 gute GTX1080 Dies schnitzen bei 314mm² Chipgröße, macht 29,41 $ pro Chip. 4080er Dies kriegt man aber nur noch 106 aus einem 300mm Wafer (379mm²). Bei den aktuellen 5nm Waferkosten macht das dann auf einmal 160,37$ pro Chip. Nur um das mal ins Verhältnis zu setzen.

anthony274 schrieb:
Ich habe gerade auch gesehen, dass ja, 2017 die 1080ti gelounched wurde für 699 $?
Wie geht das? Stärkere Karte, keine Veränderungen bei Dollar und €, MWST gleich, gleiche Technologie, gleiche Wafergröße und das neue Flagschiff kostet trotz Inflation einfach genau so viel wie das ältere Flaggschiff? Wie ging das damals nur?
Aus einem 300mm Wafer konnte man ca. 75 Chips holen -> 53,33$ pro Chip bei damaligen Waferpreisen. Die 1080Ti ist auch gleichzeitig für 100$ mehr gestartet. Ich würde behaupten nVidia hat hier einfach auf Marge verzichtet, war aber als FE auch kaum verfügbar. Eine ROG 1080 Ti wie ich sie hatte kostete damals auch 1029€.

Das kann man schon mal machen. Aber ist halt kein Konzept für gute Gewinne. Oder wärst du bereit ständig neue Aufgaben im Geschäft zu übernehmen und aber gleichzeitig nie mehr Lohn zu kassieren ? Ich sicher nicht.

Rockstar85 schrieb:
Sorry, aber WENN dem so wäre, hättest du nicht 2000€ für eine GPU hingelegt ohne auf kkonkurrierende Produkte zu warten. Das hat nichts mit Rationalität zutun, wenn von einem Produkt nur ein Produkt in Frage kommt.
Auch dieses öffentliche Profilieren mit einem Halo geht vielen auf den Sack.
Also hätte ich auf eine 7900XTX warten sollen, die AMD selbst "nur" gegen die 4080 positioniert ? Welchen Sinn würde das ergeben ? Ich habe ja extra noch auf die Präsentation von AMD gewartet bevor ich was entschieden hab.

Und wovon genau fühlst du dich jetzt von mir angegriffen ? Weil ich dieses Jahr für mich entschieden habe nicht mit meinem Paps nach Teneriffa zu fliegen und lieber in Zen 4 und RTX 4000 investiert hab für meinen Winterurlaub ?

Rockstar85 schrieb:
Keiner ist dir böse, wenn du außer NV nichts kaufst, aber dann sei bitte so ehrlich zu dir und kommuniziere das so. Und das gilt für viele hier!
Ich kaufe auch nur Suzuki und Kawasaki und stehe dazu.
Hä ? Wieso sollte ich ausser nVidia nix kaufen ? Ich hab früher Voodoo 2 gehabt und Riva128er Karten, Kyro und Kyro 2. Autos wechsel ich auch komplett die Marken, VW, Audi, Jaguar, Tesla...für mich kommt das in Frage was im Moment meine Bedürfnisse am Besten abdeckt.

Wenn AMD im März eine 7990XTX vorstellt die eine 4090 hart abzieht, dann ziehe ich auch da sofort einen Tausch in Betracht wenn er mir mehr gibt als ich verliere. Mich auf Marken zu fixieren kommt nicht in Frage, halte ich für dämlich. Man beraubt sich eventuell besserer Optionen wozu ?

C4rp3di3m schrieb:
Der infinity cache von AMD ist aber u.a. dafür den kleineren BUS zu kompensieren, die 390 z.B. hatten noch eine 512bit Anbindung. Die Radeon 7 ist auch heute keine schlechte Karte.

Also bei 1440p war mein GDDR schon immer mit (RTX 2060-12GB bis letzte Woche) 11GB+ belegt. Der Treiber und die Engines lagern dort auch viel ein z.B. bei openworld Titeln. Du merkst sehr wohl einen Unterschied, auch ohne RT gedöns. Alles unter 192bit ist Ramsch.
Reserviert. Nicht belegt behaupte ich. Das muss man schon unterscheiden. Ich hatte mit der 3080 Ti keinen einzigen Titel der die Karte VRAM-Technisch ausgelastet hätte. Das Problem ist eher dass die GPU schlicht nicht schnell genug war. VRAM ist selten das Problem abseits professioneller Anwendungen.

C4rp3di3m schrieb:
Ich finde es extrem Schade das HBM zur Zeit nur im Profibereich angeboten wird, in dem Fall wäre etwas höhere Preise auch eher gerechtfertigt, wenn jetzt wieder wer kommt das wäre so Teuer, nonsens, die Preise der Radeon 7 z.B. lagen bei 700€. AMD verschenkt auch nichts, von daher wären 1000€ Karten immer noch extrem gewinnbringend, wenn sie wieder HBM hätten, egal ob NV oder AMD.
AMD hat auch gemerkt dass das Verschwendung war und schlicht unnötig für den Zweck. Ich würde auch behaupten AMD hat mit der Radeon VII massiv Geld liegen lassen wie auch nVidia mit der 1080 Ti. Den Fehler machen die erstmal nicht mehr. Beide.

C4rp3di3m schrieb:
Schaut man sich die Aktienkurse der beiden Firmen an weißt Du wo dein Geld hingeht. Das ist alles einfach Abzocke der Kunden, Fakt.
Dann bist du also auch so fair und willst selbst nur so viel Gehalt haben dass es dir gerade so zum überleben reicht ? Sparen willst du nix und dir was gönnen auch nicht ? Sehr fair von dir ggü. deinem Chef. Ich bin da nicht so fair.

C4rp3di3m schrieb:
Upscale kann ich nichts abgewinnen, gar nichts. Am Ende ist die Physik im ganzen Universum gleich, man kann nichts mehr an Dietails erschaffen was nicht da ist. Skaliere mal ein VHS Video auf 4K hoch, dass ist Augenkrebs pur.
Kann man nicht ? Hier meine Freundin, soeben von AI erschaffen:
1670345203828.png


Ziemlicher Augenkrebs oder ?

C4rp3di3m schrieb:
Diese Techniken wie FSR oder DLSS sind einfach nur Blödsinn den keiner Braucht.
Wenn deine Grafikkarte nicht genug Performence für deine gewünsachte Auflösung hat, dann kaufe dir eine bessere oder Lebe damit.
Ja, so reagieren Menschen meist wenn sie eine Technologie nicht verstehen. Früher fand man auch dass keiner das Automobil braucht oder der Personal Computer eine Modeerscheinung ist. Über Apples iPhone haben auch alle gelacht und heute glotzt jeder auf sein Smartphone.

C4rp3di3m schrieb:
Für mich wurde dass nur eingeführt, um den Leuten tolle Benchmarkbalken presentieren zu können, die Bildqualität wird damit aber nicht besser.
Tatsächlich geht es auch darum die Bildqualität zu erhalten und nicht zwangsläufig zu verbessern. Ich find Upscaling mehr als sinnvoll und nutze das auch aktiv wenn ich am großen 4K TV zB in 720p gedrehte Serien hochskaliere damit sie nicht aussehen wie Matsch.

schkai schrieb:
Ich habe nichts gegen RT, wenn es gut eingesetzt wird und nicht unnötig viel Leistung frisst, dann aktiviere ich es gerne. Offensichtlich kümmert man sich aber mehr um Effekte, anstelle einfach eine gutes Game mit guter Grafik zu erstellen. Könnte auch der Grund sein weshalb ich kaum Spiele mit RT in meiner Bibliothek habe :)
Das war aber seit jeher so. Es gab immer wieder neue Fortschritte bei Grafik und die haben alle mal mehr, mal weniger Leistung gekostet. Es ist aber auch nunmal so dass man irgendwann an einem Punkt ist wo man immer mehr Leistung für immer weniger Return investieren muss um sich Perfektion anzunähern.

Daher braucht man eben neue Lösungen wie DLSS/FSR und Co. weil endlos skalieren aktuell GPUs halt auch nicht.
 
@Taxxor
Schau mal ins Update..
Okay basierend auf 4 Games sind es 54,5% mehr Leistung..
Damit läge ich exakt bei dem was AMD mal kommunizierte (1,55x Skalierung)... Die 6950XT zieht im schnitt ~340W
AMD hätte also hier mit einer Verdreifachung der Performance nur ~60% mehr Spieleleistung draufgelegt? Sorry aber das klingt bissl unglaubwürdig. Die 6950XT wurde meines Wissens nach mit 300W gebencht..
Also in sich sind die Werte nicht Plausibel

Zudem soll die Gebenchte GPU nur mit 2200MhZ gelaufen sein, das wäre weit unterhalb von AMDs Aussagen.. Also Treiber Issues
 
Rockstar85 schrieb:
Sorry, aber das kann sich doch keiner Ernsthaft wünschen?!
Wir sind hier ja auch nicht bei Wünsch-Dir-Was.
Wenn Nvidias Preisvorstellung hinsichtlich der Rasterleistung einen Hauch von Realität hat, glaube ich nicht, dass die 4080 von der 7900XTX um mehr als 10% geschlagen wird.

Im optimalen Fall sehen wir 15%.

Rockstar85 schrieb:
Und komisch, dass alle AIB große fette teure GPOU raushauen.. Vermutlich glauben die ebenso wenig an AMDs Leistungen und bauen Toxic, Vapor-X und Taichi nur aus Spaß an der Freude..
Die machen das doch immer, auch wenn die Karten nicht völlig an der Leistungsspitze liegen.
 
Rockstar85 schrieb:
AMD hätte also hier mit einer Verdreifachung der Performance nur ~60% mehr Spieleleistung draufgelegt? Sorry aber das klingt bissl unglaubwürdig.
Sie haben mit den Dual-Issue Compute Units halt im Grunde was ähnliches gemacht wie Nvidia, diese TFLOPs kommen nur dann zum tragen, wenn auch die Compute Unit konstant ausgelastet ist, und das wird beim Gaming wohl selten der Fall sein, da es glaube ich auch Limitierungen gibt, was genau denn dort gleichzeitig ausgeführt werden kann.

Rockstar85 schrieb:
Die 6950XT wurde meines Wissens nach mit 300W gebencht..
Nope, die hatte ihre normalen 335W.
Der einzige Punkt, wo eine GPU in der TDP begrenzt wurde, war beim Perf/W Test, da wurde die 7900XTX mit 300W gebencht.
 
  • Gefällt mir
Reaktionen: ThirdLife
Rockstar85 schrieb:
Ich hab wie gesagt in RDR2 DLSS einmal angemacht und direkt danach wieder aus... Geht garnet.
Kommt aber auch stark auf die Auflösung an. Wenn man 1080 oder 1440p zockt würde ich DLSS nicht zwingend verwenden wollen, bei 4K wirds schwer Unterschiede auszumachen, da arbeitet man dann aber in Quality auch mit einem 1440p Upscale und nicht wie in FHD mit ~512p. Viermal mehr Ausgangsmaterial um daraus was zu machen ist halt schon ne ganze Menge mehr an Grunddaten.
Ergänzung ()

Rockstar85 schrieb:
Und komisch, dass alle AIB große fette teure GPOU raushauen.. Vermutlich glauben die ebenso wenig an AMDs Leistungen und bauen Toxic, Vapor-X und Taichi nur aus Spaß an der Freude..
Hier bin ich gespannt wie gut die Leistung mit Power Input skaliert. Wenn AMD nur knappe 300W freigibt und den Takt ziemlich limitiert und die AIBs Karten mit 450W raushauen...puuh. Bin gespannt.
 
Ragnarök88 schrieb:
Wir sind hier ja auch nicht bei Wünsch-Dir-Was.
Wenn Nvidias Preisvorstellung hinsichtlich der Rasterleistung einen Hauch von Realität hat, glaube ich nicht, dass die 4080 von der 7900XTX um mehr als 10% geschlagen wird.
Funfact: Hat sie nicht.. Denn NV möchte die Marge erhöhen...
Das tut man indem man eben genau das macht, was die Hersteller wollen, Bruttomargen steigern..
Dafür muss man nichtmal Aktienfachmann sein um zu wissen, dass NVidia ihre Preise nicht nach Leistung definiert.. Ampere war ja nicht so teuer, aber hey der Kunde ist halt doof.

Du kannst glauben was du möchtest, selbst der Vulkan Bench zeigt fast 16% (mit Beta treibern, siehe OpenCL)... Und wie du sagtest, wir sind nicht bei Wünsch dir was.

@Taxxor
Abwarten sagte ich damals und sage ich wieder.
Selbst wenn die 7900XTX am Ende nicht an die 4090 kommt, stehen da immer noch 700 USD Unterschied in der MSRP... Gleiches gilt zur 4080. Was ist, wenn der Geekbench am Ende auch Fake ist? Es wäre nicht das erste mal. Es wären laut Geekbench dann auch nur <40% Uplift zur 6900XT...
Sorry aber ich mach mir erst Gedanken, wenn mehr als nur dieser Eine Wert kommt..
 
Rockstar85 schrieb:
Zudem soll die Gebenchte GPU nur mit 2200MhZ gelaufen sein, das wäre weit unterhalb von AMDs Aussagen.. Also Treiber Issues
Eventuell hat auch Elon Musk noch seine Finger im Spiel.^^
Ne Scherz bei Seite, die Werte von der AMD Präsentationsfolie sollten das Optimum darstellen.
Auch die ständigen Hinweise auf "up to" hat doch jeder mitbekommen.
 
ThirdLife schrieb:
Wenn man 1080 oder 1440p zockt würde ich DLSS nicht zwingend verwenden wollen, bei 4K wirds schwer Unterschiede auszumachen, da arbeitet man dann aber in Quality auch mit einem 1440p Upscale und nicht wie in FHD mit ~512p.
Hm? Quality sind 66.6% der Auflösung, also wären das bei FHD ~720p

Ich nutze es eigentlich überall in 1440p, wie auch schon FSR 2, beides im Quality Setting, also ~ 960p Renderauflösung.
Bisher gab es bei DLSS noch keinen Fall wo es mir negativ aufgefallen wäre, speziell auch bei RDR2, welches @Rockstar85 oben angesprochen hatte. Seitdem es einen Schärfeslider gibt, sieht es detlich besser aus als das Spieleigene TAA und auch besser als FSR2.0, welches Probleme mit viel zu dicken und flimmernden Stromleitungen hat, die man leider sehr häufig im Spiel sieht(vmtl wäre das mit 2.2 oder wenigstens 2.1 behoben, aber Rockstar ist sehr langsam bei sowas^^).
 
  • Gefällt mir
Reaktionen: ThirdLife
PHuV schrieb:
Da spricht ein Blinder von Farben. Schon mal Cyberpunk 2077 gespielt?

Das ist eine andere Geschichte. Trotzdem sieht RT in Farben, Schatten, Licht und Spiegelungen deutlich besser aus als die ganzen geschummelten Effekte.
Ergänzung ()


Cyberpunk 2077? Alle schon die Reflexionen und die Schattenberechnung sind gravierende deutlich sichtbare Unterschiede.

Vielleicht liegts auch an mir, aber ich finde seit den ersten gescheiten grafischen Spielen die Schatten- und Lichtbildung schon immer zum 🤢.
Ich habe selbst Cyberpunkt 2077 und kann n0ti nur zustimmen. Ich merke da kaum oder Null Unterschiede, nur wenn man im direkten Vergleich vergleicht erkennt man hier und da mal kleine Unterschiede was aber nicht unbedingt besser aussieht, sondern eben anders.

Auch hier auf dem Video sieht man die minimalen Unterschiede. Es ist minimal anders aber nicht unbedingt besser mMn kostet aber 40% mehr Leistung. Für mich ist es nicht Wert. Zumindest nicht zum jetzigen Zeitpunkt. Es ist noch viel zu früh dafür und erst in ein paar Jahren wird es ausgereift sein.

https://www.gamersglobal.de/video/cyberpunk-2077-raytracing-check

Sagte ja schon von Anfang an. Es gibt Leute die brauchen sowas als Selbstbestätigung obwohl sie die Leistung oder das Gerät (wie bei den iPhones, jedes Jahr immer das neueste Model kaufen zu müssen) nie ausnutzen, ich würde auch niemals auf die Idee kommen, meine neue Grafikkarte als Profilbild anderen deutlich zu machen, um damit zu "protzen" wie wenn es was besonderes wäre den sich keiner leisten kann. Sowas habe ich zum Glück nicht nötig, aus dem Alter bin ich schon längst raus. :D Nichts gegen Leute, die es sill und heimlich kaufen um ihr Hobby nachzugehen.
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Zudem soll die Gebenchte GPU nur mit 2200MhZ gelaufen sein, das wäre weit unterhalb von AMDs Aussagen.. Also Treiber Issues
Könnte an Geekbench liegen. Meine 4090 wird da auch immer mit 2,63 Ghz angezeigt, auch wenn der Bench mit 3Ghz+ läuft. Das ist einfach der ab Werk angegebene Standard-Boost-Takt.

Taxxor schrieb:
Oops. My Bad. Fehler von mir. Dann wäre das aber immer noch die Hälfte der Daten wie beim 1440p Upscale auf 4K. Das ist nicht unerheblich, merk ich auch beim Upscalen von Filmen und Serien immer wieder. :D

Ich hab jetzt allerdings schon lange nicht mehr am Desktop Monitor in 1440p gezockt weil ich ständig vor der Glotze hänge dass ich gar nicht sagen kann wie gut das mittlerweile aussieht, ich verlass mich da auf deine Aussagen.
 
Zuletzt bearbeitet von einem Moderator:
MrHeisenberg schrieb:
Dass das "light RT" Workloads sind, wurde dir mit Sicherheit doch auch schon öfter gesagt?
Ampere ist bei der reinen RT Leistung doppelt so schnell wie RDNA2, also ja, in RT kackt RDNA2 ab.
Siehe z.B.:
https://www.guru3d.com/news-story/r...o-rtx-3080-in-vulkan-ray-tracing-tests,3.html
https://www.pcgameshardware.de/Rayt...cials/ART-Mark-Raytracing-Benchmarks-1371125/

Anhang anzeigen 1292971

Das Problem ist, dass AMD nur mit der letzten Arch. aufschließen konnte, obwohl sie die Möglichkeit hatten, mehr zu machen und die Konkurrenz schläft nicht.
Alles klar, RT in 4K.
In CP 2077 schafft die 3090 (anno Dazumal 2000 € + Karte) gerade mal 22 FPS.
Es gibt tatsächlich Games in jenen welchen die AMD gut performen.
Ja ich weiß, wenn AMD irgendwo den längeren hat, ist`s Cherry picking :daumen:

Und schon was von FPS/€ (/Watt) gehört/gelesen ?!?

MfG Föhn.
 

Anhänge

  • RT CP 4K.jpg
    RT CP 4K.jpg
    571,2 KB · Aufrufe: 145
  • RT AMD Cherry.jpg
    RT AMD Cherry.jpg
    542,7 KB · Aufrufe: 147
  • RT Dirt.jpg
    RT Dirt.jpg
    389 KB · Aufrufe: 126
  • RT FC 6.jpg
    RT FC 6.jpg
    542,7 KB · Aufrufe: 125
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Rockstar85
Onkel Föhn schrieb:
Alles klar, RT in 4K.
In CP 2077 schafft die 3090 (anno Dazumal 2000 € + Karte) gerade mal 23 FPS.
Es gibt tatsächlich Games in jenen welchen die AMD gut performen.
Ja ich weiß, wenn AMD irgendwo den längeren hat, ist`s Cherry picking :daumen:
AC-Valhalla ist so ein Beispiel. Da sind die AMD Karten brutal stark. Ist ja letztlich egal solange man es gut zocken kann. Ob der eine nun 97fps hat und der andere 86fps ?
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zoldan schrieb:
Meine Aussage bezog sich auch darauf, dass man mit solcher Hardware eher arbeitet und dafür ist DisplayPort 2.1 bereits erforderlich.

Bei deinen nächsten Kommentar berücksichtige doch bitte, dass es mehr Anwendungsfälle gibt, als nur stupide am Bildschirm zu daddeln!
RDNA ist nun mal die Architektur für Gamer, wer damit primär arbeiten will, für den wurde doch CDNA erschaffen.
 
Taxxor schrieb:
Hm? Quality sind 66.6% der Auflösung, also wären das bei FHD ~720p

Ich nutze es eigentlich überall in 1440p, wie auch schon FSR 2, beides im Quality Setting, also ~ 960p Renderauflösung.
Bisher gab es bei DLSS noch keinen Fall wo es mir negativ aufgefallen wäre, speziell auch bei RDR2, welches @Rockstar85 oben angesprochen hatte.
Ich kann nur mit der 3060Ti urteilen... und das auch nur bei meinem PC und beim PC eines Freundes... FSR durfte ich selbst noch nicht testen.. Und ja ich achte dann eher auf Flimmern bei Stromleitungen oder im Cockpit, oder meinetwegen beim LS22, als bei Total War oder Konsorten..
Ich spiele dafür in der Tat auch eher langsame Spiele.. RDR2 ist da eine Ausnahme, CP2077 kommt mir erst ins Haus, wenn es nen 10er kostet ;)

Und das HW-Unboxed Video zu DLSS3 darf auch nicht der Status Quo bleiben.. Dann kann man das Thema DLSS3 direkt knicken
 
  • Gefällt mir
Reaktionen: Snoop7676 und Onkel Föhn
Rockstar85 schrieb:
Ich spiele dafür in der Tat auch eher langsame Spiele.. RDR2 ist da eine Ausnahme
RDR2 würde ich schon als recht langsames Spiel bezeichnen^^ Zumindest spielt es sich recht "schwermütig", weshalb es sich auch prima für DLSS/FSR 3 eignen würde, weil der Input Lag sowieso nicht so relevant ist.
 
@Taxxor
Ich sehe in RDR kein langsames Spiel, verstehe aber was du meinst..
ich rede von Stellaris, Total War etc..
Also Spiele die halt durch gameplay herausragen.
 
Rockstar85 schrieb:
Und das HW-Unboxed Video zu DLSS3 darf auch nicht der Status Quo bleiben.. Dann kann man das Thema DLSS3 direkt knicken
Hab ich glaube ich noch nicht gesehen, aber ich hab das normale Spiderman Remastered und wie schon erwähnt Plague Tale Requiem lange damit gespielt und mir ist kein auf FG zurückzuführender Bildfehler aufgefallen, obwohl ich explizit immer wieder versucht habe, darauf zu achten.

Ich hatte mal ein Video gesehen(war es evtl sogar das?), wo Fehler bei den Missionsmarkern und generellen HUD Elementen in Spiderman gezeigt wurden. Auch davon habe ich im realen Spielverlauf absolut nichts gesehen, obwohl ich wieder genau auf diese Punkte geachtet habe. Das sind Vergleiche, die bei 0.25x Wiedergabe auffallen würden, aber sonst nicht.

Dafür hab ich dann beide mit 80PS Limit gespielt, also dem theoretischen Input Lag von ~30-40FPS, aber selbst bei Spiderman ist mir das nicht negativ aufgefallen, es fühlte sich so reaktionsfreudig und teilweise auch flüssiger an, als mit nativen 60FPS.

In Spiderman hatte ich dafür mit RT Ultra durch DLSS Q + FG gerade mal 85W Verbrauch, das ist schon krank
 
  • Gefällt mir
Reaktionen: Ragnarök88
Taxxor schrieb:
Hab ich glaube ich noch nicht gesehen, aber ich hab das normale Spiderman Remastered und wie schon erwähnt Plague Tale Requiem lange damit gespielt und mir ist kein auf FG zurückzuführender Bildfehler aufgefallen, obwohl ich explizit immer wieder versucht habe, darauf zu achten.
Tu mir einen Gefallen, mach es..! Ich finde DLSS und FSR gut, aber dann bitte am besten ohne Bildfehler. Und das ist halt Aufgabe von NV / AMD und den Entwicklern, dass man Scaling sinnig nutzt

und ja ich kann teilweise ähnliches mit meiner 3060Ti bestätigen.. Beim Kollegen war dann auch noch dank DLSS einfach die Brilianz im Bild weg und alles wirkte wie 2000er Games.. Ich denke aber dass das ein Treiberbug war.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben