Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

iWeaPonZ schrieb:
Woher hast du die Infos bzgl. der 300 Watt Limit Leistung?
Und weshalb sollte die Effizienz bei AMD ein Problem sein?
Ich bitte dich.
Die RTX 4090 dreht um die 7900XTX Kreise, bei ähnlichem Verbrauch.
Die Karte wird bis zu 80% effizienter sein, wenn ein Spiel voll auf Raytracing setzt.

AMD setzt die Preise nicht umsonst so an wie sie sind, das hat schon einen Hintergrund.
iWeaPonZ schrieb:
Bei RNDA2 war diese faktisch besser als bei Ampere, oder habe ich etwas verpasst?
Overall ist die Effizienz auch bei Ampere überlegen. Das wird man spätestens dann sehen, wenn die RX 7900XT nicht an einer 3090/3090Ti vorbeikommt.
 
Noch was zur RT Performance in der Folie wo AMD die Werte mit FSR angegeben hat

Sofern die Balken korrekt skaliert sind, kann man auch die Sprünge ohne FSR ausrechnen, und da sieht es schon etwas besser aus
Screenshot 2022-11-05 152939.jpg


Basierend auf den FPS Sprüngen wurde hier mindestens FSR Performance genutzt, also 1080p und da macht es auch Sinn, dass der Unterschied zur 6950XT geringer ausfällt, als in höheren Auflösungen.

Cyberpunk zeigt so z.B. in 4K einen 75% Anstieg und damit ca die gleiche Performance, wie eine 3090 OC(im CB Test 76% schneller als die 6950XT).

Da es in effektiv 1080p noch 47% Differenz sind, gehe ich für mich mal davon aus, dass es in 1440p ca 60% sein werden. Und in 1440p ist die 3090 OC nur noch 39% schneller als die 6950XT, was bedeuten würde, dass die 7900XTX in Cyberpunk 1440p RT Ultra ~15% über einer 3090 liegen würde und sogar knapp über die 3090Ti kommt.

Ergänzung ()

iWeaPonZ schrieb:
Woher hast du die Infos bzgl. der 300 Watt Limit Leistung?
Und weshalb sollte die Effizienz bei AMD ein Problem sein?
Aus den Endnotes der Präsentation.
Bei 300W ist die XTX 54% schneller als eine 6900XT -> +54% Perf/W, so hat AMD gerechnet.

Nun wissen wir aus dem CB Test, dass eine 4090 93% schneller als eine 6900XT ist und, dass sie von 450W auf 300W 9% verliert, also noch 75% schneller als eine 6900XT ist.

Damit stehen, wenn 7900XTX und 4090 mit 300W laufen, 154% zu 175% -> 4090 ist 14% schneller
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MasterAK, .Sentinel., Ragnarök88 und 7 andere
Ragnarök88 schrieb:
Dann bin ich gespannt wie du zukünftige Spiele mit dieser Karte dann zocken willst, wenn RT Vorraussetzung ist, dass das Spiel überhaupt funktioniert bzw. elementare Bestandteile davon abdeckt.
Welches Spiel setzt denn aktuell RT wirklich voraus - mal Metro: Exodus in der erweiterten Fassung weggelassen? Quake 2 RT, wenn man Quake 2 spielen will, geht aber auch die alte Fassung, auch wenn sie beschissen aussieht. Oder Minecraft RT, da geht aber auch die andere Version.

Die meisten Spiele werden zwar auf dem PC entwickelt, aber nicht für den PC. Erst mit der nächsten Generation kann man davon ausgehen - und da hat @SKu absolut recht - dass RT wirklich eine Voraussetzung wird. Aktuell befinden wir uns in der Übergangszeit. RT wird aktuell für einzelne Effekte genutzt und ersetzt bestimmte Funktionen.

Selbst die UE5-Engine setzt quasi noch vollständig auf normales Rastern und ersetzt nur einzelne Bestandteile durch RayTracing. @Laphonso hat dazu ja einige Sachen gepostet. Lumen nutzt PathTracing-Techniken - sofern es nicht per RT-Einheiten beschleunigt wird - um "grob" Schatten und Licht zu bestimmen und von den wenigen Informationen wird dann sehr viel interpoliert für das Bild. Das sieht sehr gut aus, keine Frage, aber es ist weiterhin nur eine Annäherung.

RayTracing wird immer wichtiger werden, keine Frage, aber ich denke die erste wirkliche PathTracer-Engine sehen wir erst in 4 - 5 Jahren.
Ragnarök88 schrieb:
AMD sieht ihre Karten nur als Konkurrenz zur RTX 4080...
Richtig, das tun sie. Bedeutet aber nicht, dass die 7900 XTX nicht "schneller" sein kann als die 4080 und zwischen 4080 und 4090 liegt. Aber, wir werden jetzt einfach abwarten müssen. Es hat keinen Sinn sich hier deswegen zu streiten oder gegenseitig das Leben schwer zu machen.

Ich für mich kann nur sagen: Ada ist eine tolle Karte, die mich "technisch" auf Hardwareseite enttäuscht hat, gleichzeitig aber auf Softwareseite mit DLSS 3 - auch wenn ich kein Fan davon bin - überrascht hat. RDNA 3 wiederum überrascht mich auf technischer Seite da mehr, nicht nur wegen dem "Chiplet"-Ansatz, sondern auch, weil man ca. 50 - 70 % (also im Mittel aktuell 60 %) mehr Performance auch so heraus holt.

Gleichzeitig bin ich von RDNA 3 aber auch enttäuscht, weil man mit den Gerüchten doch MEHR gehofft hat und die Gerüchte lange spannender klangen.
 
  • Gefällt mir
Reaktionen: Mut4nt, Enyo79, LamaMitHut und eine weitere Person
Eli0t schrieb:
die 7900XT ist zu teuer und das ist auch so gewollt von AMD. Entweder 7900XTX oder gar nichts imho. Oder die 7900XT kostet $799, dann wäre es fair.
Da gebe ich dir vollkommen recht. Ich dachte die 7900XT wäre perfekt, da ich maximal eine Karte mit 300W TBP möchte. Bei genauerer Betrachtung ist diese aber nur unwesentlich günstiger ist als eine 7900XTX und dafür dann zu deutlich beschnitten. Ich werde deinen Rat beherzigen und probiere es eine XTX zu bekommen.
Die XTX kann ich dann auf 300W eingrenzen und schauen was mit UV noch so geht. Sollte dann immer noch ein gutes Stückchen vor einer XT sein.
 
  • Gefällt mir
Reaktionen: Eli0t und Hutzeliger
Ragnarök88 schrieb:
Overall ist die Effizienz auch bei Ampere überlegen. Das wird man spätestens dann sehen, wenn die RX 7900XT nicht an einer 3090/3090Ti vorbeikommt.
In Raster wird das nicht passieren. Die XT sollte maximal 20% langsamer sein als die XTX, also bei ca 30% Mehrleistung zur 6950XT enden. Das reicht für die 3090Ti und für die 3090 sowieso und wir reden von 300W für diese Karte gegen 350 bzw 450W
 
Matthias80 schrieb:
Ich meine beim spielen. Im Eifer des Gefechts z. B. Da "sieht" man es eben nicht. Bei Metro oder 2077 die gesamte immersion klar. Da immer! Das sind aber Ausnahmen. Noch kann ich aber locker drauf verzichten. Wie gesagt Performance Verlust steht in keinem Verhältnis zum Optik Gewinn. Kommt jetzt bitte nicht mit DLLS! Wenn du keine top Grafikkarte hättest! Wie die 3080 ti. Dann würde ich klatschen wenn du damit in spielbare fps Bereiche kommen würdest. Ne 3080 ti braucht das aber nicht! Bzw. Bei den Preis erwarte ich das auch!

Ich meine das ja auch nur in Single Player. Ob ich bei Apex Legengs, COD Modern Warfrare oder wo auch immer drin bin, dann juckt mich das auch nicht. Da will ich auch Performance haben und FPS. Aber bei Single Player ist das im Normalfall nicht so wichtig.
 
DevPandi schrieb:
Ich kann nichts dafür, dass du nicht richtig liest und du meinen Hinweis persönlich genommen hast, nur weil ich anmerkte das dein Beispiel ein Extrem ist und im Mittel es 5 - 10 % sind, die die 3090 vorne liegt, wenn man über verschiedene Quellen die Zahl nimmt.
Im Mittel ist die 3090 rund 30 bis 40% vorne ( siehe CB )Was glaubst du warum AMD die Karten so lange Zeit so günstig verscherbelt? Weil sie nicht an Nvidia herankommen.
DevPandi schrieb:
Ich kann ebenso nichts dafür, das du und ein paar andere hier diese Themen zu AMD und NVIDIA oder Intel immer sehr emotional machen oder hier auf den Teufel komm raus immer alles schlecht reden müsst und das Schlechteste annimmt.
Du hast vor dem Launch irgendetwas von Minimum 65% erzählt, realistische Äußerungen wurden als Fanboygeschwafel abgestraft und nach dem Launch machst du genauso weiter wie zuvor und tust ernsthaft so als würde eine 3090 in RT nur 20 bis 30% vor einer 6900XT liegen.
DevPandi schrieb:
Ich kann ebenso nichts dafür das ihr nur Schwarz und Weiß kennt und nicht damit klar kommt, das andere hier es differenzierter sehen oder einfach offen für beide Richtungen sind.
Das sagt der Richtige.
Anhand deiner Aussagen lässt sich ohne jeden Zweifel belegen, dass sie völlig in eine Richtung gehen.

Man muss leider auch sagen, dass die wenigsten Nutzer hier bezüglich Nvidia und AMD neutral sind, weil offenbar Nvidia in diesem Forum von 80% gehasst wird. Oder der CEO gehasst wird.
DevPandi schrieb:
Ich sehe nämlich nur Technik und mir ist es egal ob jetzt bei mir AMD werkelt oder NVIDIA. Genauso sind mir 10 % FPS egal, ich kaufe das, was ich interessanter finde vom Technikstandpunkt.
Mir ist das auch völlig egal welcher Hersteller werkelt. Aber deine Aussagen sind extrem pro AMD.
 
Taxxor schrieb:
In Raster wird das nicht passieren. Die XT sollte maximal 20% langsamer sein als die XTX, also bei ca 30% Mehrleistung zur 6950XT enden.
Das wäre dann eine Punktlandung auf der 3090Ti, oder verrechne ich mich?
Das heisst, dass die 4080/16 knapp schneller ist also so ca 15%..
 
Ragnarök88 schrieb:
Im Mittel ist die 3090 rund 30 bis 40% vorne ( siehe CB )Was glaubst du warum AMD die Karten so lange Zeit so günstig verscherbelt? Weil sie nicht an Nvidia herankommen.
Es ging hierbei um Rasterization und nicht um RT. Ihre Aussage, dass die 3090 overall nur 5-10% schneller ist, ist korrekt.
 
Ich muss sagen, dass mit dieser Vorstellung eine Radeon 7900XTX in Kombination mit einem Ryzen 7800X3D/7900X3D (zumindest was ich derzeit davon erwarte) massiv an Attraktiviät gewonnen hat. Was mich bei den neuen Ryzens allerdings stört ist der Preis der AM5-Plattform. Die Mainboards sind unverschämt teuer und für DDR5 legt man derzeit auch noch einen ordentlichen Aufpreis hin. Ich hoffe, dass sich die Preis Anfang 2023 etwas legen.
Aber insg. fallen mit AMD einfach viele Bedenken weg, die ich mit Nvidia und Intel derzeit habe. Nvidia und Intel sind in dieser Generation mit der Brechstange an die Performance herangegangen. Unverhältnismäßig hoher Stromverbrauch für fragwürdigen Zugewinn an Performance sind vor dem Hintergrund steigender Energiepreise die absolut falsche Richtung.
 
  • Gefällt mir
Reaktionen: Dittsche
Rockstar85 schrieb:
Das wäre dann eine Punktlandung auf der 3090Ti, oder verrechne ich mich?
Das heisst, dass die 4080/16 knapp schneller ist also so ca 15%..
Laut CB rating ist die 3090Ti nur 15% schneller als die 6950XT, da sollte bei +30% also noch ein guter Vorsprung vorhanden sein.

Ich denke 4080 und 7900XT wird im Raster knapp
 
  • Gefällt mir
Reaktionen: Ragnarök88
@Taxxor
ich hab den VC Index genommen...

Laut 3DC hat die 6950Xt eine gemittelte Performance von 57,1% in 4K (4090 100%)
Damit kommt die 7900XTX bei 1,5 (konservativ) auf ~85% , bei 1,7 (optimistisch) dann auf ganze 97%
Die 7900XT bei ~50Tflops dann auch hier Konservativ bei knapp über 3090Ti dann..


Ach ja das hier ist auch noch nice to Know:
7900XT
1667662881598.png


7900XTX:
1667662988157.png

man geht also bei FP16 von 2:1 zu 4:1
 
Ragnarök88 schrieb:
Im Mittel ist die 3090 rund 30 bis 40% vorne ( siehe CB )Was glaubst du warum AMD die Karten so lange Zeit so günstig verscherbelt? Weil sie nicht an Nvidia herankommen.
Ach, die 3090 ist im Mittel 30 - 40 % vor einer 6900 XT und einer 6950 XT? Hier der Stein des Anstoßes:
DevPandi schrieb:
Wenn man weitere Ergebnisse zusammenträgt, dann kommt heraus, dass die 3090 im Mittel zwischen 5 - 10 % schneller ist und erst mit RT dann 20 - 30 % voraus ist.
Sehen wir uns doch mal die Zahlen an von Computerbase, wie viel ist hier die 3090 schneller in Rasterizer-Spielen? 11 %, wobei das eine Strix OC ist. Die 3080 Ti Fe ist 5 % schneller, die 3090 liegt in diesem Fall genau zwischen den 11 % und 5 %, was habe ich geschrieben? Im Mittel ist sie 5 - 10 % schneller.
Raster.png

Kommen wir zum RT auf Computerbase:
Screenshot 2022-11-05 165702.png

An der Stelle hae ich geschrieben, dass die 3090 erst mit RT in der Regel 20 - 30 % voraus ist, ich kann mich jetzt natürlich geschickt aus der Affäre ziehen und sagen, dass ich die 20 - 30 % als untere Grenze meinte - ich habe mich da schwammig ausgedrückt. Im Schnitt sind es nicht 20 - 30 %, sondern eher 30 - 40 %, das muss ich an der Stelle eingestehen. Es gibt aber noch etwas, womit ich mich da jetzt aus der Affäre ziehen kann, ich sprach nicht nur von CB, IgorsLab und Co, sondern von Tests über viele Seiten hinweg, wo sich ein entsprechendes Bild abzeichnet.

Es ist an der Stelle beschämend, dass Leute wie du und ein paar andere, versuchen mich, aber ebenso ein paar andere als Fanboys zu diffamieren, ihr aber nicht mal den Anstand und Respekt habt, dann wirklich mit Zahlen und Fakten sowie Argumenten zu kommen, sondern ihr immer nur mit Lügen, aus dem Kontext gerissene Aussagen und Halbwarheiten um die Ecke kommt.
Ragnarök88 schrieb:
Anhand deiner Aussagen lässt sich ohne jeden Zweifel belegen, dass sie völlig in eine Richtung gehen.
Ich wäre an deiner Stelle vorsichtig mit solchen Aussagen, die Splitter könnten wehtun und du machst dich damit maximal lächerlich! Du wehrst dich dagegen ein Fanboy zu sein, du machst aber genau das, was Fanboys machen. Ihr verbreitet Halbwahrheiten, unterstellt Aussagen und greift bewusst zur Lüge, nur damit eure Texte halbwegs irgendwie für außenstehende Sinn ergeben und die erst mal zu stimmen, weil sich die wenigsten Mühe machen wirklich Aussagen von anderen nach zu rechechieren und zu prüfen.

Ragnarök88 schrieb:
Du hast vor dem Launch irgendetwas von Minimum 65% erzählt, realistische Äußerungen wurden als Fanboygeschwafel abgestraft und nach dem Launch machst du genauso weiter wie zuvor und tust ernsthaft so als würde eine 3090 in RT nur 20 bis 30% vor einer 6900XT liegen.
Richtig, ich habe geschrieben, dass man 65 % als untere Grenze ansehen kann, nur wenn du mir schon einen Vorwurf machen willst, dann solltest du bitte auch die Textstelle zitieren und richtig lesen und ich markiere für dich mal die entscheidende Stelle sowie zwei weitere Stellen, die Teil der damaligen Einschätzung war
DevPandi schrieb:
65 % mehr Leistung, wenn AMD alleine schon plant, dass man bei FPS/Watt mindestens 50 % zulegen will, ist für AMD durchaus machbar und wenn du etwas Ahnung von der Materie hast und dir die Zahlen ansiehst, die aktuell herum geistern, dann sind die 65 % eher als unterste Grenze zu verstehen. AMD legt beim Shadercount von 5120 auf 12888 Shader zu, dass sind 150 %. Beim Takt wird auch noch mal von 10 - 30 % gesprochen.
Jetzt sind die 65 % zugeben, eher die obere Grenze, nur legt RDNA auch nicht von 5120 auf 12888 Shader zu, sondern nur auf 6144.

Hier aber mal eine weitere Aussage von mir:
DevPandi schrieb:
Hat AMD die CU umgebaut, könnte es kritisch werden, hat AMD die WGP umgebaut, könnte NVIDIA auf allen Feldern Probleme bekommen. Verschiedene Gerüchte deuten bereits an, dass die 7900 XTX ca. 100 % an Leistung aufschlagen wird und bei RT vermutlich sogar mehr. Das spricht stark dafür, dass AMD nicht - wie anfangs vermutet - die CU umgebaut hat, sondern die WGP.
Ich habe im selben Thema also bereits angedeutet, dass die Leistungsfähigkeit und ob RDNA 3 für die 4090 gefährlich werden könnte, davon abhängt, was AMD genau gemacht hat: Hat man die CU umgebaut oder die WGP. Du und ein paar weitere AMD-Hater oder NVIDIA-Fanboys wollt mir gerade unterstellen, dass ich pauschal eure mögliche Einschätzung ja niedergemacht habe, was so aber nicht stimmt. Ich habe in dem Thema bereits angedeutet, dass es zwei Möglichkeiten gibt und dass es am Ende darauf ankommt, was AMD genau gemacht hat.

Ich gehe an das Thema RDNA 3 seit den ersten Gerüchten sehr differenziert heran und habe RDNA 3 immer sehr kritisch begutachtet und schon immer auf mögliche Probleme hingewiesen und angedeutet, dass am Ende für die Stärke von RDNA 3 entscheidend ist, was AMD macht, hier mal eine kleine Sammlung aus den ketzten 5 - 6 Monaten zu dem Thema von mir:
DevPandi schrieb:
1. Wird eine WGP auf 256 (8 * Vec32) aufgepumpt, ist die Frage was noch geändert wird. Bisher hat eine WGP 8 TMU und 2 RT-Cores. Würde die WGP auf 256 anwachsen, bräuchte Navi32 "nur" 48 WGP. Macht dann 384 TMUs und 96 RT-Kerne. AMD müsste in dem Fall dann die RT-Kerne als auch die TMUs deutlich überarbeitet haben.
Ich deute hier bereits an, wenn AMD nur - was damals Gerücht war - die CU von 64 auf 128 Shader erhöht oder die WGP ohne weiteren Umbau von 128 auf 256, dann muss AMD auch die RT-Kerne und die TMUs deutlich überarbeiten, damit sie mit ADA mithalten können zu den damaligen Gerüchten.

DevPandi schrieb:
Ich zweifle langsam bei RDNA3 auch immer stärker die Änderung auf 256 (8*Vec32) Shader an, weil in dem Fall müsste AMD massiv an der RT-Leistung "IPC" arbeiten, weil dann nur noch 48 WGP auf der Uhr steht nach den aktuellen Informationen und das bedeutet, dass man nur auf 96 "RT-Cores" kommt und auch die TMU steigen auch "nur" auf 384.

NVIDIA sind ja jetzt ca. 144 SM im Gespräch für AD102 und das macht ganze 144 RT-Cores und damit quasi 50 % mehr. AMD müsste also entweder die WGP stark umbauen, was nicht so realistisch ist, oder sowohl TMU als auch die RT-Cores ebenso massiv überarbeiten und beschleunigen.
Zum gleichen Gerücht, erneut merke ich an, dass AMD an den RT-Kernen und TMUs arbeiten muss, da NVIDIA hier alleine von den Einheiten massiv vorne liegt.

DevPandi schrieb:
Problem wäre aber, dass in diesem Fall, dass es passieren kann, dass in speziellen Fällen zu wenig TMUs vorhanden sind und ebenso, dass die RT-Kerne zu wenig wären für die Masse an Threads.
Ich deute erneut an, dass es zu wenige RT-KErne gibt und zuz wenige TMUs, was dazu führt, dass RDNA3 nicht die Rechenleistung bringen kann.

DevPandi schrieb:
Es ist halt die Frage, wird die CU überarbeitet oder die WGP. Wird die CU überarbeitet kann es bei TMU und den RT-Kernen knapp werden. Wird die WGP überarbeitet und die CU nicht angefasst, dann wird Navi3x fies werden.
Hier kamen die Gerüchte auf, dass RDNA 3 nicht die CU von 2 * Vec32 auf 4 * Vec32 erweitert wird, sondern die WGP von 2 * CU auf 4 * CU, ich habe aber erneut angeben, dass NUR im letzteren Fall Navi3x fies werden könnten.
DevPandi schrieb:
Wenn die letzten Informationen stimmen, also dass nicht die Vec-ALUs pro CU erhöht werden, sondern die CU pro WGP, dann wird die RT-Leistung der 7000er-Serie stark anziehen, alleine weil entsprechend viele Einheiten vorhanden sind.
Ich habe also immer angedeutet, dass die finale Leistung von RDNA 3 und ob RDNA 3 ADA102 schlagen kann, davon abhängt, was AMD genau macht. Und im Gegensatz zu dir und vielen anderen NV-Fanboys/AMD-Hatern, bin ich an das Thema immer sehr differenziert herangegangen und habe nicht einseitig Pro-AMD geschrieben, wie du es mir vorwerfen willst.

Du und ein paar andere habt aber immer sehr einseitig Anti-AMD gesprochen und ihr macht es auch in diesem Thema. Du und ein paar andere, ihr benehmt euch wie Fanboys, was NVIDIA angeht und greift jeden an, der etwas Pro-AMD ist, oder der differenziert an die Thematik herangeht, weil es in euer beschränktes Weltbild nicht passt, dass Leute eben nicht stumpf NVIDIA und Intel feiern und AMD haten.

Und im Gegensatz zu dir, muss ich dir keine Aussagen unterstellen oder falsche Zahlen anführen, um dich der Lüge und Manipulation zu bezichten, es reicht, wenn ich meine eigenen Beiträge hier zitiere und auf der Webseite ein paar Screenshots mache.
 
  • Gefällt mir
Reaktionen: MasterAK und iron_monkey
DevPandi schrieb:
Ich für mich kann nur sagen: Ada ist eine tolle Karte, die mich "technisch" auf Hardwareseite enttäuscht hat, gleichzeitig aber auf Softwareseite mit DLSS 3 - auch wenn ich kein Fan davon bin - überrascht hat. RDNA 3 wiederum überrascht mich auf technischer Seite da mehr, nicht nur wegen dem "Chiplet"-Ansatz, sondern auch, weil man ca. 50 - 70 % (also im Mittel aktuell 60 %) mehr Performance auch so heraus holt.
Und wieso genau enttäuscht Ada Lovelace auf der Hardwareseite während RDNA3 überzeugt? Gibt es dafür irgendwelche plausiblen Begründungen?

Das Chiplet Design vermag es ja gar nicht den GCD in zwei kleine Dies zu splitten um von der hohen Ausbeute kleiner Chiplets zu profitieren.

Cache und Speicherinterface werden separiert und in einem günstigeren Prozess gefertigt aber insgesamt ist dieses Design auf keinen Fall günstiger zu fertigen als ein AD103 mit ~370 mm2.

AMD kann ergo keinerlei Profit aus ihrer Technik schlagen, während Nvidia mit dem monolithischen Chip aufs richtige Pferd gesetzt hat.

Und was deine Performanceeinschätzungen angeht ( 50 bis 70)...nunja. Lass dich überraschen. 😉
 
Hm, schöne Karten. Leider sind die Wasserkühler mal wieder bei 200€ und fertige Karten wird es wieder lange nicht geben..
Und 1250€+200€ wären halt auch 1450€...Für eine Karte, die ich aktuell nur selten bräuchte.
 
Flynn74 schrieb:
Ich spiel grad Uncharted - das sieht einfach nur göttlich aus und rennt konstant mit 120 FPS in 4K. Was will ich mehr...
Ja, mach mich noch heißer, I can only get so errected 🤣 😅

Habe gerade einen Anruf bekommen, die bundesweit einzig verfügbare 4090 Strix aus dem Zentrallager meines Händlers, die aufgrund einer Stornierung (!) verfügbar war, hat er mir instant genisped, und sie kommt nächste Woche. ENDLICH 🤩
.Sentinel. schrieb:
Ja-Aber die von Dir genannte Software geht ja komplett an der Zielgruppe der High- Ende Grafikkarten vorbei.
Tetris hat auch einen spitzen Gameplayloop.
Kannst heutzutage auf jedem Toaster spielen.
Exkat. Das ist Reden wie gegen eine Wand.

Ich hatte an meiner Daddelkiste die größten Raytracing Kritiker, die nach den Sessions dann doch zugegenem haben, dass das schon wesentlich schöner aussieht und anders wirkt. WIRKUNG ist ein Wort, das im Grafikdesign fundamental ist.
Ein tolles Spiel kann durch eine schönee grafische Inszenierung einfach viel besser wirken.

Ich freue mich daher vor allem auf das Witcher 3 Remaster, den Fall Out 4 "Next Gen Refresh" und kommendes Raytracing in Forza 5. Unter anderem.

Wem das alles nicht wichtig ist, spart Geld, das ist doch super!
Ich verstehe alle, die sagen, dass Ultrasettinsg und RT Effekte für sie nicht wichtig sind.

Aber es gibt einen Bedarf derjenigen, denen Grafik und tolle Optik wichtig sind, weil sie in gutes Spiel noch schöner illustrieren = noch mehr Genuß.

Und ich bin gespannt, welche AMD sponsored Games im Zuge von RDNA3 hier Optikfeuerwerk mitliefern.
 
  • Gefällt mir
Reaktionen: .Sentinel., Ragnarök88 und Flynn74
godrarock schrieb:
Kurze Frage... wer bist du im PCGH Forum? So oft wie du von geschwurbel, bla,Fanboy Gelaber und Co schreibst hab ich da einen leisen Verdacht
Es ist egal, wer er da ist. Ich habe nun alle meine Aussagen zu RDNA3 zuammen getragen, da kann nun jeder selbst entscheiden, ob sein Vorwurf gerechtfertigt ist oder nicht.
 
nospherato schrieb:
Hm, schöne Karten. Leider sind die Wasserkühler mal wieder bei 200€ und fertige Karten wird es wieder lange nicht geben..
Und 1250€+200€ wären halt auch 1450€...Für eine Karte, die ich aktuell nur selten bräuchte.
Komm mein lieber, Dein brutal OC 2080TI braucht eine Nachfolgerin. Na? Naaaaa? :D
 
modena.ch schrieb:
Na wenn AMD teure Fertigungsprozesse bei TSMC benutzt und die UVPs trotz dem sehr teuren 5NM hält, würd ich das eher positiv sehen in so einem Marktumfeld wo alles teurer wird. Davon ab verdienen sie auch eine gute Marge wenn sie so gute Produkte produzieren.

Intels 10NM (7) Prozess ist im Vergleich billig und die Preise sind doch sehr hoch. Auch die wollen eine Marge.
Das mag sein, es interessiert aber den Endkunden nicht die Bohne 🤷🏻‍♂️

Da wird nur geschaut wieviel Leistung man für Preis X bekommt.
Was da für Margen hinter stecken ist mir doch Wurst.
Hätte AMD die gleiche Marge wie Intel rausgeholt, wer hätte das dann gekauft?
Niemand
 
Zurück
Oben