R
Ragnarök88
Gast
Garantiert nicht schneller als ne RTX 4080 16Gb, schon gar nicht mit RT.Stefan1200 schrieb:Dennoch günstiger als eine RTX 4080 und gleichzeitig schneller.
Aber tatsächlich mir auch zu teuer.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Garantiert nicht schneller als ne RTX 4080 16Gb, schon gar nicht mit RT.Stefan1200 schrieb:Dennoch günstiger als eine RTX 4080 und gleichzeitig schneller.
Aber tatsächlich mir auch zu teuer.
RogueSix schrieb:Ansonsten enttäuschend, dass AMD nie selbst mal eine echte Feature-Innovation am Start haben.
Das passt dann ja sogar in etwa zum Herstellungsprozess: N4 bei Nvidia vs N5+N6 bei AMD. Schade natürlich, dass AMD hier schlechter ist, aber preislich auch gerechtfertigt. Dafür gibt es bei AMD ja zumindest auch noch DP 2.1 oben drauf, was für mich persönlich - mit Hinblick auf die Zukunft - sehr relevant ist.Taxxor schrieb:Damit ist bei 300W die 4090 13% effizienter als eine 7900XTX.
Piecemaker schrieb:In Deutschland haben wir eine einheitliche Steuer auf alles, die sogenannte Mehrwertsteuer von 19%. Um den UVP Preis von diesen 999$ auszurechnen benötigen wir den Dollar zu Euro Preis + 19% Mehrwertsteuer. Das sind also 1024€ + 195€ = 1219€.
Hat er im Stream gesagt.Chilisidian schrieb:Naja was hält AMD davon ab, nicht noch zusätzlich eine Karte aufzulegen,
Ich tippe auf den 12. Dezember 15:00.Laphonso schrieb:Wann fallen denn die RNDA Test NDAs? Ist das schon bekannt?
Mit dem i7-5930k wird das wohl tatsächlich bei einem leichten Leistungszuwachs bleiben.neuhier08 schrieb:Danke fü das Update, ich denke ich werde einen leichten Leistungszuwachs von der 5700 XT zur 7900XTH merken ;-)
Wie kommt man immer auf so einen Quatsch? Rechnerisch wird die XTX definitiv schneller als eine RTX 4080 sein, selbst im Worst-Case. Bei RT hast du Recht, da taugt AMD nichts, aber bezogen auf die normale Performance hat die 4080 überhaupt keine Chance, und das trotz 20% höherem Preis. Hier, kannst es ja selbst nachrechnen.Ragnarök88 schrieb:Garantiert nicht schneller als ne RTX 4080 16Gb, schon gar nicht mit RT.
Ist bekannt ob AMD die Karten wieder im Direktvertrieb anbieten wird?SVΞN schrieb:Anfänglich ganz sicher nicht.
Zumal die Karte fast 100W mehr braucht, evt. die Kosten fuer ein neues Netzteil und einen passenden neuen Prozessor noch dazu kommen, und AMD/RTG die RX 7900XTX eben nicht bis an die Kotzgrenze uebertaktet/aufgebohrt haben um die Leistungskrone zu gewinnen, sondern zeitgemaess eher auf Nachhaltigkeit setzen und die Effizienzkrone im Flaggschiffbereich ganz klar einstreichen.W0dan schrieb:Dass die 4090 wahrscheinlich schneller ist, tut da praktisch nichts mehr zur Sache.
Umstieg auch im Gaming Bereich auf Linux -> beste Entscheidung überhaupt.Beelzebot schrieb:Nur mal so am Rand: AMD hat Mantle erfunden, dass zu Vulkan wurde. Nur diesem Umstand ist es zu verdanken, dass die Schnittelle DXVK entstanden ist und man jetzt auch komplett auf Linux zocken kann.
Nvidia könnte bzgl. Linux auch mal etwas "innovativer" sein. Viele ihrer Features gehen da nämlich garnicht erst und die nvidia Treibersteuerung ist optisch von 1995...
Ich wechsle jetzt nach 12 Jahren nvidia ins rote Lager, denn die bekommen das (leider) deutlich besser hin.
Und bevor die Frage aufkommt: Mir ist es viel viel wichtiger dauerhaft Windows los zu sein, als irgendwelche RT Spielereien auf dem Monitor zu sehen.
Das was AMD hier als "Chiplet Design" vorgestellt hat, ist kaum der Rede wert. Erinnern wir uns, ursprünglich spekuliert wurde hier mit zwei Chiplets für die High-End Karten und draus geworden ist ein monolithischer Die mit Chiplets für den Cache.Chismon schrieb:Das koennte der RyZen 2 Chiplet-Moment fuer AMD(/RTG) bei den Grafikkarten sein, 'mal sehen wie nVidia damit umgeht, Intel hat sich ja irgendwann angepasst und eben Big-Little Cores gebracht, aber kann nVidia auf Dauer ohne Chiplet-Design (preislich) konkurrenzfaehig bleiben kann bei den Gaming-dGPUs?
Das hoffe ich auch. Wobei man ja so einige Punkte beachten sollte: Auch, wenn die 4090 hier so unfassbar teuer ist, letztendlich hat Nvidia die Preise gegenüber dem Vorgänger nur um 100 $ erhöht. Der Rest ist halt Inflation und der schlechte Euro/Dollar-Kurs.Chismon schrieb:Ich hoffe nur, dass AMD/RTG fuer diese relativ fairen Preise belohnt bzw. nVidia fuer die ueberzogenen Profigierpreise auf Kryptominerkaufniveau abgestraft werden.
Zenx_ schrieb:999$ für ne Karte, die so stark ist wie eine RTX 4090
Falls das jemals wirklich so kommen wird. Mit SLI und CrossFire ist man ja kläglich gescheitert, und der Vorteil von Chiplets hält sich bei GPUs (vermutlich) in Grenzen. Damit der Scheduler die Aufgaben sinnvoll auf die Shader verteilen kann, sind - soweit ich weiß - niedrige Latenzen bzw. eine schnelle Aufgabenverteilung unfassbar wichtig. Der Cache ist da nicht so relevant, weshalb man diesen gut auslagern kann, wie AMD es hier getan hat, aber zumindest für die einzelnen Shader ist das weitaus komplizierter. Und gerade hier ist die Ausbeute so oder so nicht so ein Problem wie zum Beispiel bei CPUs, weil man Tausende an Shadern hat, von denen defekte Cluster einfach abgeschaltet werden können, um die Ausbeute zu erhöhen. Das einzige, was man halt einspart, sind die Entwicklungskosten für einen größeren Chip, wobei ich mir hier ohnehin die Frage stelle, wie diese denn überhaupt zustande kommen, denn die Architektur bleibt ja dieselbe und man verändert ja lediglich die Anzahl der Cluster/Shader-Einheiten.xexex schrieb:[...] aber relevant wird es erst wenn die GPU selbst aus Chiplets besteht.
Interessant wäre auch ein Vergleich bei 355 Watt bei beiden Karten.Skatch schrieb:Mal die ersten unabhängigen Benchmarks abwarten
Würde ich so nicht sagen, da Nvidia ja zumindest mit Ray Tracing und DLSS einen enormen Vorteil hat. Aber ja, in Bezug auf die "normale" Performance lohnt sich AMD definitiv deutlich mehr.Skatch schrieb:Für eine UVP von $999 ist die RTX 4090 dann aber wohl trotzdem komplett uninteressant.
PegasusHunter schrieb:Es gibt vielleicht einen Grund. Marktanteile?
Die 7900XT ist jedoch um einiges interessanter als die 4080. Mehr Leistung, 4 GB mehr VRam, Stromverbrauch 300Watt. Klein und kompakt, kein Gehäuse oder Netzteilwechsel, für WQHD perfekt. Raytracing wär zwar nett, aber wegen 2-3 Spielen kann man auch gut darauf verzichten.Skatch schrieb:Im Bericht steht doch aber eindeutig, dass die RX7900XTX zwar ein gutes Stück schneller als die RTX 4080 ist, aber die RTX 4090 dennoch unerreicht bleibt?!
Für eine UVP von $999 ist die RTX 4090 dann aber wohl trotzdem komplett uninteressant.
Mal die ersten unabhängigen Benchmarks abwarten..
Relevant ist es herstellungskosten- und effizienztechnisch schon jetzt und darum geht es, auch wenn es fuer Dich und andere noch kein "echtes" Chiplet-Design darstellt, darum geht es am Ende aber nicht wenn der Mehrwert jetzt schon stimmt und sich preislich und effizienztechnisch klar niederschlaegt.xexex schrieb:aber relevant wird es erst wenn die GPU selbst aus Chiplets besteht.