News Radeon RX 7900 XT(X): AMD legt sich die RTX 4080 als ersten RDNA-3-Gegner zurecht

Laphonso schrieb:
Das erkennt man definitiv "blind". In dem Game sind die Spiegelungen ja schon fast Watch Dogs Legion penetrant ^^.
Was einem natürlich auch gefallen muss. Aber auffallen tut Es auf jedenfall. Ob positiv oder negativ 😉
 
GT200b schrieb:
spätestens wenn die Lager von RDNA2 Karten leer sind, fallen die RDNA3 Preise, dann bekommt man relativ schnell eine 7900XTX für 799€ inkl. 19% Märchensteuer. Warum sollte sich AMD ins eigene Knie schießen um auf alte Ware sitzen zu bleiben?! Man merkt an einigen Kommentare dass die Marktpsychologie funktioniert. Sobald auch die alten Amperekarten ausverkauft sind, werden die Preise der RTX 4080 und 4090 massiv einbrechen müssen, sonst bleiben die auf ihren Kram sitzen. Bei 1300€ für eine RTX 4080 erscheint der Preis von 800€ für eine RTX 3080 12gb fair, denkt der Kunde…
Hoffen wir du wirst recht behalten :D
 
  • Gefällt mir
Reaktionen: GT200b
Laphonso schrieb:
Das erkennt man definitiv "blind". In dem Game sind die Spiegelungen ja schon fast Watch Dogs Legion penetrant ^^.
Was einem natürlich auch gefallen muss. Aber auffallen tut Es auf jedenfall. Ob positiv oder negativ

@juwa im durchschnitt kostet die 4090 2400€ aber es gibt immer wieder Angebote von knapp über 2100€
 
  • Gefällt mir
Reaktionen: Laphonso
Hylou schrieb:
Also sorry Leute, das könnt ihr doch nicht ernst meinen. Natürlich können sie nicht die 4080 zeigen, jedoch aber vergleiche zur RTX3000 sowie deren eigene 6000 Serie.
Ehm bist du blind? Oder hast du dir die Bilder der Folien nicht angesehen... Dann mach das mal könnte deinem Erkenntnis-Gewinn dienen...
AMD vergleicht doch mit der 6950...
 
@Northstar2710
Aktuell kostet hier eine 4090 von Zotac 2189€, könnte sie heute noch direkt im Lager abholen, aber dann killt mich meine "Regierung". LG aus Rom. ;)
 
bondki schrieb:
@.Sentinel.
Genau das ist nicht der Fall. AMD hat bei den Desktoprozessoren sogar wieder Marktanteile verloren.
Bitte aufpassen... Das Institut das das erhebt nutzt eine seltsame Definition... An sich checken die nur die Auslieferungen - fertig... Nur damit stellt man nicht wirklich fest wie groß der Marktshare ist... Streng genommen kann der Marktanteil sogar fallen.. Wenn mehr Intelsysteme verschrottet wurden als neue ausgeliefert wurden...
 
Enotsa schrieb:
Die Masse der nVidia Käufer sind wie Apple Kunden es gibt nichts anderes.
Ist das bei der "Masse" der AMD-Käufer oder Android-Nutzer anders?

Enotsa schrieb:
Da wird nicht rational entschieden. Naja ich hab keine Präferenz und entscheide nach Preis/Leistung.
Dito. Gleichwohl diese Entscheidung dann auch rational pro nVidia ausfallen kann (es gibt beispielsweise ja auch den funktionalen Aspekt CUDA).
 
gokkel schrieb:
Ich hatte in den letzten knapp 20 Jahren immer eine AMD-Karte. Diesmal wird es aber eine Nvidia.

Warum? Zweierlei Gründe:
1. Immer noch keine ernstzunehmende Alternative zu NVENC. AV1 wird leider von den relevanten Streaming-Plattformen noch gar nicht unterstützt, wann das kommt, ist sehr ungewiss.

Boah das würd ich grad stark bezweifeln.
Da hat AMD die letzten Jahre stark gedreht.
Da hab ich kürzlich einen Vergleich gesehen, frag mich nicht wo.
Ab den 6000er nehmen sich rein gar nichts mehr.

Und grad bei den 7900er XT(X) fahren sie ja genauso wie NV bei der 4090er mit doppeltem
Decoder und Encoder. AV1 Encode und Decode dürfte sich auch nix nehmen.
 
Viper816 schrieb:
Jetzt liegt es an AMD ein Angebot zu machen, dass man nicht ablehnen kann. Aber auch das wird die GIer wieder verhindern, wetten?:heul:

Ich hätte die RX 7900 XT auch lieber bei $699 und die 7900 XTX bei $849 gesehen.

Nichtmal im Vergleich zu den MSRPs von Nvidia, sondern grundsätzlich.

Das wären dann vermutlich inklusive Steuern und mit dem schwachen Euro 899€ und 1099€ geworden, mit der Option innerhalb des ersten Jahres (bei einem gesunden Markt, den wir nicht haben) auf 649€ und 899€/949€ zu droppen. Vor Corona, dem Mining und dem Krieg wärs vermutlich irgendwie in der Form auch gekommen.

Auch das wäre noch viel Geld für relativ schlecht alternde Hobbyausstattung.
 
  • Gefällt mir
Reaktionen: Viper816
ben12345 schrieb:
das finde ich auch sehr sehr merkwürdig. Auch finde ich das permanente Hinweise auf die 4080 als Gegner und blos nicht die 4090 recht erbärmlich. Das sehen die Leute schon selber über den Preis wer der Gegner ist, das Verhalten von AMD wirkt auf mich hier kontraproduktiv weil es einfach so wirkt als hätte man "Angst" vor dem Vergleich mit der übermächtigen 4090. Dabei werden die AMD Karten bei der Preis Leistung deutlich besser abschneiden, zumindest ohne rt.
Bei dem Release wollte AMD sich von der besten Seite zeigen,welche Firma nicht? Die Benchmarks zur 6950xt geben doch einen Anhaltswert. Die 4090 hat doch eine ganz andere Preisklasse. Außerdem muss sich AMD auch an das NDA Abkommen haltern
 
Wie immer das gleiche Spiel. Rot in ROHleistung [Raster] paar %mehr, die brauchbare Featureliste genüber Team grün dagegen eher mau für entsprechend weniger Geld.
Für Gamer, besonders wenn derartige Preise abgerufen werden und gerade dann in diesem Preissegment [wo Gamer enstprechende Monitore | TVs haben] hat AMD aber 2 besonders schwierige Schwächen, was deren Karten für mich komplett uninteressant machen.
1. RT weiterhin im Grunde mit zu viel Abstrichen bei AMD, vor allem im Vergleich und bei den abgerufenen Preisen...
2. FSR. Gegenüber DLSS vor allen in meinem Maingames völlig unbrauchbar, und wenns halbwegs kommt meist viel zu spät. Smearingparty wo ein feinblättriger Baum zum verschmierten Busch mutiert, selbst Laubblätter wie Schlangen vom Baum rieseln. Nö danke.

Leider sind diese Upscalingtechniken längst keine Spielerei mehr und auch abseits von 4k gerade im Bezug auf Schärfe und Energiesparen sowie Gamingsmoothness eher Pflicht als "nice to have". Ergo längst mit die wichtigsten Kriterien beim Kartenkauf. Umsoweniger zB die V Ram Geschichten. Klar, 20GB und mehr bekommt man voll wenn man will, aber Sinnvoll ist hier keine der GPUs, denn wenn solche Größen gebraucht werden ist die GPU bei der Leistung eh am Ende und umso wichtiger werden eben Techniken wie FSR, DLSS und Co und dafür braucht es keine VRam Schwanzvergleiche.
Im Gesamtbild bleibt aber stehen, das AMD mit ihrerer Nextgen wohl die 4080 mit ihren 16 GB, wenn auch als "teuren" Sweatspot, in der Preisklasse nichts als paar % mehr Rohleistung entgegen zu setzen hat.
Da kann man auch Argumentieren wie man will, denn in diesen Preisklassen ist RT + brauchbares Upscaling schlicht als mit wichtigste Kriterien pflicht, und das sehe ich bei AMD nicht.
Allgemein lässt sich schon länger sagen, das es eben nicht mehr so auf die Rasterleistung ankommt, sondern viel mehr was bei RT und vor allem bei den Upscalingtechniken raus kommt.
 
  • Gefällt mir
Reaktionen: Tornavida
Ganjafield schrieb:
Na endlich kann ich durch den neuen Display Port meinen 8k - 165hz Monitor befeuern den ich im Jahr 2036 kaufen werde.
Du Troll, dann gibt es 5 weitere Grafikkartengeneratiomen.... mit Glück hat Nvidia dann aber DP 2.1 nicht weggespart.
 
  • Gefällt mir
Reaktionen: Ganjafield
Tornavida schrieb:
Geht eher um sowas. Hier würde man mit AVG Frames wohl eher glänzen in den Augen der Kundschaft. CB macht dann Diagramme "laut AMD" daraus.

Anhang anzeigen 1284136

Wieder einer, der nicht versteht, warum man in Präsentationen dort "Up to" rein schreibt.

Das sind die avg FPS, es ist eben nur nicht gewährleistet, dass Max Mustermann mit seinem i5-2400 auch 72FPS in Cyberpunk erreicht nur weil er sich eine 7900XTX einbaut.
Genau deshalb wird zur rechtlichen Absicherung dort "Up To" hingeschrieben.

Ein weiterer Grund ist, dass die FPS natürlich auch in manchen Szenen niedriger ausfallen können, als hier getestet,
Es würde schon ein Blick in einen Benchmark eines beliebigen Spiels aus dieser Liste ausreichen, um zu sehen, dass eine 6950XT z.B. in Cyberpunk in der CB Szene 37 average FPS in 4K ohne RT schafft.

Da bei AMD der Ingame Benchmark verwendet wurde, der generell höhere FPS liefert, passen die dort angegebenen 43FPS perfekt.
Auf der zweiten Folie mit RT passen die 13FPS ebenfalls zu den 9,7FPS die die 6950 bei CB schafft
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: khadgar, Sun-Berg und SKu
Statt zu labern sollte man bei AMD lieber das NDA fallen lassen und die Karten an Reviewer ausliefern. Sich an einen so späten Release zu krallen lässt mich jetzt nicht auf massive Überlegenheit schliessen und sieht umso peinlicher aus je mehr sie jetzt mit belanglosem Scheiss um sich werfen.
 
Hätte mir zu gern noch zu Weihnachten eine neue Graka in der Mittelklasse gekauft aber die werden dann wohl erst nächsten Jahr kommen
 
Blumentopf1989 schrieb:
@th3o Die reinen US Dollar Preise haben sich nicht verändert, alles drumherum ist vollkommen unabhängig vom Hersteller. Ende 2020 hatten wir auch nur 16% Mehrwertsteuer, kann AMD ja auch nichts für.
Wir hatten schon 19% Umsatzsteuer, als AMD noch Grafikkarten unter den Namen ATI verkaufte.
 
Syrato schrieb:
Du Troll, dann gibt es 5 weitere Grafikkartengeneratiomen.... mit Glück hat Nvidia dann aber DP 2.1 nicht weggespart.
Kein Grund gleich persönlich zu werden. Er hat ja nicht unrecht.
Klar unterstützt AMD mit RDNA3 DP2.1 und Nvidia aktuell nicht, aber wer braucht das wirklich?
 
  • Gefällt mir
Reaktionen: Blumentopf1989
cunhell schrieb:
Du meinst also, wenn der Kunde den Beschiss nicht bemerkt ist es ok, oder wie?
Wo sage ich das oder warum interpretierst Du das jetzt so raus?
cunhell schrieb:
Abgesehen davon weisst Du wieviele was bemerkt haben, aber das nicht auf die verkrüpelte Anbindung der letzten 0,5GB zurückgeführt haben, weil sie davon nichts wussten. Nicht jeder liest die Hardwareforen durch.
Weißt Du es etwa genau? Wenn ich das allein anhand der Forenmeldungen hier und anderswo beurteilen soll, würde ich sagen, daß es wirklich nur wenige bemerkt haben.
 
MrHeisenberg schrieb:
Kein Grund gleich persönlich zu werden. Er hat ja nicht unrecht.
Klar unterstützt AMD mit RDNA3 DP2.1 und Nvidia aktuell nicht, aber wer braucht das wirklich?
Es geht darum, dass der Standard DP 2.1 mit RDNA 3 "eingeführt" wird und zack, gleich gibts Monitore!
Es wäre einfach Fair von Nvidia gewesen, hätten sie DP 2.1 verbaut.
 
  • Gefällt mir
Reaktionen: ShiftyBro
Zurück
Oben