Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRX 7700 XT & RX 7800 XT: AMD schickt neue Radeons für 489 und 549 Euro ins Rennen
Nehmen wir mal an du hast mit dem Packaging recht, eine Quadro kostet aber schon 2-3x so viel wie eine 4090 bei selben Chip (AD102).
Also wozu dann Geforce noch?
Davon abgesehen das der Wahnsinn anfängt auch 4090 aus dem Consumer Markt zu ziehen.
blackiwid schrieb:
Ja und das ist ja jetzt erfolgreich gekontert mit FSR 3
Also topaktuelle Daten habe ich nicht, aber Statista sieht AMD bei 9% Absatz vom Gesamtmarkt.
Igorslab mit Quelle JPR geht von 12% Marktanteil Q1 2023 aus.
Sorry dafür würd ich als Entwickler jetzt keine Ressourcen groß investieren und dankend Mannstunden von NVIDIA zur Optimierung annehmen.
Ich hoffe wirklich das beste für AMD, aber die Realität sieht so aus das AMD von Anwendern nur dazu genutzt wird auf günstigere NVIDIA Grafikkarten zu spekulieren. Aber nicht dazu real den kauf von AMD Grafikkarten zu erwägen.
Es ist nun mal so, dass es AMD ist, die Marktanteile hinzugewinnen müssen, nicht Nvidia. Und dafür reicht es nun mal einfach nicht "nicht schlechter" zu sein.
Sie sind ja auch besser... nicht nur gleich gut... sie sind nur nicht extrem viel besser.
Ergänzung ()
Sherman789 schrieb:
Stattdessen postest du einen BS-Vergleich mit einer völlig anderen Leistungsklasse. Gratulation für soviel Unfug, das muss man sich erstmal ausdenken können. 😂
Die Frage ist doch nach dem kleineren Übel, und das zieht sich ja durch alle Karten durch auch die 7900XT und hat schon mehr VRAM und spätestens die 7900XTX hat 8gb mehr VRAM und ist fast durch die Bank besser als ne 4080 und billiger.
Der Punkt ist AMD ist das kleinere Übel, ja wenn Intel beide Firmen deklassifizieren kann bitte gerne 50% billiger mit 16gb VRAM und gleich viel Speed, aber solange die das auch nicht schaffen... muss ich halt die Vergleichen, und je wems nicht passt kann sagen "Grafikkarten sucken grad" aber nicht ohh AMD suckt weil sie auch nicht so toll sind aber Nvidia ist irgendwie besser obwohl sie schlechtere Preis/Leistung haben.
Grafikkarten mit mehr als 8gb VRAM (und mehr als 128bit Anbindung) sind grade gefragt und da bietet AMD nun mal das billigste Produkt in 2 facher Ausführung.
Und ja das der Grafikkartenmarkt insgesamt suckt da bin ich sofort dabei bin daher auch erstmal weitgehend zu Switch gewechselt... und werd meine rx 5600 xt noch mindestens 1 Jahr benutzen und dann vielleicht für 200 Euro ne 6800 xt gebraucht kaufen. Bzw vielleicht kauf ich auch irgendwann noch ne gebrauchte Steam Deck oder sowas und lass es mit klassischen Grafikkarten ganz sein, aber wir koennen nicht im Luftleeren Raum reden, es gibt nunmal nur wenige Anbieter und dann muss man zwischen denen Vergleichen nicht mit irgend ner idealen Welt...
Ja vergleiche hinken immer, sofern man 2 Dinge vergleicht die unterschiedlich sind, aber es bleibt nunmal ein Fakt das man schnelle 16gb VRAM bei Nvidia erst ab 1100 Euro bekommt, ja da kriegst dann auch noch mehr leistung aber wenn mir eben z.B. 4070 er Leistung reicht aber ich mehr VRam will, was bei den aktuellen Spielen durchaus sinnvoll ist, dann zahlst dafuer halt bei AMD 550 und bei Nvidia 1100, und wenn mans genau nimmt und Starfield noch als Geldwerten Vorteil sieht sogar noch weniger.
Wenn es AMD um Marktanteile gehen würde, hätten wir dahingehend wohl schon seit Generationen einen entsprechenden Preiskampf sehen müssen. AMD nimmt im Windschatten von Nvidia einfach mit was geht. Können nur darauf hoffen das Intel mit Battlemage nächstes Jahr und danach dann mit Celestial was hinbekommen und wir dann nen Preiskampf erleben werden.
Wenn man sich vom Marketing an der Nase herumführen lässt, mag das so sein.
Die 6800XT war auf dem Flaggschiff-Die Navi 21 und nur 10% disabled, voller VRAM. Sie war nur ca. 10% langsamer als eine 6900XT und das für 650€. Das war eine Highend-Karte
Jetzt bekommst du für 550€ Mittelklasse mit falschem Namen. Letzte Gen war der Vollausbau des zweitgrößten Dies eine 6700XT für 480€. Jetzt nennt man es 7800XT und verlangt 550€.
gpu werden geplant und das weit im voraus eine preiskampf will keiner der firmen eher geht es um maximale marge.
Derzeit nimmt amd bruttomarge von 70% nvidia versucht 80% und erreicht in etwa 70% und das seit min 4 Generationen
Wichtig bei ner sku Planung ist chipkosten und bom kosten worauf die marge basiert
Dazu mal folgendes
ram ist derzeit sau billig daher können wir davon ausgehen das die nächste gen rtx50 min ne Verdoppelung der rammenge ansteht sofern kein gddr7 genutzt wird.
Das ist noch offen da nicht klar ist was nvidia tun wird.
Derzeit kosten 16gbit chips etwa 4-6$ 18gbps und 20gbps
Und 6-8$ 21-24gbps gddr6x
Ein ad107 kostet 50$ viel zu teuer
Ein ad106 kostet 60$
ein ad104 90-110$
Ein ad103 110-140$
Ein ad102 195-300$
Allein der shrink auf n3 bei gleicher arch dürfte die kosten drastisch senken weswegen ich stark Annahme das man das tun wird außer n4x kostet weniger als 12000$ dann wird es definitiv nen ada refresh geben mit gddr6 Speicher.
man kann davon ausgehen das die sku schon jetzt geplant sind und es sogar in q1 2024 super refresh geben wird. kann sein das man alle sku mit 3,1ghz und gleiche alu wieder bringt
Das aber ist unklar es würde sogar salvage chips genügen um amd rx7700xt und rx7800xt deutlich zu schlagen um damit die preise hoch zu halten.
We gesagt die Planungen laufen die Tagespreise sagen nix einzig die geplante uvp die man erreichen will zählt.
Ein ad106 chip mit 16gb muss min 450€ Endkunden preis haben derzeit
Wenn der n4x node bei etwa 12k$ ist dürfte die preise der chips deutlich sinken ich gehe von
ad107 30$
ad106 40$
ad104 70$
ad103 90$
ad102 140-200$
aus
Das kann man sehr gut in sku setzen wie
rtx5050 ad207 3,1ghz 20sm 8gb 200$ etwa rtx4060 Leistung
rtx5050ti ad207 24sm 12gb 250$ etwa rtx3060ti Leistung
rtx5060 ad206 30sm 16gb 350$ etwa rtx4060ti Leistung
rtx5060ti ad206 36sm 16gb 400$ etwa +15% rtx4060ti Leistung
rtx5070 ad204 46sm 20gb 500$ etwa +13% rtx4070 Leistung
rtx5070ti ad204 20gb 800$ etwa +10% rtrx4070ti Leistung
rtx5080 ad203 20gb 1000$ etwa +20% rtx4080
rtx5090 ad202 24gb 1500$ etwa +10% rtx4090
Das wäre ein realistisches Szenario da amd kommende gen nur bis zu rtx5070ti aufschließen wird ~32tf
am ende zählt P/L
Und das wird steigen besonders im low end. high end wird sich kaum bis nix tun.
Jetzt hat amd vorgelegt und wenn der markt reagiert dürfte wird bald 20tf ab 450€ sehen.
Nvidia sowie amd geben Fantasie tf angaben die haben rein gar nix mit der Realität zutun da aber beide arch dokumentiert sind lässt sich die wahre tf Leistung herausfinden .
Das bedeutet aber nicht gleich fps aber kommt dem sehr nahe da die anderen Limitierungen wie Bandbreite und cpu limit ausgeschlossen sind.
Darum die geringen abstände bei high end sku und der mid class sku. manchmal limitieren die rop aber das ist ne Ausnahme wie aktuell bald zur Regel wird wegen UE5
Gutes bsp ist das remnant 2 oder immortals of ave... das primär and er rop gebunden sind.
Ohne upscaler wird es daimmer geringe fps geben da pure pixel durhc bildschirmauflösung geteilt wird.
quasi rendert das spiel immer in nativer Auflösung die eingestellt ist.
TSR und andere sind quasi Pflicht de die gpu Klassen haben begrenzte rop verbaut
ad107 24
ad106 48
ad104 64
ad103 96
ad102 192
amd ist da großzügiger.
n31 192
n32 96
n33 64
pixelfüllrate ist rop mal Takt durch pixel des displays maximale fps grob beschrieben abzüglich shader Leistung
Der Vorteil dieser Technik man kann skalierbar die Auflösung und detaildichte anpassen je mehr desto mehr details das bietet nanite
Und man braucht nur noch ein Texturmodell da alles herunterskaliert wird je nachdem auch hochskaliert
beim hochskalieren wird zudem weniger videospeicher belegt darum sehen auch aktuell alle nanite spiele nicht besser aus als normal. Das problem ist aber das die rop stark belastet werden, tsr ist essentiell aktiv zu haben. Mit entsprechendem mehr fps und weniger details.
Für benchmarks eher ungeeignet außer man setzt auf eine Auflösung die immer den rop geeignet sind.
Da aber die details dann verschwinden je geringer die Auflösung ist ist die perf dessen ein problem. Abstellen lässt sich das nicht. Folglich muss einmal in 4k geprüft werden und einmal in 1080p ohne upscaler
jeweils low vs maxed und das bei jeder gpu Klasse
Das wird langsam mühselig
ich habe weiterhin die 5700xt und uralt sind diese karten nicht. die pandemie hat die alles etwas verlängert. ich möchte weiterhin wissen wie schlecht meine karte abschneidet und wann es sinn macht zu wechseln
Rot und Grün werden sich nicht viel nehmen, alles abgesprochene Preise. Der Chef von Nvidia und von AMD sind bekanntlich eh verwandt....
Mehr ist dem nicht hinzuzufügen.
Wow. Es gibt 2 Anbieter von Gaming GPUs am Markt (Intel... 😭).
Je nach Anwendung nimmt man AMD oder Nvidia.
Bei den CPUs hat man es gesehen, dass es geht.
Das ist nicht wie bei Nahrung.
Ich weiss jetzt nicht, wie das bei TSMC so ist. Wenn die Nachfrage nach Server CPUs so gross ist, kann man da einfach weniger GPUs produzieren, "umschichten"?
Was sollen diese Charts mit Vergleich von 2070 super zu 5700xt und den beiden neuen Karten.
2 Generationen alte Karte mit den neuen Karten vergleichen? Versteh ich nicht.
entfern ein e, mal sehn ob du s hinbekommst das richtige e zu finden...
Ergänzung ()
McLovin14 schrieb:
Absolut frech:
200 mm² GCD
4 (bzw. 3) x 37 mm² MCD
Das sollen 450$ respektibe 500$ MSRP sein? Was kosten die Chips bei TSMC inkl. Packaging? 45$ und 50$?
hm keine ahnung, aber wird aehnlich viel/wenig sein, wie die preise die nvidia bei TSMC zahlt. Oder glaubst Nvidia zahlt gar weniger und schroepft seine kundschaft also noch mehr?
rx6750xt aber gut 57% schneller ist aber da liegen 150€ dazwischen
klar wird das noch P/L sich lohnen aber es werden kaum 350€ gpu Käufer ne 490€ gpu kaufen
Moin,
na, da bin ich ja mal gespannt auf FSR3 :-) Ich hab mir erst vor kurzen ne 6800XT gekauft und kann mich wohl entspannt zurücklehnen .
Ciao, Radulf
ich nehme natürlich aktuelle Preise die fangen ab 330€ an
kan seindas es eher ne rx670xt entspricht aber die sku unterscheiden sich nur beim Takt.
Das problem ist amd gibt Takt bis an und nicht wie nvidia Takt ab. Da kommt es stark auf chipgüte und TBP an.
Eigentlich wollte ich mir die 7800XT holen. Da AMD aber nicht aus der Hüfte kam, ist es dann die 4070 geworden.
Ein kleines bisschen ärgere ich mich jetzt schon. Die 4 GB mehr VRAM hätte ich gerne mitgenommen.
Wenn 7800XT im Preis noch fallen sollte, könnte ich vlt. doch noch schwach werden.
Obwohl ich mit meiner 4070 sehr zufrieden bin.
Den Verbrauch scheint AMD aber wirklich nicht so richtig in den Griff zu bekommen.
Warum vergleichen sie die neuen Karten mit der RX 5700 XT?
Das bedeutet doch schon, dass diese Karten nicht viel besser sind als die 6000er!
Lächerlich AMD! Ich würde mit dem Kauf warten, weil die Preise sicher schnell fallenwerden
Eigentlich wollte ich mir die 7800XT holen. Da AMD aber nicht aus der Hüfte kam, ist es dann die 4070 geworden.
Ein kleines bisschen ärgere ich mich jetzt schon. Die 4 GB mehr VRAM hätte ich gerne mitgenommen.
Freue dich über die 4070. Nvidia Features, DLSS2/3 besser, FSR trotzdem nutzbar, effizienter, 50% mehr RAM als bei der 3070 und zudem ist die 7800xt wohl nicht groß schneller als die 6800xt. Irgendwie enttäuschend fast 1 Jahr nach Release der aktuellen Generation.
Das ist auch durchaus i.O und richtig...
allerdings zur Einordnung der Performance gegenüber den Aktuellen Karten und direkten Vorgänger Karten der letzten Generation, egal ob aus dem eigenem Haus oder der Konkurrenz, und entsprechend der Einschätzung die jeder für sich treffen muss, ob er den Preis für diese Performance bei den Herstellerbenches für gerechtfertigt hält oder nicht, ist das absolut keine Hilfe.
AMD hatte eine Zeitlang mustergültige Benches bei den Produktreleases abgeliefert. Das Thema ist jetzt aber zumindest bei den GPU mal so richtig vom Tisch.
Die Marketing & PR Truppe bei AMD braucht mal dringend einen Einlauf...
Nachtrag:
Ich hab absolut keinen Bock, um unter Umständen sogar über mehrere Ecken (verschiedene freie Benches) einzuschätzen, wie sich RDNA 2 und bereits erschienene RDNA3 Karten, sowie Lovelace und Ampere Karten gegenüber 2070s / 5700xt Pi*Daumen schlagen, deren Ergebnisse dann nochmal Pi*Daumen den Hersteller Benches zu der 7700xt und 7800xt gegenüberzustellen und für mich dann am Ende festzustellen, ob die mit ihrer P/L für mich klar gehen oder nicht.
Ich will ganz ehrlich sein: ich sehe da ein paar Balken und 2 Preisschilder... kein Plan wie diese Werte einzuschätzen sind und vor allem auch absolut gar kein Interesse, überhaupt auch nur mit dem kleinen Finger zu zucken, um dieser Frage nachzugehen -> Wäre ich jetzt in der Situation, dass ich mir eine neue GPU zulegen wollte / müsste und hätte ich auf 7700xt und 7800xt gewartet, würden diese beiden Modelle direkt aus der Liste der möglichen Kandidaten fliegen!