News GeForce RTX 4090 ohne Gegner: AMD stellt Radeon RX 7900 XTX gegen GeForce RTX 4080

rein von den technischen Daten her wäre die 4080 als Ziel wirklich recht mau. Da der Abstand zwischen 4080 und 4090 so groß ist hatte ich auf irgendwo dazwischen, eher Richtung 4090 gehofft. Naja warten wir mal ab.
 
Rockstar85 schrieb:
Genau.. Wie du sagtest für dich!
Für über 90% am Markt ist es nicht Relevant.

Habe auch nicht behauptet, dass es anders ist! Wen es nicht stört, kann ja eine kaufen. Für den Großteil des Markts ist es auch nicht relevant, wenn AMD für ein paar Euro weniger die gleiche Leistung mit mehr Speicher verkauft. Da werden trotzdem grüne Karten wie geschnitten Brot verkauft.
 
Rockstar85 schrieb:
Nvidia hat dafür spezielle Instruktoreinheiten, AMD nicht
? RDNA2 hat auch RT Einheiten. Der große Unterschied ist, dass AMD das BvH Traversal nicht in Hardware beschleunigt, sondern noch über die Shader macht.

Nvidia und Intel beschleunigen Traversal auch, daher die bessere RT Performance, besonders mit steigender Szenenkomplexität (und ebenso komplexerer BvH Struktur).

Da hängt AMD leider hinterher, auch mit RDNA3 noch.

Ed: ach, um Tensor Einheiten gehts.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo
Shoryuken94 schrieb:
...wenn AMD für ein paar Euro weniger die gleiche Leistung mit mehr Speicher verkauft. Da werden trotzdem grüne Karten wie geschnitten Brot verkauft.
Das liegt aber auch am Marketing.. Und da sind halt alle dran schuld
Und da sind zu 99% am Ende auch bezahlte Influencer Schuld. Ich sehe sowieso AMD irgendwann keine High End GPU mehr bauen, dann werden die Leute auch auf AMD meckern. Nvidia verkauft wie Apple einen Lifestyle, mehr ist das nicht.

@Powl_0
RDNA hat "Tensor" Core? das wäre mir neu..
Du meinst sicher die 4:1 RT Beschleuniger...Fraglich, ob ich dies als Eigene RT Einheiten sehn würde
Im Grunde genommen ist das was AMD da zeigte ja ein bissl was Ampere war.
 
Shoryuken94 schrieb:
Weil bei der 6000erGeneration die Salvage-Karte noch eine 6800XT. Nun nennt AMD die Salvage-Karte des größten Chips 7900XT.

Ist genauso wie Nvidia, die aus einem 3070TI Nachfolger eine 4080 machen wollten. Einfach alles eine Klasse höher benannt und den Preis raufgesetzt.
3070ti-Nachfolger? Das ist ja noch extremer, als bei anderen. Dazu ein früherer Austausch:
Enyo79 schrieb:
Ein blinder würde erkennen das die 4080 12GB eine 4070 ist.
CDLABSRadonP... schrieb:
Es sagen aktuell viele, aber das ist zu gnädig gegenüber der 4080 12GiB. In der letzten Gen hieß die Karte mit 192bit-Interface und mittelgroßem Chip 3060, nicht 3070. Die 4080 16GiB hätte entsprechend der Benennung in der letzten Gen 4070 heißen sollen, die 4080 12GiB 4060.
→ das große Problem ist, dass Nvidia die Namen beiden Karten deutlich verändert hat.

incurable schrieb:
Letztes Mal hatte die XT-Version 100 (was auch immer) im Namen weniger.

Jetzt soll bei gleicher Nummer ein einziges Zeichen dem Kunden erklären, dass es sich um eine Karte mit weniger Speicher, weniger Cache, weniger Recheneinheiten und weniger Takt handelt. (Hmmm, wo hab ich das nur Letztens erst gesehen?)
Das ist nicht neu, der Unterschied zwischen RX 6800 und RX 6800 XT war sogar auf dem Papier heftiger.
 
Zuletzt bearbeitet: (Zu früh abgeschickt)
Rockstar85 schrieb:
Sollte AMD sowas bauen können, würde man sowas aber sicher zeigen.
Können sie und haben sie, aber nur mit CDNA Chiplets im Datacenter Bereich.

Historisch sind solche Dual-Chip Karten auch im Consumer Bereich fast immer später dran. Siehe so ziemlich jede Dual GPU Karte der letzten 20 Jahre.
 
  • Gefällt mir
Reaktionen: Rockstar85
Krautmaster schrieb:
rein von den technischen Daten her wäre die 4080 als Ziel wirklich recht mau. Da der Abstand zwischen 4080 und 4090 so groß ist hatte ich auf irgendwo dazwischen, eher Richtung 4090 gehofft. Naja warten wir mal ab.

Von den Daten her dürfte die Rasterleistung zwischen 4080 und 4090 mit Tendenz zur 4090 sein. Also da, wo Nvidia im kommenden (Früh)Jahr wahrscheinlich eine 4080Ti positionieren wird. Bei der RT Leistung wird man unter der 4080 liegen. Bei den Features muss man abwarten. Ich denke AMD suchst sich die 4080 als Konkurrent aus, weil man gegen diese relativ gut bestehen kann. Die XTX dürfte in vielen Bereichen spürbar schneller sein.
 
  • Gefällt mir
Reaktionen: danyundsahne und Gewuerzwiesel
Rockstar85 schrieb:
Das liegt aber auch am Marketing.. Und da sind halt alle dran schuld
Und da sind zu 99% am Ende auch bezahlte Influencer Schuld. Ich sehe sowieso AMD irgendwann keine High End GPU mehr bauen, dann werden die Leute auch auf AMD meckern. Nvidia verkauft wie Apple einen Lifestyle, mehr ist das nicht.
RDNA hat "Tensor" Core? das wäre mir neu..

Features wie DLSS sind also Marketing ? Du laberst absolut gequirlte Scheisse und das praktisch in jedem Post. Gestern noch ne Party geschmissen das der Wohlfahrtsverin AMD ne 4090 - 10% für 1k verkauft und heute wieder am relativieren.

Und bitte, unterlass Ausflüge in die englische Sprache, das wird nichts.
 
  • Gefällt mir
Reaktionen: Ragnarök88
Rockstar85 schrieb:
Nur sind am Ende selbst 85% der 4090 bei 600 USD weniger schon sowas wie ein Loss für NV.
Rein mathematisch ja. Beim Flaggschiff gehts aber eher um absolute Spitzenleistung und den Halo Effekt. Das beste will sich eben auch extra bezahlen lassen. Funktioniert ja auch seit Jahren für Nvidia: wer die Krone aufhat und gutes Marketing betreibt, verkauft am meisten, auch wenn 95% der Kunden gar nicht das Flaggschiff kaufen.
 
  • Gefällt mir
Reaktionen: Rockstar85
Gute Entscheidung von AMD.

4090 bleibt dann Konkurrenzlos (teuer).
Eine Karte für den Nischenmarkt. Aber eben brachial.

Die 4080 dürfte man dann mit der 7900 XTX aber ganz gut im Griff haben. Und Alter ... Das Teil ist günstiger und hat 24 GB VRAM !!!
 
ArrakisSand schrieb:
von dem sie sich allem Anschein nach nicht so schnell wieder erholen werden.
Lol was? Nvidia verkauft weiterhin eine Größenordnung mehr Einheiten als AMD. Die Kunden interessiert es leider nur wenig, welches Produkt wie gut ist. Otto Normal kauft das, was das beste Marketing hat.

Nvidia könnte AMD quasi komplett ignorieren, weil sie ihre Kernmärkte komplett dominieren.
 
Was mich bei der Vorstellung am meisten gestört hat ist, dass AMD über das eigentliche, nämlich die Performance nicht geredet hat. Im Interview hat Frank Azor eine halbwegs plausible Erklärung geliefert.

Aber AMD hat eigentlich nur Nebelkerzen gezündet was die Performance angeht. Das heißt nichts gutes.

Was wirklich enttäuschend ist, ist die Raytracing performance. Hier ging es nicht wirklich voran. Relativ betrachtet eher zurück.

Der absolute Gag ist aber, dass auch AMD auf PCIe 4.0 bleibt. Nun müssen wir nur noch auf die PCIe-5.0 SSD warten, um bestätigt zu bekommen dass man PCIe 5.0 auf dem PC nicht braucht.

Die PC-Plattform ist dadurch groß geworden, dass die Hersteller Technik sinnvoll eingesetzt haben. Pseudo Features, die nur kosten aber nichts bringen killen die PC-Plattform.

Chesterfield schrieb:
Das hat insgeheim auch niemand erwartet dass die RTX4090 angepeilt wird.
Das haben insgeheim alle erhofft und viele auch erwartet.
Es gab Warnsignale, aber alle haben gehofft dass es eng wird.

Locutus2002 schrieb:
Finde ich nicht schlimm, dass AMD die 4090 nicht erreichen kann.
Es zementiert eben die Marktdominanz von Nvidia. Nvidia verkauft mehr Karten weil die 4090 die Topkarte ist. Nvidia kann auch deswegen einen Premiumaufschlag gegenüber AMD machen.

Exar_Kun schrieb:
Wirtschaftlich macht es bestimmt Sinn, sich nicht mit der Brechstange auf ein Nischenprodukt wie die 4090 auszurichten.
Monolithisch ist es für AMD nicht möglich. Aber über Chiplets ist es denkbar. Und für AMD dringend erforderlich, wenn sie die Marktdominanz von Nvidia brechen wollen.

Exar_Kun schrieb:
Dennoch bleibt der Leuchtturmcharakter eines solchen Flaggschiffes für die gesamte Reihe nicht zu unterschätzen.
Richtig.
Hate01 schrieb:
Sie könnten theoretisch analog zu CDNA2 zwei GCDs verwenden. Aber dann wird es vermutlich eng mit der Bandbreite. HBM oder 3D Cache als Lösung würde das nochmals teuerer machen.
Bei CDNA2 sind es zwei GPUs die im selben Package sitzen. Das ist für die Hauptanwendung Superrechner kein großes Problem. Aber bei Gaming GPUs bringt das nichts.

Ich bin nicht sicher warum AMD auf 384 Bit gegangen ist, haben sie die Bandbreite gebraucht oder wollten sie 24 GByte Speicher?
McLovin14 schrieb:
Da hast du Recht. Da muss ich mich auch dazu zählen. Der Umbau der CUs und die in der Gerüchteküche kursierten 12288 Shader haben mich und viele andere tatsächlich in die Irre geführt.
Spätestens mit der Chipgröße und der erhöhten Dichte an Shadern kamen mir Bedenken. Aber die Hoffnung ...

Die Erklärungen von Angstronomics (weniger FP64-Leistung) waren nicht stichhaltig. Im Grund ist nun auch dieses Leak, das mit einer riesigen Selbstgefälligkeit geschrieben war im Kern getroffen. Alle Zahlen scheinen zwar zu stimmen. Aber es sind eben keine 12288 Shader im Sinne von RDNA 2. Und wir werden sehen wo die 3. Variante bleibt.

Was mich a
McLovin14 schrieb:
Verbunden mit dem geringen Takt bleibt AMD einfach hinter vielen Erwartungen zurück (auch wenn AMD selbst diese Erwartungen nicht geschürt hat).
Aber bei Zen 4 hat AMD den Hypetrain am 23 Mai zum Entgleisen gebracht, bei RDNA 3 nicht.

Bei den ganzen Geschichten zum Takt hatte ich die ganze Zeit Bedenken. Man hat doch gesehen, wie die Effizienz der 6700XT durch die Taktraten verpufft ist.

Die "almost 4 GHz" kamen zu dem von einer unseriösen Person.

McLovin14 schrieb:
Die Kosten für die Chips sind nicht so hoch und auch das Packaging ist überschaubar.
Im Vergleich zum AD102 gibt es einen klaren Kostenvorteil. Zum AD103 sehe ich den nicht so deutlich.
McLovin14 schrieb:
Ich denke, man kann einfach nicht so leicht zwei GCDs zusammenschließen.
Das geht sogar recht "einfach" per Interposer oder per TSMC SoIC. Einfach im Sinne alle notwendigen Techniken sind entwickelt.
Aber es kostet.

McLovin14 schrieb:
Dafür sind sie wahrscheinlich nicht gemacht. Es müsste ja eine Kommunikation stattfinden.
Auf dem Dieshot gibt es keine ungenützten Randbereiche, deshalb würde es mich wundern. Der Dieshot war jetzt nicht so hoch auflösend dass man sicher sagen kann, da ist nichts. Aber es ist sehr unwahrscheinlich.

Und außerdem brauchen wir Benchmarks um einschätzen zu können wie gut die Speicherbandbreite ausgelastet wird. Nur wenn da gehörig Luft ist, ergibt eine GPU aus mehreren GDC einen Sinn.
Hate01 schrieb:
Doch das gibt's schon, nur noch nicht bei Gaming Karten:

https://www.amd.com/de/technologies/cdna2
Wie gesagt das sind 2 GPUs im selben Package.

Die Kopplung zwischen den Dies bei CDNA2 ist viel zu schmal.
Die Transferraten über die Kopplung muss der Speicherbandbreite entsprechen. Nur so kann ein GCD auf den Speicher des anderen GCD ohne Performanceeinbußen zugreifen.

Hate01 schrieb:
CDNA2 verwendet dafür HBM2e.
HBM wird für die berechneten Probleme benötigt, die sehr viel Bandbreite benötigen.

Novasun schrieb:
Was mich wundert - angeblich planen Boardpartner ja Karten mit 3x8Pin ...
Das müssen sie auch weil AMD hier schon ziemlich an die Grenze gegangen ist.

Novasun schrieb:
Also wenn da OC mässig nix geht - wäre das ja Verschwendung schlecht hin....
AMD könnte den AIBs ein bisschen was gelassen haben, weil sie nur zwei Stecker verbauen wollten.
Das heißt ein paar %.
Novasun schrieb:
Von daher wenn die Karte doch bis zu 3 GHz geht bei entsprechendem Verbrauch - kommt man Raster technisch vielleicht doch an die 4090 ran...
Das denke ich nicht. Die Zeiten in dem Overclocking ohne ordentlichen Mehrverbrauch geht, sind eine Weile vorbei.

Frank Azor wurde gefragt und seine Antwort ist bezeichnend.

incurable schrieb:
Irgenwann müssen sie raus aus dem Teufelskreis von fehlender Leistung, fehlender Konkurrenzfähigkeit, fehlenden Produkten für ein ganzes Marktsegment.
Ich gebe Dir recht, nur über den Preis kommt AMD nicht voran.
incurable schrieb:
Ich möchte einfach nur, dass AMD mindestens den Anspruch an sich selbst stellt, in allen Marktsegmenten präsent und konkurrenzfähig zu sein.
Einfach einen großen Chip rauszuhauen und dann auf den Kosten sitzenzubleiben ist auch keine Lösung. Deshalb sehe ich nur über erster bei den Chiplets zu sein eine Chance für AMD.

Ansonsten kann man bestenfalls ein paar Prozentpunkte von Generation zu Generation gut machen.
incurable schrieb:
Damit tut sich die Grafikabteilung traditionell extrem schwer, weshalb sie seit vielen Generationen in diesem Teufelskreis steckt.
Ich finde AMD hat den Fehler gemacht den Hypetrain nicht zu stoppen. AMD hat zwar nichts dazu beigetragen, aber auch nicht getan, um für realsistische Einschätzungen zu sorgen.

Wenn man die nicht vergleichbaren Shaderzahlen ignoriert und RDNA 2 und RDNA 3 über die Anzahl der CUs vergleicht, kommt bei der Rasterleistung ein ordentlicher Anstieg heraus. Das lässt gutes für die Navi 33 und Phoenix Point erhoffen.

Was ich rundum enttäuschend empfinde ist der zu geringe Zuwachs am Raytracing-Performance.

Was ich aber sehr gut finde ist, dass AMD im Referenzdesign die Power halbwegs im Rahmen hält.

anappleaday schrieb:
Eine 7950 XTX kommt ja definitiv auch noch, die wird dann der Gegner der 4090, davon gehe ich sehr stark aus!
Schau Dir doch bitte das verlinkte Interview mit Frank Azor an. Es ist eindeutig.

Sie kommt wahrscheinlich ebenso wie 6950XT, als Refresh in einem oder eineinhalb Jahren mit ein bisschen mehr Performance und höherem Verbrauch. Am Abstand zur 4090 ändert sich nicht wesentlich.

Und bei Nvidia wird die 4090 TI kommen. Da der Prozess bei TSMC besser als der bei Samsung ist, fallen einige Dies an, die im Vollausbau einsetzbar sind.
anappleaday schrieb:
Es bleibt spannend! 👌
Nicht in Bezug auf die 4090. In Bezug auf die 4080 ja. Wer hat bei der Ratser-Performance die Nase vorne die 7900XT oder die 4800?
anappleaday schrieb:
Man darf ja leider fünf (5!) lange Wochen warten auf die Tests 😕🙁🤨
Die werden aber gefüllt mit vorläufigen Benchmarks. Demnächst gehen die testfähigen Treiber an die AIBs und damit kommen immer mehr Leaks.

Das ist ja auch der Grund warum die Vorstellung mit so großem Abstand erfolgt. Wenn sie länger warten gibt es nichts was sie noch zu verkünden hätten.
incurable schrieb:
Grundsätzlich würde ich Dir zustimmen, im konkreten Fall hab ich allerdings null Interesse an diesen Balken-auf-Benchmarkseiten-Verdopplern und dem im Zusammenhang damit fortschreitenden Selbstbeschiss bei Herstellern und Käufern.

Wo ich Dir recht gebe, das alles hat bei Performanceangaben nichts zu suchen. Beides zu vermixen vernebelt nur alles.

Zur eigentliche Upskaler-Technik: Es kommt nur auf die Bildqualität an. Da beim Rendern eh alles künstlich ist ist, kann ich die Diskussion nicht verstehen. Alles was bei guter Bildqualität die erforderliche Rechenleistung verringert ist positiv. Wenn gute Upskaler verfügbar sind, kann doch jeder selbst entscheiden wie man zu guten Framerates kommt. Also ob man die Settings herunter nimmt oder den Upskaler verwendet.

Rockstar85 schrieb:
Langfristig eher nicht. AMDs Chiplet ist da hier der Vorteil, selbst wenn Nvidias Yield hoch ist, der Preis ist es eben auch.. Es ist halt immer billiger 300mm² zu fertigen, als 600mm²
Du musst das aber mit 378 mm² vergleichen.
Rockstar85 schrieb:
Bei einer Diesize von ~600mm² sähe es so aus: ...
Eine Fehlerdichte von 0,02 1/cm² ist sehr ambitioniert. Ian Cutress hat mit 0,07 1/cm² gerechnet, was mir von den Zahlen die ich im Web gesehen habe, realistisch erscheint

Taxxor schrieb:
Wenn man beide Karten von Anfang an gegen die 4080 stellen wollte, passen die Namen mMn nicht und die 7900XT hätte eine 7800XT sein sollen, die 7900XTX dann einfach wieder die 7900XT.
Das ist eine verbreitete Fehlinterpretation von dem was Frank Azor gesagt. Er hat auf das die Frage warum kein Vergleich mit der 4090 gemacht wurde gesagt, dass der Konkurrent der beiden Karten die 4080 ist.

AMD wird lange gerechnet haben, was für sie ökonomisch Sinn ergibt. Wenn es beim Gaming gegen die 4090 gereicht hätte, wären alle glücklich gewesen. So wie damals bei der 3090.

Aber spätestens bei den Creators hätte die Karten gegen die 4090 den kürzeren gezogen.
Wenn AMD hier mehr hätte erreichen wollen, hätte AMD mehr in die Raytracing-Leistung investieren müssen.

Taxxor schrieb:
Denn wenn die XT ~20% langsamer als die XTX ist (300W, wo die XTX schon 10% verliert und dazu noch weniger Shader und Takt), dürfte sie ~20% über der 3090Ti rauskommen und damit recht genau da wo die 4080 aktuell eingeordnet wird.
Die hätte man auch 7800XT nennen können.

bad_sign schrieb:
Aber was ist dann der Plan? Auf Effizienz heucheln und den AIBs 500W geben mit 3.2 GHz und 5% vor der 4090 in Raster stehen?
Nein. Auch mit 500 W kommen die AIBs IMO nicht an die 4090 heran, geschweige denn vorbei.

Und die AIBs werden Schiffbruch erleiden, wenn es versuchen. Denn dann entstehen große teure Karten die viel verbrauchen und dennoch an der 4090 scheitern.

Was AMD hier macht ist der richtige Weg. Ich wünschte AMD hätte bei Zen 4 dasselbe gemacht.
 
  • Gefällt mir
Reaktionen: Colindo, Ragnarök88 und AlMustansir
M1ch1 schrieb:
2. AMD ist ein absolutes gutmenschen unternehmen (dann kann die chefriege aber geschlossen gehen, da die aktionäre das nicht akzeptieren werden. Zumal AM5 boards gezeigt haben wie sich die preise entwickeln können bei AMD ;))

Bitte das Argument ist falsch. A) Kann AMD für die Preise der AM5 Boards nur bedingt etwas. Und B) sind Intelplatinen die PCIe 5 und DDR 5 bieten nicht wirklich billiger...
Laut Boardpartner hat das mit den hohen Taktraten zu tun und der zu leistenden Qualität der Signale... Davon weiter ab sind die jetzigen Boards sicherlich auch ne Herausforderung was Stromversorgung und Phasen betrifft...


Zur 7900XTX wie sie jetzt vorgestellt wurde. Diese ist definitiv nicht in der Lage der 4090 Paroli zu bieten. Laut AMDs eigenen Folien erreicht sie bis zu 70 Prozent mehr als die 6950... Die Balken da waren aber eindeutig - nur ein Spiel war dabei das den Faktor 1.7 erreichte. Der Großteil war 1.5 bis 1.6... Im Schnitt gehe ich also rechnerisch maximal von 1.6 aus..

Was wir aber auch wissen - Partner werden 3x8 Pin bringen. An sich macht das nur Sinn wenn OC mäßig was geht... Sollten die bis zu 3GHz im Vorfeld keine Ente gewesen sein- wären das bis zu 20% on Top...
Damit und nur damit würde man an die 4090 in Raster ran kommen (ohne DSSL FSR). Diese Partnerkarten werden dann aber auch keine 999$ kosten.. Aber auch nicht so viel wie die 4090...
 
Novasun schrieb:
Und nein das muss für das Treiber Team gar kein Albtraum werden. Das war es noch als zwei GPUs als eine versucht wurde anzusprechen....
Hier wandert aber alles eine Ebene tiefer. Die Firmware und Hardware müssen das richten...
Ich bewundere Deinen Optimismus, dass es auf dem Feld der dynamischen Lastverteilung nach 25 oder mehr Jahren plötzlich eine allgemeingültige Antwort gibt, die man mal eben in Firmware oder gar Hardware gießen könnte.
 
Rockstar85 schrieb:
Ich sehe sowieso AMD irgendwann keine High End GPU mehr bauen, dann werden die Leute auch auf AMD meckern. Nvidia verkauft wie Apple einen Lifestyle, mehr ist das nicht.

Ist ja bei AMD oft genug der Fall, dass sie nur bis zur Mittelklasse in einer Generation mitgehen. Und da sind wir beim Punkt. Warum jemand Produkt XY kauft ist die eine Sache. Punkte abzutun mit "interessiert eh die meisten nicht", funktioniert nicht.

Natürlich ist bei Nvidia viel Marketing im Spiel. Der Erfolg gibt Ihnen recht. Eine in allen Aspekten schnelle Grafikkarte ist eben auch ein gut zu vermarktendes Produkt. Massive Defizite, und seien sie für viele egal, sind kein gutes Marketinginstrument. Umso trauriger, dass AMD beim Marketing keine konstante Linie findet. Die Präsentation mit den Seitenhieben Richtung Nvidia war eher peinlich. Sie bezahlen auch Influencer und man sieht AMD in Streams häufig, aber das effektivste Marketinginstrument sind nach wie vor Halo Produkte und konstant gute Leistungen an der Spitze. Ein Onehit Wonder sorgt zwar für Aufmerksamkeit, ist aber nicht gut zu vermarkten für langfristige Verkaufserfolge.

Marketing wird immer dahingestellt, als wenn nichts dahinter steckt. Das stimmt aber nicht. Ein gutes Marketing setzt ein sehr solides Produkt voraus, mit dem man auch die Massen ansprechen und abholen kann.

Wäre es damit getan, einfach ein paar hundert Millionen in Kampagnen zu stecken, wären viele Firmen an der Spitze.
 
Powl_0 schrieb:
Lol was? Nvidia verkauft weiterhin eine Größenordnung mehr Einheiten als AMD. Die Kunden interessiert es leider nur wenig, welches Produkt wie gut ist. Otto Normal kauft das, was das beste Marketing hat.
In der letzten Gen hat sich erst einmal lange Zeit verkauft, was überhaupt lieferbar war und dann, was näher an der UVP (bei gleichzeitig passender UVP) lieferbar war. Entsprechend wenig kann aus Verkaufszahlen der letzten Gen geschlossen werden.

Abseits dessen gilt zu den Marktanteilen von Radeon nach wie vor folgendes:
CDLABSRadonP... schrieb:
Das sollte eigentlich nicht verwundern: AMD hatte das letzte Mal im Jahre 2009 mit Evergreen die technologische Führungsrolle inne. Seitdem war das für sie positivste ein Schlagabtausch, während Nvidia immer wieder Jahre oder zumindest Marktsegmente hatte, in denen sie frei wildern konnten. Fast während der gesamten Zeit von Maxwell hatten sie die freie Bahn und von AMD konnte währenddessen eine Karte in einer sehr speziellen Nische (die R9 Nano) rundherum überzeugen. Pascal war Nvidia-Dominanz in der Breite plus obendrauf freie Marktsegmente, Turing war Nvidia-Dominanz in der Breite plus obendrauf freie Marktsegmente. Jetzt sind wir gerade am Ende einer Ära des Schlagabtauschs und mit RDNA3 gibt es erstmals seit langem eine realistische Chance, dass AMD die Führungsrolle wieder übernehmen wird.
 
Atma schrieb:
Willst du mich eigentlich verarschen? Oder kannst du nicht lesen? In der News steht mehrmals AMD stellt die 7900 XTX gegen die 4080. Somit heißt es 355W TGP der 7900 XTX gegen die 320W TGP der 4080
Keine Erziehung genossen oder der Meinung man kann sich im Internet assozial und respektlos benehmen weil anonym?

Ja AMD positioniert die 7900XTX gegen die 4080 16G. Aber es schließt eben nicht aus das die XTX ca. 15-20% schneller ist und die 7900XT +/- auf dem gleichen Level liegt.

Die theoretischen "Hochrechnungen" der Leistungsfähigkeit gab es bereits von PCGH, bei TomHardware, bei Videocardz und verschiedenen Leakern auf Twitter etc.

Ich habe die gesamte News gelesen aber auch das komplette Interview von Frank Azor mit PC World, Sie auch?

Und es wäre wünschenswert wenn Sie hier einen anderen Umgangston nutzen. Ihren Kommentar habe ich zudem gemeldet.
 
  • Gefällt mir
Reaktionen: PegasusHunter und Holgmann75
ETI1120 schrieb:
Ich bin nicht sicher warum AMD auf 384 Bit gegangen ist, haben sie die Bandbreite gebraucht oder wollten sie 24 GByte Speicher?
Schätze beides. Der Cache ist etwas kleiner als bei RDNA2, was vor allem bei 4K aufwärts zum Problem wird. Wenn ein Cache Miss dann immerhin mehr echte Speicherbandbreite hat, wird das etwas aufgefangen.

Bei RDNA2 Vollausbau merkt man über 4K sehr schnell, wenn der Cache überlauft. Da stürzt die Performance richtig hart ab. Bei den kleineren GPUs entsprechend schon bei niedrigeren Auflösungen.
 
Krautmaster schrieb:
Da der Abstand zwischen 4080 und 4090 so groß ist hatte ich auf irgendwo dazwischen, eher Richtung 4090 gehofft.
Ich denke das wird auch so kommen.
Wenn die 7900 XTX bis zu 70% schneller ist als die 6950XT, während die 4090 rund 80 bis 82% schneller als diese ist, kann ich mir schon vorstellen das die 7900XTX irgendwo zwischen 4080 und 4090 landet.
Okay RT Leistung wird vermutlich nicht da landen, da wird die 7900 XTX wohl eher auf 3090TI Niveau bleiben, wenn die angedeuteten 50% plus gegenüber RDNA2 stimmen.
Ich bin jedenfalls gespannt und wenn das so kommt, wird Nvidia, zumindest bei der 4080, den Preis wohl doch etwas anpassen müssen 🤔
 
Zurück
Oben