News RDNA-4-Grafikkarten: PowerColor bringt Radeon RX 8000 in neuer Reaper Series

@coxon Geschrottet "Gott sei Dank" nur eine (VooDoo 3 3000).
Mit den anderen hab ich´s so ähnlich wie @Laphonso gemacht.
Für Bekannten/Freude PC´s zusammen gebaut und ihnen meine "alte" (max. 1 Jahr alt) angeboten/verkauft,
und das Geld für mich in eine neue GPU investiert.
 
Zuletzt bearbeitet:
H1ldegunst schrieb:
Ich frage mich nur bei PowerColor immer, wer die RedDevil-Serie kauft
Ich hab damals ne Red Devil Ultimate 6900 XT(XH) gekauft. Weiß jetzt tatsächlich nicht obs die bei den anderen Modellen auch als XTXH gab. Die liegt auf jeden Fall auf 3090 eher 3090Ti Niveau (nur ein paar 3DMark Benchmarks getestet) und reicht immernoch völlig aus :)
 
  • Gefällt mir
Reaktionen: coxon
Das war ja auch eine tolle Karte, dann noch der bessere Chip. Hätte ich keine Referenz gehabt, wäre ich bei der Ultimate oder der Sapphire Toxic auch schwach geworden.

Ich hatte das tatsächlich eher auf die 7000er-Serie bezogen, bei der sich die RedDevil den Tests nach nicht wirklich von der Hellhound absetzen konnte, außer, dass sie die meiste Zeit teurer war :D
 
  • Gefällt mir
Reaktionen: Stevo1337 und coxon
Quidproquo77 schrieb:
Wenn ich jetzt rein nach den Spezifikationen gehe, dann hat RDNA 4 ~ 6% mehr Cores als die 7800XT.
Geht man dann von den Taktraten Richtung 3Ghz, bzw. nehmen wir 3GHz an, ist das ausgehend von 2400Mhz was die 7800XT so im Schnitt packt eine Steigerung von 25%.

Rechnen wir noch 5% IPC Steigerung mit drauf, stehen wir am Ende bei ~36% theoretischer Mehrleistung.
Schaut man in den aktuellen Parcour ist die 7900XT 34% in UHD+FSR vor der 7800XT.

Da Takt Cores und IPC sicherlich nicht 1:1 durchschlagen, landet man wohl bei irgendwo um 30%.
Bzw. ob es überhaupt mehr IPC gibt, halte ich für fraglich.

Man bewegt sich also irgendwo zischen 25 und 35% was die Möglichkeiten betrifft und ich halte bei einer sehr hohen density und der kleinen Chipgröße etwas zwischen 25 und 30% für am wahrscheinlichsten.

Wenn man nun ein Schelm wäre könnte man sagen, die Karte ist eher eine 8700XT, als denn eine 8800XT, schließlich stagnieren im Endeffekt die Rechenwerke. Genau das gleiche sieht man bei Nvidias 5080/5070Ti und 5070, auch eine Stagnation, während es bei der 5090 wieder ordentlich voran geht.
Eigentlich geht man ja immer davon aus, dass die Nachfolgegeneration grob einen Klassensprung nach oben macht. Also eine neue 70er ist dann so schnell wie eine alte 80er.
Manchmal ist es mehr, mal ist es sogar weniger, wie man leider zuletzt gemerkt hat, als vor allem Nvidia da unten einmal bei der 4060 Null (PCI-E 3.0) bis 10% geliefert hat.
Wir sollten also damit rechnen, dass eine 8800XT dann beim Rastern so bei einer 7900 GRE oder im Best Case bis zur 7900XT hinaufreichen könnte.
Aber das ist eigentlich auch fast egal.
Wirklich interessant ist eigentlich nur, ob man tatsächlich diese ca. 40% Raytracingleistung mindestens draufpacken kann, um den Absacker ausgleichen kann.
Man hat bisher beim Raytracing immer eine Kartenklasse schlechter bekommen.
Da jetzt die ersten Spiele kommen, die grundlegend eine Raytracingberechnung erfordern, ist es immens wichtig, dass man auch dort eine ansprechende Leistung fürs Geld bekommt.
Wo wir beim nächsten Thema sind: Kosten und Effizienz.
Will man die Karten auf satte 3Ghz knüppeln, wird man wohl mit der Brechstange wieder 30% Aufnahem gegen 10% Leistung tauschen, um oben dran zu bleiben.
Das bedeutet dicke Kühler, udn sebstverständlich hohe Preise.
Und nicht jeder kann dann diese Karten in den PC einbauen, aus Platz- Verbrauchs- und Kostengründen.
Und dann bekommt man auch keine Marktanteile zurück.
Ich habe damals keine 6800XT oder gar 6900XT im Sale bei Mindfactory gekauft, weil die einfach viel zu viel Watt wollten, und man die Karten gefühlt nur noch diagonal ins Gehäuse gebogen bekommt.
Also habe ich mir eine kleine 6700XT mit großem Doppellüfter geholt, fertig. Geld gespart. Rastermodus reicht, hab auch meinen Spaß.
Da müssen die Hersteller generell dran arbeiten!
Obwohl ich über Intel stänkere, begrüße ich jedoch absolut die Entscheidung, kostengünstige Karten zu entwerfen, ganz im Sinne der altehrwürdigen 1000 Karten von Nvidia.
Bitte mehr davon!
Aber auch da mus sman noch anmerken, dass man mit bis zu 2,85Ghz sicherlich doch ein wenig über den Sweet-Spot hinausgeschossen ist.
Die bis zu 200 Watt hätten nicht sein brauchen, das wäre mit 150-175 Watt garantiert auch super möglich gewesen, und das hätte noch viel bessere Effzienzwerte gebracht, was mittlerweile bei Tests auch immer mitgetestet und bewertet wird.
Die 4000er Gen von Nvidia hat ja gerade deswegen den guten Ruf weg, weil die auch einen großen Teil der verbesserten und überlegenen N4 Fertigung dort hineingesteckt haben.
 
BxBender schrieb:
Wo wir beim nächsten Thema sind: Kosten und Effizienz.
Will man die Karten auf satte 3Ghz knüppeln, wird man wohl mit der Brechstange wieder 30% Aufnahem gegen 10% Leistung tauschen, um oben dran zu bleiben.
Das bedeutet dicke Kühler, udn sebstverständlich hohe Preise.
Aus den bisherigen Informationen gehen 220 Watt hervor, was nicht unrealistisch ist wenn man bedenkt dass eine 4080 mit UV auch in dem Bereich liegt.
 
GTV schrieb:
Dito...wer ohne Kopfhörer Zockt hat meines Erachtens ganz andere Probleme....Wenn ich Zocke müssen alle Lüfter auf Vollgas laufen,hör ich sowieso nicht mit Kopfhörern...Looool
Bei mir werden Lautsprecher genutzt und der PC steht neben mir auf dem Tisch. Idle stehen alle Lüfter. In Spielen läuft die 6800XT uc/uv @ ca 2100MHz/ca 170W in Windoof, was ich nahe an der Effizienzspitze sehe. Der Rechner soll nicht zu hören sein. Mit Linux Mint bin ich mit oc/uc und undervolting noch nicht so weit.
Eine 8800XT, oder gar 8900XT könnte meine Graka ablösen, um wieder auf den neuesten Stand der Technik zu kommen. Dann auch mit 9800X3D :)
 
Zurück
Oben