News RX 7700 XT & RX 7800 XT: AMD schickt neue Radeons für 489 und 549 Euro ins Rennen

Nice News! Das könnte wirklich die erste AMD-Karte werden, die ich je kaufe (zumindest für den Zock-PC, im HTPC hatte ich schonmal eine).
 
  • Gefällt mir
Reaktionen: danyundsahne
blackiwid schrieb:
Ich denke AMD kann ganz gut leben wenn 99% der Kritik daher rührt das man sagt andere AMD Karten waren besser aber fast niemand argumentieren kann das die aktuellen Nvidia Karten besser sind. (für den Preis).
Es ist nun mal so, dass es AMD ist, die Marktanteile hinzugewinnen müssen, nicht Nvidia. Und dafür reicht es nun mal einfach nicht "nicht schlechter" zu sein. Dass sie offenbar als schlechter wahrgenommen werden (völlig unabhängig davon, in welchem Maße das tatsächlich gerechtfertigt ist), ist dann noch mal ein ganz anderes Problem.

blackiwid schrieb:
Ja auch AMD ist nicht super toll nur im Vergleich mit Nvidia können sie scheinen, aber es fällt mir schwer den kleinen Konkurrenten mit dem besseren P/L zu kritisieren wenn Nvidia sich dem Konkurrenzkampf verweigert und eben quasi auf K.I. wechselt und mehr oder weniger Gaming eben aufgibt.
Sorry, aber das ist doch völliger Quark.

blackiwid schrieb:
Waere der geplante Chip gekommen wäre Nvidia sicher ins Schwitzen geraten. Schreibt AMD nicht fuer ewig ab, mit 9xxx koennen sie schon mal vorne kommen, AMD war bei CPUs auch lange komplett abgeschrieben, sie haben mit den Chiplets eigentlich einen Technologievorteil, gut bei Software holen sie nur auf aber ja da ist das letzte Wort noch nicht gesprochen.
Ganz ehrlich, das wünsche ich AMD von Herzen, denn von Monopolen hat niemand was. Meine letzte AMD-Karte war zwar noch eine ATI (Radeon 9800XT), aber die war toll und ich hätte überhaupt nichts dagegen, in Zukunft das bessere Angebot auch mal wieder bei AMD zu finden.
 
Ja, ok, hört sich fair an.
Tests abwarten, mal sehen ob Nvidia Preise justiert, sollte ja kein Problem sein.

Tendiere zur Zeit wirklich Richtung 7800XT.
 
  • Gefällt mir
Reaktionen: danyundsahne und HaRdWar§FreSseR
OCBC schrieb:
ich sehe keine Daseinsberechtigung für eine Midrange Karte mit 12 GB RAM für knapp 500 Euro!
Lässt die 7800xt attraktiver erscheinen, mehr braucht es eigentlich nicht. Upselling scheint das Thema der Generation zu sein. War die 4090 nicht sogar mal die Karte mit dem besten Preis/Leistungsverhältnis?
 
  • Gefällt mir
Reaktionen: OCBC
Also ich kann damit sehr gut leben, heißt mal wieder viel Geld gespart und Aufrüsten auf Jahre hinaus geschoben.
Im Grunde ist es daher irgendwo auch positiv das sich zwischen manchen Gens sehr wenig tut - war doch auch schon immer so.
Würde mich nur bei einem Defekt ärgern, fürs gleiche Geld gibt es eben kaum besseres, in vielen Bereichen ist Stillstand.
Ist halt mal so und mal so, habe genüg andere Hobbys die Geld kosten und kann mich so gemütlich zurücklehnen und meine aktuell Hardware noch eine Weile auskosten!
 
  • Gefällt mir
Reaktionen: Apocalypse
Rockstar85 schrieb:
Ich schreibe AMD nicht ab, ich halte es Strategisch für falsch, sich im High End mit zu messen..
sehe ich genauso, außerhalb unserer Techbubble hier, wer leistet sich da großartig ne 3090(Ti)/4090, wenn man sich regelmäßig die Umfragen anschaut sind es keine 20% wie zuletzt bei PCGH - https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Umfrage-Teilnehmen-1425668/

daher im Grunde verschmerzbar für AMD, blöde ist nur wenn sich alle anderen Karten darunter ebenso an dem Preis orientieren, aber ist dann auch nur alles eine Frage von Angebot und Nachfrage, wenn Nvidia dahingehend die Preise von allen anderen zum x90 Modell entkoppelt, können sie auch gerne 3000€ für diese verlangen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitec und Rockstar85
blackiwid schrieb:
Was ist an 550 Euro fuer 16gb schnellen Speicher unverschämt? Nvidia will dafuer 1100 Euro. (4080).
Wie würdest du denn knapp 500€ für eine Mittelklasse GPU bewerten mit dem Wissen, dass die Margen mittlerweile bei >50% liegen und echter Wettbewerb nicht mehr stattfindet.

Stattdessen postest du einen BS-Vergleich mit einer völlig anderen Leistungsklasse. Gratulation für soviel Unfug, das muss man sich erstmal ausdenken können. 😂
 
blackiwid schrieb:
Ja seit wann sind UVP bindend? Wie schnell rasten die Preise der 7900 Karten nach unten? Einfach mal bisschen zurueck lehnen und ADHS Pillen schlucken...
Geht es auch etwas unfreundlicher? Ja, das U in UVB steht für unverbindlich. So weit so gut mit den Binsenweisheiten. Dennoch ist die UVP ein strategisches Zeichen und die AIBs haben wenig Handlungsspielraum. D.h. AMD muss erstmal einknicken und dann Rabatte gewähren, um die Preise zu senken.
 
Taxxor schrieb:
Die 7800XT ist bei den gleichen Spielen laut AMD nun 12% über der 4070, hier liegt in der CB Rangliste die 6950XT und diese ist 34% schneller als die 6800d.
Ist die 7900 GRE nicht auch genauso schnell wie die 6950 XT?
Die 7800 XT sollte doch etwas langsamer sein als die 7900 GRE oder nicht?
 
Convert schrieb:
hat die RX7700XT auch eine viel schlechtere Konkurrenz, die RTX 4060 TI 16GB.
Na ja... Nehmen wir die 4060 Ti 8 GB. Und dann starten wir bei 380 Euro gegen 490 Euro...
Ist klar das AMD sich hier die 16 GB Variante rauspickt. Die ist ja immerhin teurer und langsamer.
Und wenn wir sagen, dass die 4070 mit 12 GB eigentlich auch knapp bemessen ist, müsste man das bei der 7700 XT auch behaupten.
Die scheint ja irgendwo "dazwischen" liegen zu wollen. Wie halt auch schon die 6700 XT irgendwo zwischen 3060 Ti und 3070 lag. Mal näher an der 3070, mal eher auf Niveau der 3060 Ti...

Und wenn man dann den Verbrauch gegenrechnet. Ich finde das ernüchternd.

Das ist ja quasi Leistung der 6800 mit mehr TDP und weniger VRAM. Das ist echt ungeil. Aber wie gesagt. War ja zu erwarten.
Und wenn ich dann doch wieder mit der 4060 Ti vergleiche: Die zieht beim Spielen 160 Watt... Maximal.
 
  • Gefällt mir
Reaktionen: JJJT und dr.betruger
Fallout667 schrieb:
Die 7800 XT sollte doch etwas langsamer sein als die 7900 GRE oder nicht?
Sollte sie eigentlich, also die beiden Vergleiche von AMD mit den Nvidia Karten werfen irgendwie mehr Fragen auf als dass klarer ist, wo die Karten stehen werden^^

Wenn sie 12% über der 4070 ist, dann wäre die 7800XT halt so schnell wie die 7900GRE, was bedeuten würde, sie könnte bei gleicher TBP nur durch mehr Takt komplett ausgleichen, dass sie 20CUs weniger hat
 
  • Gefällt mir
Reaktionen: danyundsahne, Sirhaubinger und Fallout667
Was sie schon tun warum glaubst den wieso es den teuren n21 chip so billig gibt
Das sind anfangspreise die sich um etwa 449€ und 519€ einpendeln werden in zukubnft sehe ich sgar für 54cu 399€ und 60cu für 499€
es ist der dollarkurs der die sku so teuer macht hier.
Die us preise klingen gut obwohl da die 449$ schon nah sind und sich dort entsprechend schlecht verkaufen werden.
Das wird sich aber in 2-4 Mnaten auf 399$ fallen und noch später auf 349$
Ein n32 chip kostet amd nur 60$ das entspricht nvidia ad106 chip und ne sku ist ab 299$ umsetzbar.
Ein n31 kostet um die 90$

Die rx7800xt wird nicht an die rx7900gre kommen aber nah dran ist se
bei so engen fps ist eine gpu load Angabe schon pflicht wenn das perfmon update in capframex drin ist solltet ihr die graphen inkludieren.
 
kachiri schrieb:
Und wenn wir sagen, dass die 4070 mit 12 GB eigentlich auch knapp bemessen ist, müsste man das bei der 7700 XT auch behaupten.
ist dem auch so wenn man meint damit unter WQHD zu zocken und im Vergleich zur 4060Ti mit 8GB, kommt diese immerhin noch mit 4GB VRam und ggf. im Schnitt 20% Mehrleistung um die Ecke, daher kann AMD auch nen entsprechenden Preis für abrufen, auch wenn ich diesen mit 489€ auch zu hoch finde,

aber für 449€ sicher eine Überlegung wert gegenüber der günstigsten 370€ teuren 4060Ti mit 8GB, daher solang einfach mal im Regal liegen lassen oder zur größeren 7800XT dann den Aufpreis zahlen
 
  • Gefällt mir
Reaktionen: DF86
7700XT hat Leistung einer 6700XT gleich viel VRAM. Preis 6700XT 330 Euro, 7700XT 489 Euro ... klingt doch fair 🤣. WTF
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Allein von fact sheets und den Preisen wäre ses die 7900gre
 
Taxxor schrieb:
Wenn sie 12% über der 4070 ist, dann wäre die 7800XT halt so schnell wie die 7900GRE, was bedeuten würde, sie könnte bei gleicher TBP nur durch mehr Takt komplett ausgleichen, dass sie 20CUs weniger hat
Wenn die 7800XT 7% schneller als eine 4070 sein sollte, dann ist man fast an einer 6950XT und wie du sagtest 7900GRE dran.. Damit würde sich AMD irgendwo zwischen der 3080 und der 6950XT einordnen und die GRE wäre nur 1-2% schneller..
Das mag ich angesichts der 263W nicht so richtig glauben, dann dann wäre die Karte Preislich echt lecker.. Ich tippe auf 5-7% oberhalb einer 4070 (nach der Rechnung) und damit Grob auf 6900XT Leistung.

Bei der 7700XT fange ich das Rechnen nicht an, solange es die 6750XT gibt..

1692995443831.png


Ich tippe auf 6800XT plus ~10% und damit knapp oberhalb der Rasterleistung einer 3080/10...Für den Preis wäre das ein gutes Upgrade zur 5700XT und Co. Zur 6800 wäre es halt nur Okay..
 
  • Gefällt mir
Reaktionen: Casillas, danyundsahne und HaRdWar§FreSseR
syfsyn schrieb:
bei so engen fps ist eine gpu load Angabe schon pflicht wenn das perfmon update in capframex drin ist solltet ihr die graphen inkludieren.
Dazu braucht es nicht unbedingt ein Update.
Die neuen Graphen werden dir nicht wirklich mehr Infos geben, als du schon immer mit der Aufzeichnung der GPU Auslastung sehen konntest.

Beispiel während eines 30FPS Limits.
1692995186884.png


Die GPU war im Schnitt zu 23% ausgelastet, die durchschnittliche GPU Busy Zeit beträgt 23% der durchschnittlichen Frametime.
Warum geht das so genau auf? Weil diese Zeit nichts anderes macht, als die GPU Auslastung in alternativer Form anzugeben.

Man sieht im Bild auch sehr schön, was hier passiert:
Die GPU war in diesem 30FPS Limit gerade genau an der Grenze zum Runtertakten, das hat sie bei ~3,4s dann gemacht. Takt gesunken>Auslastung gestiegen> GPU Busy Times gestiegen, weil GPU-Busy Times einfach nur Frametime * Auslastung sind. Steigt die Auslastung, steigen auch die GPU-Busy times.

Der Versatz zwischen GPU-Busy und GPU load kommt nur daher, dass die Sensoren nur alle 250ms abgefragt werden, das ist das Einzige, was hier dann etwas genauer wird, weil man mit GPU-Busy einen Wert für jeden einzelnen Frame hat, aber im GRoßen und Ganzen ändert sich nicht viel.

Auf den Gesamtschnitt bezogen ergibt das für die Daten aus dem Bild:
33.2ms avg frametime * 0,23 avg GPU Load = 7,6ms avg GPU-Busy time.

Umgekehrt kann man aus der avg GPU-Busy Time und der avg Frametime dann natürlich auch die avg GPU Load errechnen, ohne sie mit loggen zu müssen.

Noch ein Beispiel im GPU Limit: 98% Auslastung, GPU-Busy = 2% niedriger als avg Frametimes
Unbenannt.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
P/L mag bei der RX6800 interessant sein (bei leistungsstarken Nt.), und die Menge VRAM der RX7900XT mag es auch aber was abschreckt ist die Leistungsaufnahme, immerhin hat man diese bei multi-Screen in den Griff bekommen. Dennoch, wenn man keine 100€ für ein >650Watt Nt einplanen möchte, ist man wohl besser bei der RTX4070 bedient.
 
@Reflexion wenn du jetzt keinen 13700K oder 13900K mit offenen Limits bei 250W aufwärts betreibst, reicht ein gutes 550W Netzteil vollkommen für eine 250W Grafikkarte
 
  • Gefällt mir
Reaktionen: JJJT, Reflexion und Rockstar85
Reflexion schrieb:
Dennoch, wenn man keine 100€ für ein >650Watt Nt einplanen möchte, ist man wohl besser bei der RTX4070 bedient.
Also ich hab meine 4090 zusammen mit dem 7800X3D an einem 650W Netzteil und habe ohne Load Spikes eine maximale Dauerlast von 550W an der Dose, wenn ich sie wirklich komplett stock laufen lasse und auslaste.
Abzüglich Effizienz bedeutet das ~520W die das Netzteil liefern müsste und dann hab ich noch >100W an Lastspitzen bevor ich überhaupt an die Nennleistung des Netzteils komme.
Ganz zu schweigen davon, dass so ein 650W Netzteil auch kurze Lastspitzen bis 750-850W ab kann.

Da ich die 4090 nicht mit 450 sondern nur mit 300W betreibe (so viel wie du mit einer 7900XT ca auch hättest), kann man von dem ganzen nochmal 100W abziehen und ich komme nicht mal auf 450W Dauerlast.
Und viel mehr als 100W Lastspitzen wirst du mit einer 300W GPU nicht haben, also mit ner 300W GPU reicht ein 550W Netzteil idR aus, solange man nicht gleichzeitig noch ne CPU hat die 200W zieht.
 
  • Gefällt mir
Reaktionen: baizer, JJJT, NerdmitHerz und 4 andere
Zurück
Oben