Es gibt kein Problem mit der 7900XT, das ist immer noch eine gute Karte. Das einzige Problem mit den 7900XT/XTX waren anfangs die teilweise fehlerhaften Vapor Chamber auf dem Refererenzdesign mit den zu hohen Hotspots auf dem Chip.GreatEvil schrieb:Du oder auch CB können mir ja gerne erklären, was das Problem an meiner 7900XT ist.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gerüchte zu AMD RDNA 4: RX 9070 (XT) statt RX 8800 (XT) erreicht die RX 7900 XT nicht
ilovebytes
Lieutenant
- Registriert
- Juni 2012
- Beiträge
- 545
pfuu wenn das so kommt ist es schon hart, dann schaft man es bei Amd wahrscheinlich mit altem High End und neuer "Mittelklasse" noch nicht mal mehr die Leistung von Nvidias neuer Mittelklasse (5070) einigermassen zu erreichen.
Das lässt böses erahnen für die Preise von Blackwell und da denke ich noch nicht mal an die 5080/90 sonderm 5060/5070/ti
sollte nicht rdna4 den Murks beim Chipdesign der ja dafür verantwortlich war das die RDNA3 nicht wie erwartet takteten wieder ausbügeln ? scheinbar ist das doch nicht so...
naja mal schauen, vielleicht ist es am Ende doch mal etwas besser als die Gerüchte es sehen...
Das lässt böses erahnen für die Preise von Blackwell und da denke ich noch nicht mal an die 5080/90 sonderm 5060/5070/ti
sollte nicht rdna4 den Murks beim Chipdesign der ja dafür verantwortlich war das die RDNA3 nicht wie erwartet takteten wieder ausbügeln ? scheinbar ist das doch nicht so...
naja mal schauen, vielleicht ist es am Ende doch mal etwas besser als die Gerüchte es sehen...
Nighteye
Lieutenant
- Registriert
- Okt. 2013
- Beiträge
- 601
@Northstar2710
Theoretisch hast du recht.
Aber Radeons Preise müssen schon deutlich aggressiver sein um Marktanteile zu gewinnen.
Raster muss 20% günstiger sein.
Also bei RTX 4070ti Speed, dürfte die RX 9070XT keine 500€ Kosten.
Denn die Geschichte Zeigt, die Leute gehen nicht zu Radeon wegen 100€ Ersparnis. Da muss schon mehr kommen. Zu schlecht ist dass Radeon Image. (Treiber, Features, DLSS usw)
Theoretisch hast du recht.
Aber Radeons Preise müssen schon deutlich aggressiver sein um Marktanteile zu gewinnen.
Raster muss 20% günstiger sein.
Also bei RTX 4070ti Speed, dürfte die RX 9070XT keine 500€ Kosten.
Denn die Geschichte Zeigt, die Leute gehen nicht zu Radeon wegen 100€ Ersparnis. Da muss schon mehr kommen. Zu schlecht ist dass Radeon Image. (Treiber, Features, DLSS usw)
Massives Cherry Picking, zwischen bspw. der 1080TI und der 4090 liegen auch Welten. Auch "nur" 5 Jahre ungefähr. Wenn man dann noch mehr Features betrachtet, geht das um mehrere Ganzzahlenfaktoren in der Leistung nach oben, versuch noch mal RT@4k mit DLSS und FG in sagen wir Cyberpunk mit ner 1080TI und im Vergleich der 4090...Nighteye schrieb:Einfach mal 5 Jahre mehr oder weniger die gleiche Grafikkarte. (RX6900XT)
Radeons RX 7900 XTX (release 2022) wird bis 2027 die schnellste Radeon bleiben. 5 Jahre lang. Historisch.
Überlegt mal was damals in 5 Jahren passiert ist:
- 2003 GeForce FX 5800 Ultra
- 2008 Geforce GTX 280
- Registriert
- Juli 2021
- Beiträge
- 794
Das ist mir klar aber eine XTX habe ich nie als High End Karte gesehen sondern als Counterpart zur 4080 und eine High End GPU ist für mich nur eine 4090 in dieser Generation.Shoryuken94 schrieb:AMD hat doch offiziell bestätigt, dass es bis aufs weitere erst mal keine High End GPUs geben wird, weil man hauptsächlich Marktanteile gewinnen will, mit möglichst geringem Aufwand. Auf RDNA4 Basis werden wir nichts größeres mehr sehen. Mit UDNA Karten kann man wohl frühestens Herbst 2026 rechnen, wenn überhaupt und ob man da dann die Strategie wechselt, weiß auch nur AMD selbst
Nighteye
Lieutenant
- Registriert
- Okt. 2013
- Beiträge
- 601
GTX 260 meinerseits war Cherry Picking.fdsonne schrieb:Massives Cherry Picking, zwischen bspw. der 1080TI und der 4090 liegen auch Welten. Auch "nur" 5 Jahre ungefähr. Wenn man dann noch mehr Features betrachtet, geht das um mehrere Ganzzahlenfaktoren in der Leistung nach oben, versuch noch mal RT@4k mit DLSS und FG in sagen wir Cyberpunk mit ner 1080TI und im Vergleich der 4090...
Aber die Karten davor verbrauchten ca dass gleiche an Watt (FX5700 Ultra, 6600GT, 7600GT, 8600GT)
Und da gabs immer über 200% Leistungssteigerung jedes Jahr.
GTX 1080 verbrauchte max nur 180W. Dass sind ganz andere Zeiten als eine RTX 4090 mit 450 bis 600W.
Seit RTX 3000 (2020) hat man dass Gefühl dass sowohl bei Radeon als auch bei Nvidia kaum mehr Leistung ohne mehr Stromverbrauch erzielt wird.
Ich hab nix an der Farbe geändert, ich nutze selbst den Darkmode und tippe am Smartphone, vei mur ist das hier normal weiß... ??? Bin verwirrt.McLovin14 schrieb:@fdsonne Im Dunkelmodus am Smartphone ist dein Beitrag nicht zu lesen. Lass die Schriftfarbe doch bitte automatisch und nicht fix schwarz...
K3ks
Fleet Admiral
- Registriert
- Nov. 2007
- Beiträge
- 10.078
Ähhh, Hyperbel oder Aluhut?GreatEvil schrieb:Die angeblichen zu hohen Teillastverbräuch kamen ja durch das von Nvidia gesponsorte Messsystem welches sowohl PCGH aus auch CB genutz haben.
Wegen dem bisschen Mehrleistung - was sind es? 30% - würdest du echt aufrüsten?Demon_666 schrieb:Ich wollte eigentlich von meiner 6800xt aufrüsten (weil ein neuer Monitor ansteht), aber wenn nicht wenigstens die ungefähre Leistung der 7900xt zu einem akzeptablen Preis erreicht wird, ...
Echt? Hatte ich bisher gar nicht auf dem Schirm. Das ist ja albern.Convert schrieb:Schade, dass die RX9070 auf 192 Bit beschnitten wird und damit nur 12 GB VRAM haben wird. Damit hat AMD nicht mal den VRAM-Vorteil gegenüber Nvidia in dieser Preisklasse.
Eigentlich hätte ich gesagt: Alles halb so wild. Dass man den 80ern und 90ern keine Konkurrenz mehr machen will, hatte man ja angekündigt, aber wenn das Paket aus Leistung, Preis und VRAM stimmt und RT nicht allzu übel ist, könnte man ja immer noch den gerne und häufig gekauften 5060/5070 erfolgreich Konkurrenz machen.
Aber wenn die Leistung nicht mal an die 5070 und der VRAM nicht über 12 GB hinaus reicht, ist das Gerümpel doch DOA. Da bliebe ja am Ende wirklich nur noch der Preis als Argument. Sofern nicht völlig überteuert, werden die Massen da wohl eher zu einer 5060Ti oder 5070 greifen, und bei der 5060 kann AMD Gott auf Knien danken, dass Nvidia dumm genug war, der nur 8 GB VRAM zu spendieren, sonst sähe man selbst da kein Land.
Von irgendwelchen 12 GB-Modellen Nvidias (oder gar 16 bei 5060Ti) könnte man sich damit aber auch nicht so wahnsinnig absetzen.Convert schrieb:RX9070 mit 224 bit und 14 GB RAM, das wäre doch mal was!
Da bin ich sehr gespannt, vor allem auf die Preise bei Rot und Grün. So, wie es aussieht, werden die am Ende wohl über so Einiges entscheiden müssen.milliardo schrieb:Bezüglich des Produktes ist der Preis abzuwarten. Dass es keinen Angriff auf die Oberklasse geben würde, war ja angekündigt. Außerhalb unserer High-End-Daddelblase können das trotzdem sehr konkurrenzfähige Grafikkarten für 80%+ des Marktes werden.
ElliotAlderson
Lieutenant
- Registriert
- Juni 2024
- Beiträge
- 856
Der ewige Aberglaube, dass AMD immer nur Opfer ist und die Schuld immer bei den anderen liegt. Ist einfach mit dem Finger auf andere zu zeigen, aber wieso das User wie du tun, ist mir schleierhaft.digitalfrost schrieb:Der einzige Grund warum die Leute wollen, dass AMD gute Grafikkarten baut, ist damit sie die Nvidia Karten günstiger kaufen können. Selbst wenn AMD mal eine gute Highend-Karte macht kaufen die Leute trotzdem Nvidia.
Die haben schon vollkommen recht damit aufzuhören.
Wie können die Leute auch nur auf die Idee kommen, das bessere Produkt zu kaufen?
Weils die Latenz erhöht und da heult man schon bei FSR FG und DLSS FG drüber, obwohl die Latenz dort noch wesentlich besser ist.Casillas schrieb:Über AFMF2 wird leider quasi gar nicht gesprochen. Ich hab es bei 3 spielen immer genutzt, ohne für mich ersichtlichen Nachteil. Lief ohne Probleme.
Ich finde FG generell auch super.
Es sieht wohl so aus, dass AMD die Radeon 7000-er Serie parallel zur Radeon 9000-Serie verkaufen will, daher wird man vermutlich auch kein großartig gutes P/L-Verhältniss bei der neuen Serie bieten, sonst wären ja die 7000-er Karten obsolet.
Es soll wohl noch eine RX 7650 und eine RX7750 geben:
https://x.com/All_The_Watts/status/1870791520367808779
D.H. die RX 7700 wird durch die RX 7750 ersetzt, die vermutlich den Speicher mit 19,5 Gbps statt mit 18 Gbps takten wird und die RX 9700 ersetzt dann die RX 7800 XT zum gleichen Preis und die RX 9700XT die GRE zum etwas höheren Preis..
Es soll wohl noch eine RX 7650 und eine RX7750 geben:
https://x.com/All_The_Watts/status/1870791520367808779
D.H. die RX 7700 wird durch die RX 7750 ersetzt, die vermutlich den Speicher mit 19,5 Gbps statt mit 18 Gbps takten wird und die RX 9700 ersetzt dann die RX 7800 XT zum gleichen Preis und die RX 9700XT die GRE zum etwas höheren Preis..
Dies mag eine unpopuläre Meinung sein,
aber mir hat AMD immer am Besten gefallen als sie den Casual Markt bedient haben und nicht High End mit Intel oder Nvidia mitgehen wollten.
Ich verzichte gern auf 10-15 FPS, wenn ich dafür eine leise Karte für den halben Preis bekomme.
aber mir hat AMD immer am Besten gefallen als sie den Casual Markt bedient haben und nicht High End mit Intel oder Nvidia mitgehen wollten.
Ich verzichte gern auf 10-15 FPS, wenn ich dafür eine leise Karte für den halben Preis bekomme.
Das ließt sich nicht gut. Mehr als 500€ sollten sie dafür nicht verlangen ist schließlich nur eine 70er Karte die RX 7700XT kostet UVP 459€. Und selbst 500€ finde ich noch zu viel. meine Pulse 7800XT habe ich für 520€ gekauft.
Alles, wenn die wirklich nur so schnell ist wie eine 7900GRE
Alles, wenn die wirklich nur so schnell ist wie eine 7900GRE
GreatEvil
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.193
K3ks schrieb:Ähhh, Hyperbel oder Aluhut?
Nö, Realität.
Vielleicht möchten sich ja Wolfgang, Jan oder Frank zur dem zwischenzeitlich genutzten Messsystem mal äußern.
Powl_0
Commodore
- Registriert
- Sep. 2018
- Beiträge
- 4.450
Das neue "Top" Modell wird eben kein big chip mehr. Diese 9070 ist ein Mittelklasse Chip. So gesehen kein Top Modell, nur theoretisch das höchste Modell der 9000er Serie.Skudrinka schrieb:Das neue Top-Modell aus der kommenden Generation erreicht nicht mal mehr das aktuelle Top-Modell sondern siedelt sich darunter an?
Wir werden... langsamer?
Ist in etwa so, als würde Nvidia nur die RTX 5070 auf den Markt bringen und nichts darüber. Oder so wie die RX 400er damals. Da wäre eine RX 480 ja auch das "Top" Modell.
- Registriert
- Mai 2011
- Beiträge
- 21.049
Deshalb waren Fixes zur Leistungsaufnahme im Desktop und bei Videowiedergabe auch öfter Bestandteil vonGreatEvil schrieb:Die angeblichen zu hohen Teillastverbräuch kamen ja durch das von Nvidia gesponsorte Messsystem welches sowohl PCGH aus auch CB genutz haben.
neuen Treiberversionen.
Und wenn dir PCAT nicht gefällt, konntest du es auch bei Igor nachlesen
Die 38.5 Watt im Idle sind unverhältnismäßig hoch, wobei es zwischen 19 Watt und bis zu 50 Watt schwankt. Mit einem zweiten Monitor werden das schnell mal 70 Watt und mehr (Spitzen über 100 Watt).
PCAT ist im übrigen Deckungsgleich mit dem aktuell genutzten Powernetics V2 und man muss schon einen dicken Aluhut aufhaben, um überhaupt auf den Gedanken zu kommen, dass ein Gerät, welches einfach nur die Stromanschlüsse durchschleift und dabei besagten Strom+Spannung misst einen Unterschied machen könnte, ob nun eine AMD oder eine Nvidia Karte dran hängt.
Die FPS von AMD Karten sind in den Tests bestimmt auch niedriger, weil das Tool zur Messung von Intel stammt.
Zuletzt bearbeitet:
"AMD soll mal lieber...". Werdet Ingenieure, seid super, werdet eingestellt, make AMD GPUs great again
Ach, doch nicht so einfach?
Da wird kein Regler gedreht in der Entwicklung wie schnell eine GPU am Ende wird, da wird geforscht und auf Langzeit gewettet, wie gut eine neue Architektur performen wird mit theoretischen Hochrechnungen. RDNA hatte einen guten Start, aber hinten raus lässt sich langfristig leider nicht so viel damit erreichen, wie man mit GCN am Ball bleiben konnte (u.a. Fine Wine).
Auch Chiplets bei GPUs waren eine tolle Idee (RX7900), in der Praxis aber noch schwieriger zu steuern als nur den RAM Takt bei Multimonitor Betrieb, weil jetzt nicht nur der RAM Takt für ein flüssiges Bild mit Anzahl der Bildpunkte aller Monitore inkl. deren Refresh Rate skalieren muss, sondern auch noch verschiedene Memory Controller für ihre Speicherbereiche hoch gefahren werden mussten (im ersten CB Test sah man ja die schlimmen "idle" Verbräuche, die AMD mit Treiber Updates verbessert hat, aber ich vermute ganz hin gekriegt haben sie es nicht, umfangreiche Nachtests habe ich leider nirgends gesehen).
Langfristig wollen sie ja doch wieder High Performance Computing und GPUs mit der selben Architektur bedienen. Der getrennte Weg zwei Architekturen laufen zu lassen, hatte wohl doch seine Nachteile. Je nachdem wie schnell die neue Architektur marktreif wird ist RDNA4 vielleicht die letzte Iteration.
Was machen wir jetzt also mit RDNA4, wenn die Brot und Butter Karte, die AMD für stärkere Marktanteile anpeilt, auf den Markt kommt? Wir messen sie an Preis/Leistung, wie alles andere auch. Wenn sie dann enttäuscht, ist das schade für den Markt und uns Konsumenten. Wenn wir uns an die RX480 zurück erinnern, die ja ebenfalls eine Brot und Butter GPU werden sollte und das auch super erfüllt hat, lag sie laut CB Test 2016 hinter der GTX 1080 (non Ti) ~42% und dem eigenen Flagschiff Fury X ~18% zurück.
Ich bleibe gespannt, was es am Ende wird. Neugier liegt mir mehr als spekulativer Schaum vorm Mund
P.S. Ein Wort noch zu "Features". Nvidia ist schon lange der Marktführer und nur als Marktführer lassen sich "Luxus"-Features wie RayTracing in den Markt bringen, wenn die Kluft zu den Mitbewerbern so groß ist. Die traurige Wahrheit ist, dass halt niemand eine AMD Karte für exklusive Features kaufen würde, weil sich (außer man nimmt viel Geld in die Hand) niemand darum kümmern würde diese Features für 5% des Marktes in Software zu implementieren. Angenommen die Hardware würde auch noch spezielle Recheneinheiten dafür erfordern hat man einen Teil seiner GPU umsonst produziert, da er bei den Kunden brach liegt.
Als Marktführer wiederum kann bei der Implementierung dieser Features ruhig geschlampt werden. Die erste RTX Generation ist ja heute (und war es bis zur Mittelklasse damals schon) auch weit davon weg schnell genug zu sein RayTracing wirklich voll einsetzen zu können ohne andere Abstriche zu machen mal ganz zu schweigen davon, dass kleine Karten (RTX4060) das zwar super unterstützen aber in fordernden Titeln ja doch die Rohleistung dafür fehlt. Ist halt eine schwierige Situation für alle Mitbewerber. Die Strahlkraft einer 4090 (und bald 5090) kann man technisch eben auch nicht so einfach erreichen. Technisch ist Nvidia einfach sau stark und daher skrupellos mit dem Geld was Kunden dafür zahlen müssen. Den Features kann die Konkurrenz nur nachlaufen, denn die Marktstärke eigene Features auf den Markt zu bringen, hat gerade nur Nvidia und wer weiß was kommt, ist dann doppelt im Vorteil
Ach, doch nicht so einfach?
Da wird kein Regler gedreht in der Entwicklung wie schnell eine GPU am Ende wird, da wird geforscht und auf Langzeit gewettet, wie gut eine neue Architektur performen wird mit theoretischen Hochrechnungen. RDNA hatte einen guten Start, aber hinten raus lässt sich langfristig leider nicht so viel damit erreichen, wie man mit GCN am Ball bleiben konnte (u.a. Fine Wine).
Auch Chiplets bei GPUs waren eine tolle Idee (RX7900), in der Praxis aber noch schwieriger zu steuern als nur den RAM Takt bei Multimonitor Betrieb, weil jetzt nicht nur der RAM Takt für ein flüssiges Bild mit Anzahl der Bildpunkte aller Monitore inkl. deren Refresh Rate skalieren muss, sondern auch noch verschiedene Memory Controller für ihre Speicherbereiche hoch gefahren werden mussten (im ersten CB Test sah man ja die schlimmen "idle" Verbräuche, die AMD mit Treiber Updates verbessert hat, aber ich vermute ganz hin gekriegt haben sie es nicht, umfangreiche Nachtests habe ich leider nirgends gesehen).
Langfristig wollen sie ja doch wieder High Performance Computing und GPUs mit der selben Architektur bedienen. Der getrennte Weg zwei Architekturen laufen zu lassen, hatte wohl doch seine Nachteile. Je nachdem wie schnell die neue Architektur marktreif wird ist RDNA4 vielleicht die letzte Iteration.
Was machen wir jetzt also mit RDNA4, wenn die Brot und Butter Karte, die AMD für stärkere Marktanteile anpeilt, auf den Markt kommt? Wir messen sie an Preis/Leistung, wie alles andere auch. Wenn sie dann enttäuscht, ist das schade für den Markt und uns Konsumenten. Wenn wir uns an die RX480 zurück erinnern, die ja ebenfalls eine Brot und Butter GPU werden sollte und das auch super erfüllt hat, lag sie laut CB Test 2016 hinter der GTX 1080 (non Ti) ~42% und dem eigenen Flagschiff Fury X ~18% zurück.
Ich bleibe gespannt, was es am Ende wird. Neugier liegt mir mehr als spekulativer Schaum vorm Mund
P.S. Ein Wort noch zu "Features". Nvidia ist schon lange der Marktführer und nur als Marktführer lassen sich "Luxus"-Features wie RayTracing in den Markt bringen, wenn die Kluft zu den Mitbewerbern so groß ist. Die traurige Wahrheit ist, dass halt niemand eine AMD Karte für exklusive Features kaufen würde, weil sich (außer man nimmt viel Geld in die Hand) niemand darum kümmern würde diese Features für 5% des Marktes in Software zu implementieren. Angenommen die Hardware würde auch noch spezielle Recheneinheiten dafür erfordern hat man einen Teil seiner GPU umsonst produziert, da er bei den Kunden brach liegt.
Als Marktführer wiederum kann bei der Implementierung dieser Features ruhig geschlampt werden. Die erste RTX Generation ist ja heute (und war es bis zur Mittelklasse damals schon) auch weit davon weg schnell genug zu sein RayTracing wirklich voll einsetzen zu können ohne andere Abstriche zu machen mal ganz zu schweigen davon, dass kleine Karten (RTX4060) das zwar super unterstützen aber in fordernden Titeln ja doch die Rohleistung dafür fehlt. Ist halt eine schwierige Situation für alle Mitbewerber. Die Strahlkraft einer 4090 (und bald 5090) kann man technisch eben auch nicht so einfach erreichen. Technisch ist Nvidia einfach sau stark und daher skrupellos mit dem Geld was Kunden dafür zahlen müssen. Den Features kann die Konkurrenz nur nachlaufen, denn die Marktstärke eigene Features auf den Markt zu bringen, hat gerade nur Nvidia und wer weiß was kommt, ist dann doppelt im Vorteil
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 267
- Aufrufe
- 20.362
- Antworten
- 76
- Aufrufe
- 7.368
- Antworten
- 167
- Aufrufe
- 22.900
- Antworten
- 562
- Aufrufe
- 84.446
- Antworten
- 233
- Aufrufe
- 31.306