News Radeon RX 9070 XT: Neue Gerüchte zur Performance und eine erste Analyse

Taxxor schrieb:
5% unter der 4080 wäre bei 220W solide gewesen. Wenn es jetzt 270W sind, sieht das schon gar nicht mehr so gut aus
Abwarten... Nvidia wird ja auch die TDP anheben.
250W und ~4080 Leistung wäre super, das ist sicher auch machbar. Damit wäre man in etwa bei einer 5070 von Nvidia. Meine Hoffnung ist bisher, dass Nvidia wohl den Ausbau von Blackwell größer plant.. Also vllt wird RDNA4 bis zur 5070 (ti) sogar Konkurrenzfähig.

Wenn Jensen die 5070 für 399USD raushaut, dann wissen wir ja alle bescheid, was da von AMD kommt..
Wenn es eine Verbesserung zu Nvidia und Intel ist, nehme ich das gerne mit. Meine 3060Ti will hier gehen.
 
  • Gefällt mir
Reaktionen: SweetOhm
MaverickM schrieb:
Uralt-TVs (Buchstäblich. Meinen 4k TV habe ich Anfang 2016 gekauft, ist also auch schon fast 9 Jahre alt), eine alte Konsole und eine Nischen-Konsole die ohnehin immer ihr eigenes Ding macht.

Das ist einfach nicht vergleichbar.
Also eher Casual Spiele, F2P und Indie Titel. Das ist eine ganz andere Art Spieler. Nicht vergleichbar, wie oben schon gesagt.

Am PC gibt es auch die Sorte Spieler, die seit Jahren immer die gleichen ollen Dinge spielen, sich nur auf den kompetitiven Kram konzentrieren (CS, LoL, Overwatch etc.) oder mit einer ollen Möhre rumgurken und nichts neueres spielen.
Ich verstehe nicht was du willst? Sie Spielen regelmäßig Comupterspiele. Also sind sie Gamer. "Das ist eine ganz andere Art Spieler." Du sagst es selbst, eine andere Art, aber dennoch SPIELER!
(Abgesehen davon haben sie auch CoD, Castlevania, Bioshock, Spyro Remake, GoW, Uncharted etc. gespielt, was es auf der PS1-4 so gab, aber das ist irrelevant).

Jemand spielt nur casual Spiele: Gamer
Jemand spielt nur F2P: Gamer
Jemand spielt nur Indietitel: Gamer
Jemand spielt nur Rennspiele: Gamer
Jemand spielt nur Jump'n'Run: Gamer
Jemand spielt nur Shooter: Gamer
Jemand spielt nur Switch, PS4, PS5, XBOX, PC: Gamer
"oller Kram" kompetitiv Spieler mit alten "Möhren": Gamer
Alles verschiedene Art von Gamern, aber alles Gamer!

Und zudem ist es völlig egal welcher Kategorie Gamer sie alle sind oder ob sie deiner Meinung nach nicht Gamer sind, die Quintessenz ist: Es interessiert sie nicht was andere über sie und ihre Hobbys denken und sie haben Spaß daran. Das ist das wichtigste und war der Kern meiner Aussage!

90 % Der Spieler leben vor sich hin spielen, wissen über die Existenzt von CB, Luxx, 3d Center nicht mal Bescheid oder schauen nur kurz vorbei wegen technischen oder Spielfragen. Die wissen nichts von dir und euch anderen in euerer Blase und euren Meinungen und irrelevanten, hochnässigen, arroganten Beurteilungen :cheerlead: Ihr seid völlig irrelevant für sie. Auch die Menschen "da draußen" im Job, für die Zeitungen, Medien, seid ihr alle völlig irrelevant und Freaks, komische Nerds mit euren tollen 4k 144fps 4080 GTXen.
Sie brauchen weder eure Zustimmung Gamer zu sein, noch interessiert sie eure Beurteilungen oder eure Arroganz "olle Dinge spielen" "olle Möhren rumgurken" "nichts neues Spielen". Das interesistert sie einen Scheiß! Ihr seid mit euren tollen 4ks OLEDs, euren Ryzens und GTX 4080/90 nicht der Nabel der Welt denkt das aber!
Bestimmt ähnlich wie igrendwelche Hi Fi Foren mit 500 € Kopfhören, 50 € Kabeln und 5000 € Soundanlagen oder Oldtimer Sammlern oder Kunstsammlern. Halten sich alle für so toll und den Nabel der Welt, während 90 % der Menschen außerhalb deren Blasen sich für sie gar nicht interessieren.

Und wenn ich dann noch bedenke, die Leute kaufen sich Spiele, installieren, Spielen und haben Spaß dran auf ihren 1080@60 TVs. Während sich die sogenannten "echten" Gamer, vor allem die Masterraße stundenlang Zeit in Foren verschwendet um sich zu streiten, um Benchmakrs durchzuführen, DLSS DLLs zu wechseln, zig Einstellungen durchzuprobieren, über diverse AntiAliasing Methoden aufregt, über Frametimes meckert, über Grafik, Engines und Animationen meckert. Wow, ganz tolle Gamer und Masterrace, 50 % der Zeit nur Stress und Aufregung, während meine Freunde nicht mal wissen was Kantneflimmern oder Hz bedeutet und an ihren 1080p Möhren einfach nur Spaß haben. :daumen:
So und nun bin ich raus hier, gehe nun 7 Stunden Minecraft zocken und Spaß haben. :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: WhiteRabbit123, JZedtler, Balikon und 9 andere
baizer schrieb:
Naja 100% Nvidia, kommt dann sicher :)

Aber ich denke, wenn wir wieder an eine Situation kommen, dass eine 5070 mit einer AMD Karte preislich mithält, dann wäre ersichtlich, wie stark die AMD wird... Ich bin echt gespannt auf die CES, aber die 399USD RTX3070 vermiss ich bis heute ^^
 
CB.R schrieb:
knapp unter der Radeon RX 7900 XT liegen – bei Rasterizer-Grafik wohlgemerkt

Danke AMD

nicht bei Raytracing.

Also wieder nicht?! Na dann NVIDIA, meine nächste Karte ist definitiv von euch.
Das ist so gemeint, dass RDNA4 bei Raytracing vermutlich einen deutlich größeren Sprung machen wird, als nur knapp unter der 7900XT
 
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Kommt am Ende darauf an, welcher GDDR6-Speicher verwendet wird. Bei den Gerüchten wird GDDR6 gesetzt, könnte auch GDDR6X sein der etwas schneller ist.
GDDR6X kann es nicht sein. Das war Nvidia-Exlusiv und schon bei Nvidia ging zuletzt der GDD6X aus, weil Nvidia einfach nicht mehr bestellt hat. Deswegen kam ja dann auch die 4070 mit GDDR6, statt GDDR6X:

https://www.computerbase.de/news/gr...n-meist-genauso-schnell-wie-mit-gddr6x.89606/


AMD könnte höchstens 24 Gbps GDDR6 von Samsung nehmen, aber ich fürchte, dass AMD nicht genug Speicher abnehmen kann, als das es sich für Samsung lohnen würde, so dass Samsung einen guten Preis bieten würde.

https://www.computerbase.de/2022-07...ungs-gddr6-speicher-beschleunigt-auf-24-gbps/

24 Gbps GDDR6 von Samsung hätte sich gelohnt, wenn AMD noch einen weiteren, größeren Chip mit 256 bit aufgelegt hätte. Beispielsweise einen Chip mit 80 CUs. Aber nur für die RX 9070 XT den schnelleren Speicher zu bestellen, der sonnst niergendwo verbaut wird und damit auch nicht gefertigt, lohnt sich eben nicht..
Ergänzung ()

duskstalker schrieb:
...sondern bräuchte vermutlich eher was zwischen 800 und 900 gb/s.
Sagen wir mal zwischen 700 und 800. Die RTX 4080 hat 717 GB/s, die RTX 4080 Super 736 GB/s
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Perdakles und SweetOhm
letztlich kommt es einzig und alleine auf den preis an, ob die karte floppt oder ein erfolg wird. egal ob 7900GRE speed oder knapp 4080 speed: der preis muss stimmen.
 
  • Gefällt mir
Reaktionen: pinacolada, Wichelmanni, Duffy Duck und 2 andere
Chaz schrieb:
Genau, weil die 4070TI auch ab 900€ losgeht und dann im Raster geschlagen werden würde, dürfte AMD nur 550€ dafür nehmen? Interessant🤣
Traurig, aber leider wahr !
So ähnlich war es doch die letzte Dekade und wo hat es "uns" hingeführt (bzgl. Marktanteil).
Wenn AMD weitere Anteile gewinnen/sich verdienen will, muss/sollte es wohl oder übel genau so sein ... :freak:
 
  • Gefällt mir
Reaktionen: JarlBallin, Balikon und Rockstar85
@duskstalker
Da wär ich mir nicht so sicher. Der Vorgänger, Navi 32 war ein MCM Chip, Navi 48 wird monolitisch.
Das hat einen deutlichen Einfluss auf Verbrauch, Takt, Cache und Speicherinterface.

Navi 32 hat RT über die Shader abgehandelt, Navi 48 bekommt dafür dedizierte Einheiten.
Wie die Strahlenverfolgung abgehandelt wird scheint sich auch zu ändern. (Int4-Int8)

Daher man weiss eigentlich gar nix.
 
  • Gefällt mir
Reaktionen: SweetOhm
coxon schrieb:
Das Ding hätte in Anlehnung an die gute alte Zeit einfach 9800 Pro heißen sollen!
Das wäre ein richtiger Kracher geworden! :evillol: :jumpin: :utflakcannon:
Welcher "Nvidia über alles"-Käufer kennt diese Karte überhaupt?
 
  • Gefällt mir
Reaktionen: JarlBallin, Balikon, daknoll und 2 andere
theGucky schrieb:
60% mit dem selben Preis... Zählst du gebrauchte Hardware dazu? Zählst du den Verkaufspreis deiner aktuellen GPU dazu? Preise 1 Jahr nach Release?
Ich verkaufe meine "alte" Hardware nicht mehr,
die ist dann durch gerockt, die kann ich keinem "Normalo" an die Hand geben,
das tue ich niemandem an, weil ich kein Arsch bin!
Meist baue ich dann die bei meiner Freundin,
Stiefsohn oder Verwandten / bekannten ein nahezu umsonst.

700 Euro hat die 6900XT gekostet das mein maximal Budget.
+60 % auf die 6900XT im OC+UV in X Jahren dann als nächste Grafikkarte, neu.
Denke, das wird wohl 2028/29 werden.
Gebraucht kaufe ich keine Hardware, da sie bei mir leiden wird
und ich schon möchte, das sie paar Jahre noch hält.

Gruß
Mehlstaub
 
  • Gefällt mir
Reaktionen: JarlBallin und SweetOhm
Ich frage mich ja, ob AMD eine 9080 & 9090 später nach liefern wird. Kann mir irgendwie nicht vorstellen, dass AMD eine neue Graka-Serie rausbringt, welche nicht mal an die Leistung des vorherigen Topmodells herankommt. Mir ist schon klar, dass AMD vor allem die Casual Gamer ansprechen will und dadurch preislich den Midrange-Bereich anpeilen will.
 
D3xo schrieb:
Klar wird die Karte schneller sein als die 7800XT, aber wird das auch für die Konkurrenz ausreichen und wird der Preis auch attraktiv sein ? Unwahrscheinlich, AMD und Nvidia werden so weiter machen wie bisher, nichts wird sich ändern. Die Karte wird anfangs vermutlich um die 600-650€ kosten und damit für viele unattraktiv bleiben. Es wird bestimmt ein Jahr vergehen, bis der Preis irgendwann auf 500€ fällt und dann ist es sowieso zu spät.
Worst case für AMD wäre sogar, wenn NVIDIA es mit Blackwell ausnahmsweise nicht mit dem Preis übertreibt. Ich schätze, dass AMD nämlich auf große hohe Preisspannen hofft, damit sie mit einem 'soliden' Produkt überhaupt noch irgendwo auf dem Markt dazwischen passen, solange sie an der Leistungsspitze nicht mithalten können. Allerdings wird allein die Nachfrage der Rechenzentren schon dafür sorgen, dass auch die Gamer Karten teuer werden.
 
Weltraumeule schrieb:
Ich verstehe nicht was du willst? Sie Spielen regelmäßig Comupterspiele. Also sind sie Gamer. "Das ist eine ganz andere Art Spieler." Du sagst es selbst, eine andere Art, aber dennoch SPIELER!
(Abgesehen davon haben sie auch CoD, Castlevania, Bioshock, Spyro Remake, GoD, Uncharted etc. gespielt, was es auf der PS1-4 so gab, aber das ist irrelevant).
Das ist nicht auf jedem Display lesbar. Im Darkmode zensierst du dich quasi selbst. Nur, falls du es noch nicht wusstest.
 
  • Gefällt mir
Reaktionen: JarlBallin, Phobsen, Olcheck und 4 andere
Taxxor schrieb:
5% unter der 4080 wäre bei 220W solide gewesen.
Also mit 100 Watt (30 %) weniger wäre es das (ggü einer 4080 mit 320 Watt), und mit "nur" 50 Watt weniger nicht mehr ?!? :rolleyes: Oder anders, wenn die 4080 fast 50 % mehr verbraucht sind die 220 Watt (der 9070XT) gut, und wenn die 4080 nur 20 % mehr verbraucht, dann nicht ?
Ach ja, die 4080 ist dafür schneller in RT. Passt. ;)
 

Anhänge

  • Watt Messung (1).jpg
    Watt Messung (1).jpg
    169,7 KB · Aufrufe: 25
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Perdakles und Convert
daVinci schrieb:
Worst case für AMD wäre sogar, ..., solange sie an der Leistungsspitze nicht mithalten können.
Wollen. Ist eine bewusste Entscheidung.
 
  • Gefällt mir
Reaktionen: JarlBallin, Balikon und SweetOhm
Deshalb sagte ich bereits im letzten Gerüchte Thread zu RDNA4, einfach abwarten was offiziell dann ist und vorallem was die unabhängigen Test sagen, bevor man ein unveröffentlichtes Produkt vorab zerreißt.
 
  • Gefällt mir
Reaktionen: SweetOhm
OpenSystemFan schrieb:
Das ist nicht auf jedem Display lesbar. Im Darkmode zensierst du dich quasi selbst. Nur, falls du es noch nicht wusstest.
Ich weiß, ist ein Bug oder eine Funktion von nem Script in Browser, muss rausfinden wie ich das beheben kann.
 
  • Gefällt mir
Reaktionen: JarlBallin
SweetOhm schrieb:
Also mit 100 Watt (30 %) weniger wäre es das (ggü einer 4080 mit 320 Watt), und mit "nur" 50 Watt weniger nicht mehr ?!? :rolleyes:
1. bekäme die 4080 auch mit nem PT von 270W dann die Performance der 9070XT, denn mehr als 5% verliert sie dabei nicht.

2. steht die 9070 ja nicht gegen die Effizienz der 4080 sondern gegen die der 5080
 
Zurück
Oben