News Radeon RX 9070 XT: Neue Gerüchte zur Performance und eine erste Analyse

NVIDIA braucht AMD dringender denn je........denn nur Dank AMD sieht man wie gut NVIDIA ist!

NVIDIA wird ein Teufel tuen AMD den Rest zu geben, auch wenns vermutlich ein Leichtes wäre für NVIDIA in dieser Situation noch ne bekloppt billige Einsteigerklasse GPU zu bringen - wo AMD jetzt komplett in der Ecke steht
 
Ich denke nVidia wird den ersten Zug machen, Grafikkarten vortsellen und Preise bennen. Und AMD wird dan darauf reagierern. Bleibt nur zu hoffen das AMD sich diesmal nur an nVidia orentieren wird, und den Preis der direkten Korrunenz ordentlich zu unterbieten. 5070Ti 799€ und 9070XT 599€ wird aber nur ein Wunsch bleiben.
 
  • Gefällt mir
Reaktionen: Czk666
Gibt es jetzt eigentlich mal ein offizielles Releasedatum? Die Gerüchte werden immer uninteressanter.
 
  • Gefällt mir
Reaktionen: SweetOhm und THESoulburn
Es darf als gesichert gelten, dass sowohl Nvidia als auch AMD die neuen GPU Generationen um und bei der CES Anfang Januar vorstellen werden. Wann die einzelnen GPUs auf den Markt kommen, werden wir dann erfahren.
 
"Wenn die Taktraten stimmen, muss die Radeon RX 9070 XT zwangsweise ein gutes Stück schneller als die Radeon RX 7900 GRE"

Wahnsinn. Das ist doch was für die Radeon Bubble im CB Forum. Die Hoffnung stirbt zu letzt.

Jetzt wird schon das übertreffen einer 7900 GRE als Positiv betrachtet.:skull_alt:
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
cheyennne_hey schrieb:
Jetzt wird schon das übertreffen einer 7900 GRE als Positiv betrachtet.:skull_alt:
Oder aber es ist bloß eine Einordnung der Leistung
 
  • Gefällt mir
Reaktionen: Alesis, SweetOhm und Convert
Weltraumeule schrieb:
Ich verstehe nicht was du willst?

Die Frage ist eher, was bezweckst Du mit deinem Rant?

Ich habe lediglich klar gestellt, dass das, was Du beschrieben hast eine andere Art Spieler ist. Das war völlig wertungsfrei.

Gleichzeitig musst Du aber hier direkt jeden beleidigen, der das Hobby etwas ernster nimmt, als deine Freunde/Bekannten:

Weltraumeule schrieb:
dir und euch anderen in euerer Blase und euren Meinungen und irrelevanten, hochnässigen, arroganten Beurteilungen

Ziemlich beleidigend und völlig unnötig. Warum dieser Angriff?

Weltraumeule schrieb:
die Masterraße stundenlang Zeit in Foren verschwendet um sich zu streiten, um Benchmakrs durchzuführen, DLSS DLLs zu wechseln, zig Einstellungen durchzuprobieren, über diverse AntiAliasing Methoden aufregt, über Frametimes meckert, über Grafik, Engines und Animationen meckert.

Schon einmal daran gedacht, dass die Leute Spaß daran haben?

Sorry, aber Du schreibst hier einen riesigen Rant darüber, dass angeblich irgendwer die Art zu spielen deiner Freunde kritisiert hätte (was nicht der Fall war) und beleidigt dabei direkt mehr oder weniger jeden hier. Sehr charmant. :rolleyes:
 
  • Gefällt mir
Reaktionen: Markenbutter und THESoulburn
Quidproquo77 schrieb:
bzw. ihn den aktuellen nicht mit GDDR7
GDDR6 wird um einiges günstiger sein als GDDR7.

GDDR6 ist bekannte/bewährte Technik und das Speicherinterface ist vorhanden.

Wenn ich das Ziel habe einen Preis/Leistungskracher zu bieten und dabei was zu verdienen, ist das durchaus verständlich.

Inwiefern GDDR6 und das 256bit SI die neue Grafikkarte limitiert, werden wir sehen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Bleibt zu hoffen das der Takt tatsächlich bis zu 3GHz beträgt. Oder mehr?
Fragt sich dann nur ob sich dieser Performance Boost mit mehr Watt gekauft wird.
 
Rhoxx schrieb:
Kleiner Rechtschreibfehler
@Wolfgang
Da sind bedauerlicherweise noch ein paar mehr drin, hochtakten bspw. was getrennt geschrieben wurde.

Ich verstehe nicht, warum hier wieder haufenweise Leute auf Gerüchte steil gehen. Gerüchte sind irrelevant und werden es immer bleiben.

Nur harte Fakten sind relevant.

Aber das CB wieder darauf anspringt ist halt wieder den Klicks geschuldet.

Jensen hat kürzlich wegen AI gesagt, dass sie deren TCO wichtig finden und Mehrwert bieten wollen. Selbst wenn die Konkurrenz es umsonst anbietet, ist es nicht billig genug.

Solange AMD das mit GPUs nicht gebacken bekommt, werden die Preise von Nvidia immer teurer und selbst Intel hat das Handtuch geworfen.
 
Kuestennebel79 schrieb:
Achja und bitte sparsamer dieses Mal
26x Watt Stock sind wir ja grob bei der 7800xt und 50 Watt unter 7900XT und 4080, doch gar nicht so übel.

Was der Verbesserung bedarf ist der Verbrauch Multimonitor und Video.
modena.ch schrieb:
Wenn man genug bestellen würde, gäbe es bei Samsung 24 Gbps GDDR6 Module,

Dieses Jahr hab ich mal gelesen, das die zwar angekündigt sind, aber es noch immer keine Sampels gibt.

Ob sich das mittlerweile geändert hat, weiß ich nicht.
 
  • Gefällt mir
Reaktionen: SweetOhm und Convert
ETI1120 schrieb:
Du meinst RDNA5 = UDNA1?
Das las/sah ich irgendwo (ob Gerücht oder gar realistisch/bestätigt, lasse ich 'mal außen vor, denn es war ja auch nicht meine Einschätzung), denn ich nahm auch zuerst an, dass entwicklungszeittechnisch AMD erst mindestens noch 2 Generationen RDNA brauchen würde (also ein RDNA5 und RDNA6) bis UDNA1, aber dem scheint nicht so.

Ähnlich wie RDNA1 als Übergangsarchitektur von GCN kommend und noch nicht ganzheitlich-kompromisslose RDNA Architektur damals, soll wohl RDNA5/UDNA1 wieder so eine Art Zwischensprung werden, noch mit RDNA Architekturcharakteristika, aber auf dem Weg zu UDNA (also anteilig schon UDNA Architektur habend).

Aus dem Grund (basierend auf dieser RDNA5=UDNA1 Deutung) wird vor UDNA2 auch kein Aufrüsten für mich interessant sein, denn auch wenn dieser Zwischenschritt gelingen sollte wie damals bei RDNA1, wird man trotzdem mittel- bis langfristig mit dieser Kompromisslösung dann (treibertechnisch) nachteilig unterwegs sein (diese Karten eher schlecht altern, da von der Architektur her "weder Fisch noch Fleisch").

Normalerweise sind ca. 5 Jahre Entwicklungszeit pro dGPU-Generation angesetzt und wenn AMD einfach alles über Bord werfen würde bzgl. RDNA5 (bei dem angekündigten Richtungswechsel mit UDNA1), dann entstünde eine große zeitliche (Produkt-)Lücke.

So lässt sich dann evt. auch erklären, dass UDNA1 (natürlich teilbasierend auf bisher entwickelter RDNA5 Architektur) eben eine Kompromisslösung werden dürfte, denn für eine reine UDNA Architektur dürfte man sonst im Gaming zu sehr ein "alles oder nichts" Spiel riskieren/betreiben, wenn man es alles von Grund auf entwickeln muss und dazu hatte AMD eben nicht die nötigen 5 Jahre Zeit, soweit mir das bekannt ist.

Vorhersehen kann ich das natürlich nicht, was kommen wird, aber dieser "RDNA5 geht in UDNA1 auf" Ansatz macht schon Sinn, wenn man sobald wie möglich alles vereinheitlichen möchte (K.I./Compute und Gaming zusammen führen) in einer UDNA Architektur, auch wenn dann wie ehemals bei GCN diese Mehrzweck-dGPUs weniger spezialisiert sind und Gaming dürfte gegenüber K.I. dann optimierungstechnisch evt. den kürzeren ziehen, weil K.I./Compute wichtiger (für die Einnahmenseite) ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Tja ,morgen schneit es, vielleicht...vielleicht aber auch nicht :daumen: Wir werden es sehen, genauso wie bei der 9070xt wo mir dieses Gerücht besser gefällt als das Letzte und Das 2 davor.
 
  • Gefällt mir
Reaktionen: SweetOhm
domian schrieb:
Sollte die neue Generation wirklich nahezu 0 Mehrleistung bei gleichem Preispunkt bieten, erinnert das stark an die Zeiten, als "alte" GPUs umgelabelt und unter höherer Bezeichnung verkauft wurden. Das wäre ein Image-Desaster für AMD.
Das Image Desaster hatten wir letztes Jahr, als die Karten alle erheblich langsamer waren als der Name suggeriert hat.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech, usernamehere und Convert
Mir kommt es so vor als ob AMD im GPU Markt nicht genau weiß wohin die Reise gehen soll.
Wo man sich mit welchem Produkt platzieren möchte...
 
cheyennne_hey schrieb:
Jetzt wird schon das übertreffen einer 7900 GRE als Positiv betrachtet.:skull_alt:
Es wird einfach nur die Performance eingeschätzt und die letzten Gerüchte eingeordnet. Völlig ohne Wertung. In der News wird doch nirgends die Karte gelobt.
Keine Ahnung was du hier erwartest. Soll CB die Karte bevor sie erschienen und getestet ist als Schrott bezeichnen?
Einfach nur lächerlich.
 
  • Gefällt mir
Reaktionen: JarlBallin, Alesis, SweetOhm und eine weitere Person
MehlstaubtheCat schrieb:
Gebraucht kaufe ich keine Hardware, da sie bei mir leiden wird
Rauchst du die komplett zu oder was?
Wie soll die Hardware denn leiden?
 
  • Gefällt mir
Reaktionen: Czk666
edenjung schrieb:
Kartellamt ick hört dik tapsen.
Und scheiß egal ob Eugenverschulden der Marktteilnehmer oder nicht. Monopole werden und müssen flott zerschlagen werden. Und ein Monopol ist nicht erst bei 99% Marktanteil erreicht.
So funktioniert das aber nicht. Du kannst die GPU Sparte nicht spalten.
Was aber durch den Erfolg bei den GPUs passiert ist, dass Nvidia auch in anderen Bereichen extrem Marktanteile gewinnt. Da ist bei den CPUs und vor allem bei der Netzwerktechnik. Gerade letzteres wird ein Problem werden oder ist es schon seit ein paar Jahren.
Man hätte den Kauf von Mellanox nie zustimmen dürfen. Dadurch dass sie alles aus einer Hand bedienen können, können sie geschlossene Systeme anbieten und andere Wettbewerber ausschließen. Da niemand auf Nvidia GPUs verzichten kann um wettbewerbsfähig zu bleiben, hat niemand einen wirkliche Alternative.

Aber das ändert rein gar nichts an der Überlegenheit befinden GPUs. Das ist rein Versagen der Konkurrenz. Das Problem ist, dass der Einstieg schwer ist. Intel mit vielen Milliarden hat da Probleme.
Das gleihe haben wir ja auch, sogar noch extremer, bei Halbleiter-Fertigung, DRAM oder NAND Flash. Das funktioniert nur mit "Know-how Transfer".
 
  • Gefällt mir
Reaktionen: JarlBallin
Fighter1993 schrieb:
Rauchst du die komplett zu oder was?
Wie soll die Hardware denn leiden?
In dem er die Spannung und Takt zu weit nach oben treibt incl. zu großer Abwärme?
 
  • Gefällt mir
Reaktionen: SweetOhm
daknoll schrieb:
Und Raytracing jede Menge Leistung benötigt und daher auch jede Menge Abwärme erzeugt.
Das stimmt, aber die Abwärme ist den Leuten egal. Sie Regen sich ja auf das die FPS um 50% einbrechen. Aber wenn ich mir hier die Kommentare in diesem Thread durchlese, kann ich manchmal nur mit dem Kopf schütteln. Vielen fehlt absolut das Technische Verständnis. Da wird sich darüber aufgeregt das ein kleiner Chip der neuen Generation nur die Leistung der Karten mit großem Chip der letzten Generation erreicht. Was ja die letzten Jahre eigentlich immer der normale Fall war.
 
  • Gefällt mir
Reaktionen: Meras1894, JarlBallin, SweetOhm und 3 andere
Zurück
Oben