News AMD RDNA 4: Radeon RX 9070 XT und RX 9070 kommen im März

xexex schrieb:
So verquer kann man Marketingsprech in Richtung eines Herstellers verbiegen. Inwiefern unterscheiden sich
die Sprüche von AMD von denen von Nvidia? Alles gleich?
Nochmal, Blackwell hat keine großen Änderungen in der Architektur, da gleicher Node und gleicher Aufbau. Sie haben FP8 zu FP4 geändert und etwas am Scheduler optimiert und an den FP und INT Einheiten. Daher kommt ungefähr das gleiche Raus.

AMD hat RT/KI aufgebohrt und den Node gewechselt. Das sind schon größere Änderungen. Und man sieht es in den geleakten Ergebnissen. RT unterscheidet sich stärker von der Vorgängerversion bei AMD. Bei NV bewegt es sich fast 1zu1 in Bezug auf Chipgröße und Verbrauch zum Vorgänger. AMD wird wohl auch einen Sprung in der Effizienz haben. NV bleibt relativ gleich.

Alles andere ist nur Software.
xexex schrieb:
Ich spare mir die weiteren Zitate, du willst sie ja eh nicht hören, das Marketingblah bei AMD deutest du scheinbar anders, als das was Nvidia von sich gibt.
Nee, genau gleich.
xexex schrieb:
Im Kern ist RDNA4 nur ein warmer Aufguß und eine Neuausrichtung von Namensschema, genauso wie Blackwell abgesehen von MFG, ebenfalls nur geringfügige Optimierungen an der Architektur mit sich bringt.
MFG ist eine reine Softwareentwicklung. Würde genauso auf 4000er Karten gehen. Blackwell hat überall aber leichte Optimierungen erfahren.
 
T3Kila schrieb:
Ich hoffe immer noch auf eine GPU, die meine 6800 deutlich (min +50%) schlägt und max 600€ kostet
Meinst die 9070?
 
Holgmann75 schrieb:
Von AMD kam nicht eine Ankündigung dazu...
Das stimmt so nicht!
Excited to share the stage with some incredible special guests as we unveil our next generation of innovation across gaming, AI PC, and commercial.
https://x.com/JackMHuynh/status/1863946658381222214
Ergänzung ()

Toprallog schrieb:
Nvidia hat doch selbst gesagt
Na dann muss es ja stimmen (Marketing-BlaBla)
 
Quidproquo77 schrieb:
Ja auch damals war die GTX 280 vor fast 20 Jahren schon für 649 US Dollar angesetzt.

Und dann schnell gesenkt, im Handel sogar nochmal deutlich unter die UVPs. Das gut alte konkurrenzfähige ATI und die Zeit der guten alten Welt-Finanzkrise mit hoher Arbeitslosigkeit, kollabierendem Immobilienmarkt und ökonomischer Unsicherheit.

Herrlich wars damals als Daddler, denn die GPUs waren günstig zwischen 2008-2011. Das haben sich die Leute gemerkt. Noch heute werden die Preise aus dem Zeitraum als heiliger Fixpunkt genommen (so wie sich der Eckrentner die letzten Tage der D-Mark zurücksehnt) und bei jedem neuen GPU-Release wird seither bitteres Wehklagen angestimmt.
 
  • Gefällt mir
Reaktionen: stevefrogs
CDLABSRadonP... schrieb:
Aus 24ter Januar von XFX wurde jetzt einfach mal im März?
Du verwechselt das mit Vorbestellung, die ab 23.01. laut diversen Medien möglich sein wird.

Und das Testembargo soll am 22.01. fallen.
Demnach müsste es morgen erste offizielle Tests geben.
 
Holgmann75 schrieb:
X3D.. und Strix Halo z.B.
Das kann man wohl kaum als "next generation" bezeichnen. 3D-Zen5 gab es schon. RDNA 3.5 ist auch eher ein alter Hut
 
ruthi91 schrieb:
Eine 7900XT fängt aktuell bei 690€ an, also ich hätte gemäß des Fortschritts erwartet, dass ein Nachfolger mindestens ein 10% besseres Preisleistungs-Verhältnis hat.

Die 9070XT ist der Nachfolger der 7800XT, nicht 7900XT.
Die sind damals etwa bei 600-650€ gestartet.

Und wenn AMD merkt, dass sie relativ stark sind im Vergleich zur Konkurrenz, könnten es auch schnell
700€ werden.
 
  • Gefällt mir
Reaktionen: ReVan1199 und Cerebral_Amoebe
Tuetensuppe schrieb:
Und das Testembargo soll am 22.01. fallen.
Demnach müsste es morgen erste offizielle Tests geben.
Karten und offizielle Infos von AMD dann erst im März?
Klingt nicht gerade realistisch
 
Sun_set_1 schrieb:
Ja und? Nach meiner Information beherrscht Ada kein FP4. Ein umgelabelter Chip ist der exakt gleiche Chip mit neuem Namen.
Umgelabelt hat niemand gesagt.
Sun_set_1 schrieb:
Hier wurden aber tatsächlich neue Recheneinheiten eingefügt, RT Durchsatz verdoppelt am Design verändert, die Grafikpipeline verändert.
Der Chip ist näher am Vorgänger als bei AMD. Das ist meine Aussage. Die Behauptung mit dem Refresh hat wer anders gebracht. Ich behaupte das Gegenteil.
Sun_set_1 schrieb:
Das ist kein umgelabelter Chip, wie von Dir suggeriert.
Hab ich nicht suggeriert oder gesagt. Ich behaupte die Änderungen bei AMD sind größer.
Sun_set_1 schrieb:
Mag sein, dass Dir der Generationssprung zu klein ist, gerne mehr Features, weniger Verbrauch hättest usw. usf.
Bei Blackwell ja, bei Navi 48 gibt es ja einen größeren Sprung. Zumindest wird hier der Nodewechsel durchschlagen. Der fehlt NV halt.
Sun_set_1 schrieb:
Alles legitim, trotzdem wird dadurch aus nem Apfel keine Birne. Und es ist eben nicht der exakt gleiche Chip wie Ada.
Exakt gleiche nicht. Aber AMD wir einen größeren Sprung bei KI/RT machen + Nodewechsel.
 
DrFreaK666 schrieb:
Na dann muss es ja stimmen (Marketing-BlaBla)
Mag sein. Aber warum sollte Nvidia hierzu eine Lüge ausdenken? Die Info hätten sie überhaupt nicht gebraucht bei der Produktvorstellung. Diesen Satz einfach weglassen und der Infogehalt der Veranstaltung wäre 0,0 geschmälert worden. Auch damit können sie die mickrige native Leistungssteigerung nicht schönreden.
 
H1ldegunst schrieb:
Kann ich mir von außen echt nur durch entweder noch fehlende finale Treiber oder eine völlig verkorkste Kalkulation erklären.
Die Gerüchte deuten ja auf zweiteres hin.
verkorkste kalkulation kann man jetzt im nachhinein leicht sagen, denn vor einem monat wusste niemand so genau was von nvidia oder amd überhaupt kommt - geschweige den zu welchem preispunkt.

wir gamer sind schon ein undankbarer haufen - wenn nvida preislich daneben haut, jammern wir alle, laden unseren unmut hier und in den anderen medien ab - und kaufen dann dennoch!
aber wehe amd's preisvorstellungen sind auch nur einen notch zuviel im vergleich zu nvidia gegenparts - dann wird alles zum nachteil ausgelegt...
als sich die rtx3000 serie von der energieeffizienz her als mies rausstellte, hieß es das dlss und raytracing geil sind und ergo "shut up and take my money!" gilt - als 6000er radeons vom verbrauch her nicht mit nvidia mithalten konnten war dies das dauerargument.

versteht mich nicht falsch: amd tritt gerne in fettnäpfchen, so quasi als serientäter und ich finde auch dass sie mutig vorangehen sollten und darauf arbeiten müssen dass sie nvidia zumindest in dem angestrebten segment unter druck setzen.
und das geht: wenn fsr4 halbwegs pünklich als feature präsentiert werden kann und die 9070er riege von der preisleistung akzeptabel dasteht, muss man garnicht groß auf nvidia warten. +-50€ uvp werden daran auch nichts ändern und diese sind sowieso nicht in stein gemeißelt; letztenendes wird sich der preis im markt einpendeln (müssen)...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll und Toprallog
Toprallog schrieb:
Nvidia hat doch selbst gesagt, dass sie seit 6 Jahren an DLSS FG/MFG rechnen lassen. Warum sollte AMD das wesentlich schneller hinbekommen?
Ganz ausgeschlossen ist das nicht, schließlich sind neue Werkzeuge verfügbar. Bspw die Transformer NN Architektur, verbesserte Hardware fürs Training, welche auch AMD hat, bzw selber herstellt. Auch gibt es Fortschritte im ML Engineering bspw um Overfitting zu vermeiden. Auch wird NVidia nicht sechs Jahre ein Modell trainiert haben, sondern eher viele verschiedene Experimente durchgeführt
 
  • Gefällt mir
Reaktionen: MoinWoll und cypeak
oetZzii schrieb:
Ach, und ein Distributor lagert seine Ware gerne ein?
Irgendwie bin ich der großen Überzeugung, dass auch die einen früheren Launch besser finden würden...

Stell dir vor, Distributoren leben von der Verfügbarkeit. Und da es mehrere davon gibt, macht derjenige den Umsatz der auch Verfügbar ist ;) Ich muss es ja wissen, da ich für einen Arbeite.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
PegasusHunter schrieb:
Ich finde die Diskusion hier sehr interessant. Keiner der eventuell mal einen Gedanken anstubbst, dass es vielleicht Absicht ist. Kann ja sein. AMD will erst die Benchmarks von den offiziellen Nvidia-Karten erfahren, durch Fachforen, die auch die "Realleistung" und nicht nur "Fakeleistung" testen um dann eventuell im AMD-Treiber mit noch ein paar Stellschrauben etwas nachzubessern und zu optimieren.
Kann ja sein.
Warum Ausliefern an Händler jetzt schon?
Vorstellung von Custom?
Rückt trotzdem AMD in ein schlechtes Licht wie ja zu 90% der Meinung sind.
Und das nicht zu unrecht.
 
xexex schrieb:
Du magst es vielleicht überlesen haben, du gehörst zu der Tekkie Blase. Die Kunden draußen interessiert es nicht wie sie zu ihren 200FPS kommen, sie sehen eine Karte die 50FPS macht und eine andere die 200FPS macht, "Fakebilder" zeigen beide, das liegt in der Natur wie 3D Grafik nun mal erzeugt wird.

Ich weiß Autovergleiche sind doof, trotzdem nehme ich eines. Wenn das Auto 300 km/h schnell fährt, interessiert den normalen Kunden auch nicht, ob da ein überzüchteter 1,8l Motor drin steckt oder ein 6l Achtzylinder. Da möge man sich dann gerne in Autoforen darüber streiten.
Nicht wenn der Rechner mit 200FPS dann schwammige Steuerung (Inputlag) hat. 😃

Autovergleich = pfui 😉
 
  • Gefällt mir
Reaktionen: auki1
cypeak schrieb:
als sich die rtx3000 serie von der energieeffizienz her als mies rausstellte, hieß es das dlss und raytracing geil sind und ergo "shut up and take my money!" gilt - als 6000er radeons vom verbrauch her nicht mit nvidia mithalten konnten war dies das dauerargument.
Komische Sichtweise. Die Effizienz war für mich nie ein Grund zu NVidia zu greifen. Die Features und die Technologie waren für mich immer der Grund für NVidia. Sogar die Performance wäre nicht der absolute Faktor gewesen, sprich, selbst wenn eine 7900XTX im puren Rendering die 4090 überholt hätte und dabei effizienter gewesen wäre, wäre ich bei NVidia geblieben.

Es sind aus meiner Sicht eher die AMD Käufer, die ihre Entscheidung immer mit aus meiner Sicht fragwürdigen Argumenten gerechtfertigt haben.

Dabei ist "Underdog" und "Alternative zum Marktführer" noch das schlüssigste Argument.

Effizienz wurde zeitweise angeführt - nur um dann bei der nächsten Generation in sich zusammenzubrechen

Vorteile beim reinen Rendering war für mich schon immer ein Null-Argument

Das Obernullargument ist die angebliche "offene" Technologie. Warum habe ich schon oft geschrieben.

Das VRAM Argument ist auch sehr fragwürdig. Was bringt mir all das angeblich so zukunftssichere VRAM, wenn die Render- und RT Leistung für moderne Spiele nicht reicht?

Also bleibt letztlich ja nur der Preis. Und der ist leider nur im Verhältnis zur reinen Renderleistung akzeptabel.


Ja, ich ziehe NVidia vor. Aber nicht, weil ich in die Firma verliebt bin. Sondern weil ich der festen Überzeugung bin, das nur Investition in Innovation uns alle weiterbringt. Und da ist AMD leider einfach nicht besonders gut.
 
  • Gefällt mir
Reaktionen: UVLWheezle
Zurück
Oben