News AMD-Gerüchte: Ryzen 9 9950X3D, 9900X3D und RX 9070 (XT) erst Ende März

Ayo34 schrieb:
aber du kannst ja auch heute schon was für die nächsten 3-5 Jahre planen.
Jahaaa aber du kannst so etwas nicht 3-5 Jahre davor genau auf den Monat planen, mach dich doch nicht lächerlich sorry.
Ayo34 schrieb:
Man hat ja z.B. frühzeitig vor 1-2 Jahren erkannt, dass man in dieser Generation bei 5090 überhaupt nicht mitspielen kann und es auch als Übergangsphase deklariert. Weil dann beim nächsten mal eine völlig neue Architektur ansteht.
Und du wiederlegst dein Argument von oben einfach selbst. Dankeschön xD
 
Warum auch die Eile? Nvidia mag zwar ihre Produkte released haben, aber die Verfügbarkeit ist nicht gegeben. Also nimmt sich AMD diese Zeit um entweder Software Probleme zu bearbeiten und/oder um mehr vor zu produzieren.
 
therealcola schrieb:
Ich kann ja mal kurz deine initielle Aussage aufbroeseln und widersprechen da du mir geistige Unfähigkeit versuchst zu unterstellen.
Ich unterstell es nicht, du untermauerst das mit jedem Posting erneut selbst.

therealcola schrieb:
Die Aussage das die Karte nur 700 wert ist und mehr nicht zeigt von Unwissenheit, wenn du schon davon sprichst wir sich die Karten in den letzten 10 Jahren entwickelt haben sollte dir bewusst sein das die Grafikkarten immer teurer werden.
Jo und wie auch im Video genau aufgedröselt wird hat nVidia im gleichen Zeitraum die Karten immer weiter beschnitten während die Preise weit über Inflation und Herstellungskosten angestiegen sind um die Profit-Margins in Prozent zu erhöhen oder zu halten.

Ist ihr gutes Recht. Ist auch mein gutes Recht darauf hinzuweisen und das zu kritisieren. Und jetzt darfst du gern den armen, schutzbedürftigen Jensen weiter streicheln.

therealcola schrieb:
Dein nächster Post ist auch falsch.Ne 4090 würde ich nicht mit Ner 5080 eintauschen wollen , muti frame Generation ist zu gut. Dh die 5080 hat die 4090 kräftig entwertet und steht zukünftig weit aus öfter über dem Leistungsprektrum einer 4090.
Tatsächlich sind die Gebrauchtpreise eher hoch. Und die Leistung liegt nach wie vor unterhalb einer 4090. Das belegen dir auch sämtliche Tests. MFG ist ein Bonus für 5090-User und keine Leistungsspritze für untermotorisierte 5080er.

therealcola schrieb:
Da darf ich dir nen Tipp geben, versuch so schnell wie es geht deine 4090 los zu werden und dire ne 5080 zu besorgen ;)Alles andere ist "nix verstehen"
Alles klar. Zum Glück haben wir hier im Forum Experten wie dich sonst wüsst ich echt nicht was ich machen soll. 🤣
 
schade... hatte gehofft 9950x3d anfang märz einbauen zu können....
 
Bin ja gespannt auf die Preise der größeren CPU's wenn der 8 Kerner schon bei 500€+ liegt.

Die Grafikkarten sind ja fast egal da alles unterhalb der 5090 an Leistung jetzt schon verfügbar ist in der aktuellen Generation.
 
therealcola schrieb:
Dh die 5080 hat die 4090 kräftig entwertet und steht zukünftig weit aus öfter über dem Leistungsprektrum einer 4090.

Natürlich; selbst die 5070 bietet ja bereits die Leistung einer 4090.
Wenn der Mann mit der Lederjacke das so sagt, dann muß das einfach stimmen.
 
  • Gefällt mir
Reaktionen: ThirdLife
Quidproquo77 schrieb:
In der Realität nur wenige Prozent Unterschied. Featureset kommt oben drauf. Das nimmt sich gar nichts. Abgesehen von deinem komischen Preispicking.
DLSS bringt nur was um die GPU zu entlasten. Wenn die GPU aber schon so schwach ist, dass selbst mit Entlastung durch DLSS das Resultat langsamer ist, ist es noch peinlicher für Nvidia.
Du weißt schon dass es mehr sind als nur ein paar Prozentpunkte.
Hier die günstigere RX6800 gegen eine 100€ teurere RTX 3070 und in Vram Hungrigen fällen wo die 8GB Vram einbrechen, sind es sogar mehr als 1000% Vorsprung für die günstige Radeon.
1738661524107.png

Und dann gibts noch so extrem fälle wo eine RTX 3080 10GB sogar 2,5x langsamer als eine RX6700XT ist welche es zwischen 330€ und 370€ gab.
Indiana Jones RTX 3080 10GB.jpg

Oder mein eigener Fall meiner RX6800 in Star Citizen, und für dass gleiche Geld gabs bei Nvidia nur eine RTX 4060 8GB die in Star Citizen am Vram Mangel leidet auf 1440p und generell immer deutlich weniger fps hat.
Bei der 8GB Geforce werden Details ausgeblendet und fps sind niedriger, und dann hab ich noch Vorteile durch AFMF 2 im Treiber. Dadurch kommen unterschiede von über 600% zur RTX 4060 zu Stande.
Meine FPS
Star Citizen 655fps with 2ms inputlag (frame gen).jpg

Und eine 4060 fürs gleiche Geld ist froh wenn sie mal 100fps im Blank Space schafft.
Quidproquo77 schrieb:
RDNA2 war schon wegen fehlendem DLSS und der RT Performance unbeliebt, RDNA3 noch mehr, das gilt es nun endlich mal anzugehen und die Entwicklung umzukehren.
Bei RDNA 3 gabs doch schon lange FSR oder nicht ? Ich meine FSR 3 sogar seit mindestens einem Jahr.
FSR 4 kommt ja jetzt Exklusiv für RDNA 4. Und die Raytracing Shader sollen auch massiv ausgebaut worden sein.
Dennoch wird Radeon keinen Marktanteil bekommen. Dass kann ich dir versprechen.
Weil die Masse einfach zu Unweise ist.
 
Zuletzt bearbeitet:
xexex schrieb:
Für RDNA 3 (Dez 2022) hat AMD kräftig mit FSR3 geworben, erschien ist es dann September 2023, also fast ein Jahr später und nicht vorher.
Und das tat AMD nicht gut. Ich bin mir sehr sicher, dass da jemand bei AMD die Reißleine gezogen hat und gesagt hat: Das dürfen wir uns nicht nochmal erlauben, wir müssen mit dem vollen Featureset starten, sonst zerreißen uns alle Tester in der Luft.
 
  • Gefällt mir
Reaktionen: xexex
Cabranium schrieb:
@KurzGedacht Gute Argument. Entwickler müssen zu viele Fall backs wegen veralteter Hardware bedenken. Und das wird sich erst mit eine rneuen Konsolen generation ändern, die das in entsprechenden ausmass unterstützt. EInfach weil Konsolen einen grossen vorteil für Entwickler haben. Sie haben eine Konfiguration. PC haben Hunderte Millionen bis Millarden möglichkeiten. Da kannst du weniger einfach alte zöpfe abschneiden, weil die Spielerschaft einfach erwartet, dass auch ihr system abgedeckt wird.
Deswegen werden spiele auch lieber auf konsolen entwicklet udn dann zu pc portiert. Es ist einfacher. Du weiss was du einbauen muss an Features, hast dafür ein Grudngerüst und das wars. Beim PC kannst du es nie allen recht machen, weil du gar nicht alles einbauen kannst um alle glücklich zu machen. Und dann muss man noch Fehler bedenken die auftretten können wenn feature x und y gleichzeitig aktiv sind und sich nicht vertragen.
Das ist einfach unattraktiv. Da würde ich auch lieber features ganz raus lassen als sie zu bedienen.

Ich befürchte, dass auch eine PS6 nicht genügend Leistung haben wird, um Raytracing konsequent für alles zu verwenden. Das schafft wie gesagt nicht einmal eine 5090 bisher.

Bezüglich PC/Konsolen ist das so ein Mischding. Auf der einen Seite ist es für die Spielehersteller natürlich im gewissen Sinne einfacher nur für wenige Geräte mit klar definierten Ressourcen zu produzieren.
Auf der anderen Seite ist diese Darstellung nur halb richtig.

Mit so begrenzten Ressourcen wirklich gute Ergebnisse zu erziehlen bringt einen sehr hohen Optimierungsaufwand mit sich und dazu kommen die Vorgaben der Hersteller: Siehe z.B.die beiden sehr unterschiedlichen Xbox Varianten die mit der Vorgabe kommen, dass jedes Spiel das für die leistungsfähigere Variante kommt auch mit allen Features auf der langsamen Variante laufen muss.
Dieser Aufwand (der wirklich sehr extrem sein kann... da fließen Wochen an Arbeit in die Optimierung einzelner Szenen, die die Hardware sonst nicht packen würde), fällt am PC größtenteils weg.

Am PC hat man die Vielfalt der Hardware und Softwarekonfigurationen, aber eben auch eine andere Erwartungshaltung seitens der Käufer. PC-Spieler kriegen Flexibilität (will ich jetzt lieber ne höhere Auflösung oder lieber mehr Details, sind 50 fps für mich okay oder müssen es 144 sein etc...) und bekommen dafür eben weniger Optimierung.
 
KurzGedacht schrieb:
Einen "extra Die" auflegen und in die Produktion bringen erfordert eher Jahre als Monate.
Das kann ich mir nicht vorstellen, die Architektur ja klar dauert aber das Die an sich sicher nicht, denke das ist recht schnell umzusetzten, RDNA4 ist fertigt, an GDDR7 wird sicher auch schon länger gearbeitet, aber klar nur wunschdenken meinerseits.
therealcola schrieb:
Du solltest auch begreifen das deine 4090 bald weniger wert als ne 5080 ist , dementsprechend kann die 5080 ja nicht so schlecht sein
das wird nicht kommen die RTX4090 ist die klar bessere Hardware und wegen Software wird eine 5080 keine Punkte holen
Casillas schrieb:
Ändert trotzdem nichts daran, dass die 7800xt recht erfolgreich ist.
aber sie ist sehr teuer und holt keinen wirklich raus, selbst ich als AMD Fanboy nicht, zu weit weg von der spitze und dafür einfach viel zu teuer
 
  • Gefällt mir
Reaktionen: Nighteye
Icke-ffm schrieb:
aber sie ist sehr teuer und holt keinen wirklich raus, selbst ich als AMD Fanboy nicht, zu weit weg von der spitze und dafür einfach viel zu teuer
Also wenn man mal aufs Preis/Leistungsverhältnis schaut (z.B. hier bei CB in der Rangliste), dann schneidet die 7800XT sehr gut ab, solange man keinen Wert auf Raytracing legt. Die ist für den Preis schon absolut in Ordnung und eben nicht viel zu teuer.

Genau deshalb hab ich sie ja auch :p
 
stefan92x schrieb:
dann schneidet die 7800XT sehr gut ab, solange man keinen Wert auf Raytracing legt.
Genau diesen Trick hat AMD auch angewendet, nur dieser funktioniert nicht mehr, wenn vermehrt Spiele auf den Markt kommen die Raytracing nun mal voraussetzen. Es geht nicht darum worauf man "Wert" legt, sondern was der Markt verlangt und da kümmern die Spieleentwickler die 10% der Kundschaft die eine AMD Karte haben einfach nicht mehr.

Sony bewirbt die PS5 Pro mit Raytracing Fähigkeiten, Nvidia rührt seit Jahren die Werbetrommel für RT, da sieht die Realität für AMD nun mal leider so aus und dafür war die Karte viel zu teuer und völlig falsch einsortiert.
1738668496711.png

https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/

Ich gehe fest davon aus, das die kommenden Karten genau dies ändern werden und man sich von dem "Trick", den man schon seit vielen Jahren anwendet endlich trennt. Schon RDNA wurde komplett ohne RT Unterstützung auf den Markt gebracht und preislich trotzdem an die Lösungen von Nvidia angeglichen, nur ist Raytracing heutzutage nicht mehr ein "Gimmick", sondern eine grundlegende Komponente aller neuen Titel.

Wie du schon sagst, man kann die Leute nicht immer nur vertrösten, ihnen leere Versprechungen geben und unrunde Produkte abliefern, da drücken dann irgendwann nur noch "Fans" beide Augen zu beim Kauf. Sich auf die untere Mittelklasse zu konzentrieren, dafür ein rundes Produkt in allen Aspekten abzuliefern und eine fertige API zu Release bereitzustellen, ist auf jeden Fall der richtige Ansatz.
 
  • Gefällt mir
Reaktionen: Nighteye und stefan92x
Jan schrieb:
Neue Gerüchte besagen nun, dass es eher Ende denn Anfang März werden wird. Kommt selbst Nvidias GeForce RTX 5060 (Ti) noch davor?
Nein, da nVidia erst Stückzahlen liefert, wenn AMD vorlegt. Ist völlig egal, ob es da noch einen Paper Launch davor gibt.
 
  • Gefällt mir
Reaktionen: Jan
Casillas schrieb:
Ändert trotzdem nichts daran, dass die 7800xt recht erfolgreich ist.

Icke-ffm schrieb:
aber sie ist sehr teuer und holt keinen wirklich raus, selbst ich als AMD Fanboy nicht, zu weit weg von der spitze und dafür einfach viel zu teuer
Ja Grafikkarten sind allg sehr teuer, bzw. teurer geworden. Einschließlich aber nicht ausschließlich die 7800XT.
Erfolgreich ist sie trotzdem. Auch wenn sie weit weg von der Spitze ist.
 
Icke-ffm schrieb:
Das kann ich mir nicht vorstellen, die Architektur ja klar dauert aber das Die an sich sicher nicht, denke das ist recht schnell umzusetzten, RDNA4 ist fertigt, an GDDR7 wird sicher auch schon länger gearbeitet, aber klar nur wunschdenken meinerseits
Du unterschätzt die Komplexität hier massiv. Schau dir mal an wie Chips produziert werden.

Selbst wenn wir annehmen, dass AMD die Grundlagen für das Design in der Schublade hat, gibt es mehrere Runden mit Engineering samples und Tests die jeweils Monate brauchen. Schlicht weil eine Änderung nach dem finalen Design (Tape Out) ein Vermögen kostet und viel Zeit braucht.

Wenn das Design final ist und an TSMC zur Produktion geliefert wird, müssen die die Masken für den Chip fertigen, die wieder perfekt sein müssen weil man bei einem winzigen Fehler wieder von vorne beginnen muss. Auch dieser Prozess dauert Monate.

Dann muss der ganze Spaß noch zu den eigentlichen Herstellern der Karte, was wieder Monate dauert.

Alles unter 12 Monaten ist vollkommen utopisch.

Das ist auch der Grund wieso so viele CPU/GPUs teildeaktivierte Chips sind. In der Regel ist nur ein kleiner Teil davon tatsächlich defekt. Es ist bloß einfach oft billiger ein Drittel eines größeren Chips brachliegen zu lassen, als tatsächlich einen separaten kleineren Chip zu produzieren.

Wirklich. So eine moderne GPU ist quasi Magie und wenn man sich den gigantischen Aufwand dahinter anschaut, ist es doch sehr überraschend, wie wenig wir am Ende dafür bezahlen. Es hat seinen Grund wieso es weltweit nur eine Handvoll Unternehmen gibt, die solche High End Produkte überhaupt fertigen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nighteye
xexex schrieb:
Es geht nicht darum worauf man "Wert" legt, sondern was der Markt verlangt und da kümmern die Spieleentwickler die 10% der Kundschaft die eine AMD Karte haben einfach nicht mehr.
Da hast du sicherlich recht. Aber gleichzeitig ist natürlich die Frage, wie viel die Kundschaft für GPUs ausgibt. Man sieht es ja an dem von dir gezeigten Screenshot gut, unter einer 4080r braucht man 4K+RT eigentlich gar nicht versuchen (in meinen Augen ist alles unter 60fps nicht "flüssig" spielbar, aber das reicht für meine Ansprüche und Spiele auch). Und da war für mich die 7800XT halt die mit Abstand günstigste Karte, die das in WQHD problemlos schafft. Da spielt dann Nvidia vs AMD auch keine Rolle mehr. Denn WQHD+RT über 60 FPS schafft einfach erst die 4070 (Super), die klar über meinem Budget lag. Nvidias 4060 Ti war mir da einfach zu lahm.
 
nVidias CEO Huang ist ja bekannt für sein loses Mundwerk. Und nur weil man es sich aus der aktuellen Position heraus auch erlauben kann, heißt das nicht, das Überheblichkeit gewinnt. Diese Lektion hat intel in den letzten Jahren zwar mit sicherheit noch nicht verinnerlicht, aber bitter gelernt.
Dennoch ist der Abstand AMD (GraKa/AI) zu nVIDIA schon Gigantisch. Sollte AMD den reichlich mißglückten Launch der RTX5000er und die dadurch verursachten Probleme der "Marktpreise" ausnutzen können, dürfte man mit den Neuen Radeon RX Karten gute Geschäfte im Mittelfeld machen können - anständige Liefermengen vorausgesetzt.

Für uns mögen die Gaming Karten der Nabel der Welt sein. Die Großen Entscheidungen finden jedoch bei den dicken KI-Chips (AMD Instinct/nVidia A100#H100) statt. Und da scheint noch nicht alles entschieden.

...und dann möchte Huang ja noch eine CPU rausbringen. Daran sind schon andere gescheitert. aber das ist nochmal ne ander Geschichte
 
KurzGedacht schrieb:
Du unterschätzt die Komplexität hier massiv. Schau dir mal an wie Chips produziert werden.

Wirklich. So eine moderne GPU ist quasi Magie und wenn man sich den gigantischen Aufwand dahinter anschaut, ist es doch sehr überraschend, wie wenig wir am Ende dafür bezahlen. Es hat seinen Grund wieso es weltweit nur eine Handvoll Unternehmen gibt, die solche High End Produkte überhaupt fertigen können.
Wunderschön gesagt.
Generell sind deine posts tiefsinnig.
 
Zurück
Oben