Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Radeon RX 9070 (XT): Frank Azor verspricht RDNA-4-Event und attraktive Preise
Wenn es gut funktioniert, fände ich das nicht mal schlimm. Wenn wirklich fordernde Spiele dann tatsächlich anständig laufen würden, könnte ich mich sogar wieder mit AMD arrangieren
AMD hat jedenfalls erklärt, dass es ihnen einfach zu teuer geworden ist, Highend GPU-Chips zu entwickeln und zu produzieren, weil man die Kosten durch den Verkauf bisher nicht wieder reinbekommen hat, da einfach zu wenig Leute bei über 1000$ bei AMD zuschlagen. Man müsste die Karten dann mit der Mittelklasse quersubventionieren, sodass man nun auf Marktanteile durch gute Preis-Leistung setzt.
Ja, vor 25 Jahren, einem Viertel Jahrhundert. Das muss man jetzt echt nicht mehr breittreten und darf auch mal genug sein.
tollertyp schrieb:
Und wenn man diese Menschen nicht mehr zurückgewinnen kann, dann sollte AMD vielleicht eher auf die setzen, die man erreichen kann. Aber irgendwie machen sie weder das eine noch das andere?
Das Problem ist vielschichtig, vor allem beginnt es mal damit, dass AMD keine eigene Produktion mehr hat und die Wafermengen schon laaaange vorab bestellen muss. Man kann also nicht einfach 80% des Marktes bedienen wenn man es möchte und auch nicht wennd er Markt es verlangt.
tollertyp schrieb:
@BAR86: 200W war für mich auch die Schmerzgrenze, habe sie jetzt aber leicht aufgeweicht. Aber 250W finde ich dennoch für "gehobene Mittelklasse" (und als anderes sehe ich auch eine RTX 5070 nicht an) dann doch irgendwie unattraktiv.
Das darf natürlich jede(r) handhaben wie er/sie möchte.
Ich bleib' dabei, dass mir effizienz wichtig ist und daher schau ich auf ebendiese. Damit ist natürlich nicht gesagt, dass eine 200W Karte nicht sogar effizienter sein kann als eine 120W Karte die weniger als die Hälfte der FPS erzeugt.
Schau' ich mir von Gen- zu Gen an.
Im Moment überzeugt mich kaum ein verfügbares Angebot in dieser Hinsicht.
Kann also schon irgendwo verstehen, dass man sich diese Generation das obere Preissegment spart. Im unteren Preissegment kann AMD deutlich mehr karten verkaufen und sich wieder Marktanteile sichern und damit auch ihre Software in den Markt drücken.
Ich bleib' dabei, dass mir effizienz wichtig ist und daher schau ich auf ebendiese. Damit ist natürlich nicht gesagt, dass eine 200W Karte nicht sogar effizienter sein kann als eine 120W Karte die weniger als die Hälfte der FPS erzeugt.
Schau' ich mir von Gen- zu Gen an.
Ja, Effizienz ist mir auch wichtig, aber gibt bei mir halt auch eine "Maximalleistungsaufnahme". Und die maximal ~200W sollten halt auch effizient sein.
Und gerade in Bezug auf Effizienz hat sich AMD in meinen Augen die letzten Generationen nicht mit Ruhm bekleckert leider. Und NVIDIA (wie ich bei der entsprechenden News auch schon schrieb) scheint auch keine Hemmungen mehr zu haben, die Leistungsaufnahme zu erhöhen.
Waren das noch Zeiten, als eine neue Grafikkarte mehr Leistung bei geringerer Leistungsaufnahme haben konnte...
Leider, ja. AMD hinkt seit Maxwell (2014), also nun schon über 10 Jahren der Effizienz von Nvidia hinterher.
Man hatte ganz kurz mal etwas "besseres", als es hieß Radeon 6xxx vs Geforce RTX 3xxx, allerdings ist fragwürdig ob es besser war, denn Nvidia nutzte einen 10nm Prozess, AMD 7nm TSMC. Nvidia war in Raytracing trotzdem effizienter und nur in Rastern war man annähernd gleichauf...
tollertyp schrieb:
Und NVIDIA (wie ich bei der entsprechenden News auch schon schrieb) scheint auch keine Hemmungen mehr zu haben, die Leistungsaufnahme zu erhöhen.
Etwas, das ich wiederholt kritisiert habe und dafür auch kritisiert wurde. Es gibt nichts, was die 4090 nicht schon mit 300W erreichen hätte können, wie auch die CB Tests zeigen. Und warum sollte die Nachfolgergen unbedingt knapp 600 brauchen? Einfach unverständlich.
tollertyp schrieb:
Waren das noch Zeiten, als eine neue Grafikkarte mehr Leistung bei geringerer Leistungsaufnahme haben konnte...
High End Mittelfristig kein Thema?
Ich dachte sie setzten nur diese Gen aus.
Mittelfristig kann aber auch 3 Jahre bedeuten.
Dann gute Nacht. Es gibt für NVIDIA keine Konkurrenz mehr und somit Stillstand.
Siehe Leistung 4080S vs 5080 nur von den Daten wird die Rohleistung um ~10% steigen. Das merkt man nichtmal.
Wenn man ehrlich ist, sowas haben sich doch eigentlich viele gewünscht. Es ist seit so vielen Jahren klar in welche Richtung nVidia wollte und das man für jede Generation das Portfolio Stück für Stück verschlechtert hat und immer weiter die Preise anzog. Die Leute wollen Konkurrenz nur damit nVidia im Optimalfall günstiger wird (Spoiler, werden sie nicht). Anstatt einfach mal AMD zu kaufen, die teilweise absolut Konkurrenzfähig waren und öfter zumindest eine Alternaive.
Das wäre ja dann schon in Richtung 4080/7900XTX, was auch meine Zielvorgabe ist.
Ich denke mal die 5070 TI wird sich auch in dem Bereich bewegen.
Mal sehen was am Ende dabei rum kommt...
Ich wollte nur darauf hinweisen das 50%-60% auf eine 6700XT einer 7900GRE oder einer 4070 Super entspricht, nicht einer 7900XTX oder 4080S. Diese haben 100% mehr Leistung gegenüber einer 6700XT. Ich denke damit sollten die Chancen einer 9070(XT) sehr gut sein die geforderten 50-60% zu knacken.
Eben, und statt jetzt ein Produkt zu entwickeln, das wieder nicht konkurrenzfähig ist, aber in der Entwicklung Geld kostet, bietet AMD halt kein Produkt im Segment an.
Aber das ist jetzt auch wieder nicht recht.
Mal davon abgesehen, dass AMD realistisch gesehen wahrscheinlich um die 10% an Nvidia vorbeiziehen müsste, um die Kundenträgheit und Markentreue zu überwinden. Selbst wenn AMD gleichauf mit Team Grün wäre, würden die Leute mit 4090 halt doch wieder zur 5090 greifen.
XD-User schrieb:
Die Leute wollen Konkurrenz nur damit nVidia im Optimalfall günstiger wird (Spoiler, werden sie nicht). Anstatt einfach mal AMD zu kaufen, die teilweise absolut Konkurrenzfähig waren und öfter zumindest eine Alternaive.
Die Leute wollen Konkurrenz nur damit nVidia im Optimalfall günstiger wird (Spoiler, werden sie nicht). Anstatt einfach mal AMD zu kaufen, die teilweise absolut Konkurrenzfähig waren und öfter zumindest eine Alternaive.
Kunden haben durchaus Firmen, die sie bevorzugen. Das ist auch okay, darf jeder haben. Um Leute von so einer favorisierten Firma weg zu bewegen reicht es halt nicht, einfach nur eine Alternative zu sein. Dann muss man halt besser sein. Ob man NVIDIA mag oder nicht, NVIDIA hat sich diesen Status leider erarbeitet.
Ergänzung ()
Holgmann75 schrieb:
Eigentlich basierte die 30er Reihe auf Samsungs 8nm Prozess.. aber wer nimmt das schon so genau... 🫣
Da hast du dich halt vom Marketing und von den Zahlen täuschen lassen
Samsungs 8nm Prozess ist ein optimierter und umbenannter 10nm Prozess. Hauptsache sich über das Unwissen des anderen lustig gemacht und dabei selbst Unwissen demonstriert. Das ist aber allgemein bekannt gewesen, deshalb hieß es zu recht immer, Nvidia tritt mit einem Node Rückstand an um Kosten zu sparen.
nannte. Aber 10nm war mit Optimierungen.
So wie Intels 10nm+++ plötzlich Intel 7 hieß. Intels "Intel 4 und Intel 3" eigentlich Intels 7nm Prozess sind usw.
"The 8LPP fabrication technology is an evolution of Samsung’s 10 nm node"
Aber wen interessieren schon diese "Fakten", wenn man einfach auch auf die Zahlen pochen und sich über andere User lustig machen kann...
PS: Die Gerüchteküche spekuliert weiterhin ( https://www.reddit.com/r/NintendoSw...eel_like_people_are_underestimating_just_how/ ) übrigens zum Teil, dass die Switch 2 in Samsungs 8nm Prozess gefertigt wird. Aber vielleicht glauben die auch eher GPT als den eigentlichen Quellen.
Ein Prozess, der 2017 in die Massenproduktion ging... (was noch nicht so schlimm wäre, TSMCs 7nm Porzess war auch ca zu der Zeit, aber halt einen Node weiter, nur weil Samsung ihn 8nm nennt ist er halt trotzdem nicht vergleichbar).
Naja, der Samsung 8N (8 nm) war halt auf dem Papier schon ein 8-nm-Prozess... ChatGPT sagt dazu: "Die tatsächliche Dichte und Leistung des Prozesses liegt näher an der 10-nm-Klasse als an neueren 7-nm-Prozessen."
Irgendwie sorgt das bei mir für Kopfschütteln. Wie wäre es mit selbst recherchieren statt einer KI zu glauben...
wobei in dem Fall sagt sie ja eindeutig es ist eher ein 10nm Prozess und eben nicht wie du sagst auf dem Papier ein 8nm Prozess
Aber ich finde interessant, dass es 100x auf Fachseiten erklärt wird, es wird hier immer wieder zitiert, ich verlinke sogar die Quelle zu Anandtech und dann versucht man es mit einer generischen KI zu widerlegen... wir sind also an dem Punkt gekommen wo man Maschinen mehr glaubt als der Recherche der Menschen.
Zu meinem "Glück" hat die Maschine in dem Fall aber eh bestätigt, was ich schon gesagt habe und
"In June 2018 at VLSI 2018, Samsung announced their "11LPP" and "8LPP" processes. "11LPP" was a hybrid based on Samsung "14 nm" and "10 nm" technology. "11LPP" was based on their "10 nm" BEOL, not their "20 nm" BEOL like the "14LPP". "8LPP" was based on the "10LPP" process. Nvidia released their GeForce 30 series GPUs in September 2020. They were at that time made on a custom version of Samsung's "8 nm" process, called "Samsung 8N"...
PS: hier nochmal eine interessante News zum Thema, dass die 3xxxer Serie in 10nm kommt. Das war schon viele Monate vor Release dank "Kopite7Kimi" bekannt:
@BAR86: Irgendwie sorgst du gerade bei mir für Kopfschütteln... ich sagte "auf dem Papier ein 8 nm Prozess". Auf dem Papier wurde auch die RTX3000-Serie damals veröffentlicht.
Und wo sagt das Zitat von ChatGPT irgendwas über die tatsächliche Strukturgröße?
Mein Zitat von ChatGPT soll ja auch zeigen, dass der Prozess eine "Mogelpackung" war. Ein vernünftiger 8nm-Prozess wäre näher an 7nm als an 10nm.
Dass ChatGPT nicht richtig liest, das bin ich ja gewohnt. Von dir war ich das eigentlich nicht.
@tollertyp Nun ich ging davon aus, dass du mir eigentlich widersprichst, weil
"Naja, der Samsung 8N (8 nm) war halt auf dem Papier schon ein 8-nm-Prozess."
das "halt" und "schon ein 8nm Prozess" suggerieren eben, dass es NICHT ein 10nm Prozess ist. In diesem Satz widersprichst du mir, ebenso mit dem "Like" beim Kollegen der sagt, dass ich unrecht habe mit meiner 10nm Behauptung.
Daher meine Annahme, dass du eigentlich mir widersprechen wolltest. Wenn das nicht so gemeint war, sorry.
Damit es klarer wird hättest du vielleicht sagen sollen
"stimmt, selbst laut ChatGPT ist der Samsung 8nm eher ein 10nm Prozess" was er ja ist, auch wenn @Holgmann75 lieber den Marketing-Zahlen glaubt als den Fakten