News Radeon RX 9070 XT: Neue Gerüchte zur Performance und eine erste Analyse

Nitschi66 schrieb:
Ich wundere mich gerade über die Information, dass die 9070 XT auf einem monolithischen Chip basieren soll. Ich bin immer von der Fortführung des MCM-Prinzips ausgegangen.
Es ist aber schon eine ganze Weile bekannt, dass Navi 44 und Navi 48 monolithisch sind.

Vordergründig ist die Erklärung dass Navi 48 ein verdoppeltes Design von Navi 44 ist.

Darüber warum es war Navi 44 und Navi 48 gab, kursieren Spekulationen. Eine ist dass die Topmodelle von RDNA4 Multi Chiplet GPUs sein sollten und dass AMD sie wegen technischer Schwierigkeiten eingestellt hätte. MLID hat dazu ein Patent präsentiert das vom Aufbau sehr gut zur MI300 passt.
 
  • Gefällt mir
Reaktionen: Nitschi66
Northstar2710 schrieb:
Auch wenn du deine 4080s in ein Korsett zwengst, sollte der PC schon ein entsprechend grosses Netzteil haben um auch die komplette leistung der Gpu abzufangen. .
Ne 70er Karte mit 2x8pin. Spricht jetzt nicht gerade für niedrigen Verbrauch.
 
Grundgütiger schrieb:
Spricht jetzt nicht gerade für niedrigen Verbrauch.
er kann doch trotzdem hoffen das sie effizienter ist als der Vorgänger oder die 5000er Nvidia. Die Anschlüsse sind doch nur für die maximale Leistungsaufnahme ausgelegt.
 
  • Gefällt mir
Reaktionen: Finnschi
@Northstar2710, AMD braucht erstmal ne Karte mit kleinem Chip und trotzdem genug Dampf unter der Haube. Fläche=$

Die großen Kühler, der Stromanschluss und Boost mit Glück über 3Ghz lassen auch darauf schließen.

In RT wird die neue Generation wegen theoretischer doppelter Leistung auch sicher effizienter als alle anderen AMD Karten.

Nur lese doch erstmal seinen originalen Beitrag welchen ich zitiert habe:
Preise und Stromverbrauch (und damit Anforderungen an Netzteile) aktueller nVidia-Generationen entlocken mir nur noch ein Kopfschütteln.

jetzt können wir nicht einfach mal so ein paar Zahlen ohne Anhaltspunkte in den Raum werfen.
Daher auch die Zahlen von einem Spiel in gängiger Praxis.

Bei den Preisen hat er ja noch recht. Beim Verbrauch liegt er komplett daneben.
RDNA3 wie auch 4(identisches Design, siehe PS5 Pro) benötigen einen sehr hohen Takt um Wettbewerbsfähig zu sein, die Fertigung passt nicht zum Produkt.
Eine 7900XTX steht im Wettbewerb zur 4080, wo hier eine besondere Anforderung ans NT von NVIDIA sein soll ist mir schleierhaft.

Wir wissen ganz sicher:

Von Single Die auf MCD verliert AMD ca. 300Mhz bzw. 12%.
RDNA3 skaliert sehr gut mit mehr Takt, auch jenseits 3Ghz.
 
Grundgütiger schrieb:
Daher auch die Zahlen von einem Spiel in gängiger Praxis.
60Fps kapp mit einer 4080S ist deine Praxis. Nicht jeder will mit einer 1000€ Karte mit 60fps spielen.
Dazu gilt es nur für das eine spiel. Bei einem anderen Spiel kann das ergebniss wieder komplett anders sein(natürlich auch besser) und die GPU wird komplett ausgelastet weil es die Karte so fordert.

Sicher ändert es nix daran das Nvidia mit der 4000er reihe eine sehr effiziente Architektur hervorgebracht hat gegenüber AMD. Wie es bei der nächsten GEN aussieht sehen wir in der Praxis.

Und Kühler, Stromstecker und boost sagen nix über die effiziens aus. Egal welcher Hersteller. Die RTX4090 ist auch eine sehr effiziente Karte, dennoch ist alles für 450Watt ausgelegt.

RDNA ist nunmal auf takt ausgelegt worden und dabei wird es wohl bleiben. Der PS5 pro chip hat nach meinen infos aber kein vollwertiges RDNA4 integriert. Aber was RDNA4 genau ist wissen wir ja auch noch garnicht, zumindest was die ändereungen zu RDNA3 betrifft. Die Frage bezüglich effizienz liegt ja eigentlich nie in der vollauslastung (wofür die Platine wie auch kühler konstruiert sind) sondern im teillast betrieb. Und da hoffe auch ich das AMD mit RDNA4 etwas besser skaliert als mit RDNA3.
 
Grundgütiger schrieb:
Bei den Preisen hat er ja noch recht. Beim Verbrauch liegt er komplett daneben.
In Ordnung, beim Strombedarf lag ich wohl falsch, bzw. beschränkt er sich nicht nur auf nVidias Produkte. Brauchst nicht persönlich beleidigt zu sein, nur nVidia kritisiert zu haben... :rolleyes:

Trotzdem steigt der Energiehunger von Grafikkarten im Allgemeinen von Generation zu Generation, egal wie es um die Effizienz bestellt ist und egal wie weit fortgeschritten die Strukturverkleinerung ist.

Mir wäre es lieber, ein Generationswechsel würde etwas mehr Leistung bringen und zugleich etwas weniger Strom brauchen. Mir persönlich (muss nicht jeder so sehen) bringt es keinen Gewinn, wenn die Effizienz steigt, aber insgesamt der Stromverbrauch parallel dazu auch steigt.
 
  • Gefällt mir
Reaktionen: Grundgütiger
@Marflowah, wir schreiben hier nur über Grafikkarten zum zocken, da nehme ich das Paket was halt besser passt.

Den Peak Verbrauch kannst wie du geschrieben hast ja fürs NT nehmen, doch bei beiden AMD/NV laufen die Top Karten im Teillastbereich sehr effizient.

Statt einer 3080 die 4070 nehmen, oder 6800XT gegen 7800XT tauschen, Gleiche fps, 100Watt weniger spitzen verbrauch.
Wenn das allerdings so weiter geht, gibts bald unter 200Watt keine Karten mehr.
 
  • Gefällt mir
Reaktionen: Darkwater
Marflowah schrieb:
Trotzdem steigt der Energiehunger von Grafikkarten im Allgemeinen von Generation zu Generation, egal wie es um die Effizienz bestellt ist und egal wie weit fortgeschritten die Strukturverkleinerung ist.

absolut gesehen durchaus, ob in Bezug Watt/FPS... ...müsste ich in entsprechende Tabellen schauen, aber ich gehe davon aus dass eine Voodoo3 (meine erste GPU) deutlich mehr Strom verbrauchen dürfte als eine 4090 wenn sie die gleiche Leistung bringen müsste (bzw. so viele Voodoo3 karten parallel betrieben würden, dass sie der Leistung entspricht)...

Marflowah schrieb:
Mir wäre es lieber, ein Generationswechsel würde etwas mehr Leistung bringen und zugleich etwas weniger Strom brauchen. Mir persönlich (muss nicht jeder so sehen) bringt es keinen Gewinn, wenn die Effizienz steigt, aber insgesamt der Stromverbrauch parallel dazu auch steigt.

Naja, dafür gibt es ja verschiedene Leistungsklassen, da bekommst du zum teil ein wenig mehr Leistung bei weniger Stromverbrauch - z.B. sind eine 3080 und eine 4070 relativ gleich auf was Leistung angeht wenn ich das richtig im Kopf habe und die 4070S entsprechend etwas schneller, die TDP der 3080 aber, wenn ich mich recht entsinne 100W höher als die der 4070S...
 
Ihr habt Glück dass nicht ich die Gesetze mache.
Denn wenn es nach mir gehen würde, würde ich die
maximale Verbrauchsgrenze auf 100W festlegen.
Jedes Watt mehr wird mit einer Buße von 300Mio. € belegt.

Soll der am Ende gewinnen, wer aus 100W mehr herausholen kann.

Das würde allerdings, wohl zum unweigerlichen Niedergang diverser Netzteilhersteller führen
und dass wollen wir ja auch wieder nicht.

Nvidia müsste ihren 600W / 744mm² Siliziumbomber wohl in sechs Stücke zerteilen,
oder als Konsequenz 120 Milliarden an Bußgeldern bezahlen.
 
Zuletzt bearbeitet:
Das AMD dann gar nicht mehr Wettbewerbsfähig wäre ist dir egal?
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
Ihr habt Glück dass nicht ich die Gesetze mache.
Denn wenn es nach mir gehen würde, würde ich die
maximale Verbrauchsgrenze auf 100W festlegen.

Naja, den Wunsch den Energieverbrauch zu limitieren in allen ehren, aber sparen lässt sich an anderen stellen vermutlich besser und es ist darüber hinaus wahrscheinlich auch sinnvoller bei der fossilen Erzeugung anzusetzen als den verbrauch limitieren zu wollen - hier gibt es einfach weit effektivere Baustellen als ausgerechnet der Leistungshunger der GPUs (zumindest außerhalb von Ethereum und Co. da wäre eine Verbot bzw. eine Strafe durchaus denkbar)
 
edenjung schrieb:
Ich schrieb was von langfristig. Oder etwa nicht?


Meine persönliche Empfehlung an AMD wäre daher, dass man nicht über den Preis geht sondern das marketing überarbeitet. Sich eine vernünftige Agentur sucht und dann mal analysiert wer denn die Kunden sind die GPUs kaufen, warum sie diese kaufen und was sie beeinflusst in ihrer Kaufentscheidung. Und dann eine Kampange zu erstellen, die dafür sorgt, dass die Marke und ihr Produkt besser bekannt werden (mental availability erhöhen).
Dazu natürlich die eigenen Produkte verbessern usw. Aber keinen Preiskampf mit Nvidia führen. Das bringt erstmal gar nix sondern kostet nur Resourcen die man anderweitig nutzen kann.

Ok das mit dem langfristig hatte ich wirklich überlesen.
Da hast du natürlich recht. Da müsste man dann schon über mehrer Gens den sehr ddeutlichen Preis/Leistungssieger stellen. Und auch da - schlussendlich hast du recht - das Produkt an sich muss trotzdem überzeugen... Nur so kann man langfristig Marktshare generieren.

Ich würde nicht die Kunden analysieren. Sondern die, die es nicht geworden sind. A) Ist der Marktanteil deutlich größer. Und die will man ja. Die anderen sind ja schon da. Da macht die Analyse nur in dem Punkt Sinn - wie halte ich die und verliere sie nicht...
 
Frohes neues erstmal @Alle und @Novasun
Ja das ist eine wichtige Frage.
Nvidia hat es geschafft durch ihr Ökosystem und die Leistung ihrer Produkte, aus Lightbuyern (also Kunden die man will, die deine Marktdurchdringung beeinflussen, da sie auch mal wechseln) loyale Kunden zu machen die nicht wechseln.
Damit nimmt man der Konkurrenz im Grunde den potentiellen Kundenstamm. Ist so wie bei Apple.

Und sowas gibt es eigentlich so gut wie gar nicht in normalen märkten bzw. Produktkategorien. Gibt nur wenige Ausnahmen.
https://en.m.wikipedia.org/wiki/Double_jeopardy_(marketing)

Damit zementiert man seine Marktmacht auf Dauer und macht sich so gut wie unangreifbar. Im Grunde ist der Zug abgefahren. Das Ding ist durch.
 
Zurück
Oben