News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Fighter1993 schrieb:
Nur doof das die neuen Karten mit 2050mhz takten...
Jep was super ist. Aber du musst ja nur Mal schauen wie zB bei den Karten der Verbrauch durch die Decke geht wenn man 1.1 statt 1.0 V anlegt bei 2 GHz.
Es reicht schon wenn die ausgereiftere 7nm Fertigung hier nun einfach deutlich besser skaliert und ggf mit ~0.85 auf 2 Ghz kommt, da hat man schnell eine um 50% bessere Effizienz.

Wie taktet GA100 bei wie viel Spannung. Müsste man Mal schauen. Aber wie gesagt, dass man allein durch die Fertigung da noch nen deutlichen Schritt macht halte ich für möglich, so wie Intels 10nm ja nun wohl auch nen guten Schritt gemacht haben. Die aktuellen RDNA Karten setzen ja auf sehr frühe 7nm.

Wie auch immer, wäre super wenn AMD sowohl bei Effizienz, Vram und ggf RT Leistung Nvidia aufmischt.
 
  • Gefällt mir
Reaktionen: Fighter1993
Ich gönne es AMD von Herzen. Aber im Moment ist das alles wohl eher Wunschdenken - wenn ich hier lese die wischt mit einer 3090 auf für 100 Watt weniger. Alles klar Mädels.
 
  • Gefällt mir
Reaktionen: Coeckchen, McFritte und CableGuy82
bensen schrieb:
Wenn AMD Höhe Preise nicht bezahlen will, dann sagen sie denen knallhart, dass die Konkurrenz mehr bezahlt. AMD ist ja auch abhängig von einem guten Prozess.
Heißt es aber nicht auch, dass eine Chip Architektur an einen Fertigungsprozess angepasst sein sollte? Falls ja, dann ist ein schneller Wechsel kaum ohne irgendwelche Nachteile möglich, und ich denke diese Nachteile sind es, die Ampere gehörig an Potential nehmen (mögliche Taktrate, Energieverbrauch), wenn auch im Gegenzug natürlich der Kostenfaktor gehörig (etwa um 30% wird ja gemunkelt) gesenkt wurde.

AMD hat in den letzten 14? 13? Jahren in der "Schule des Lebens", wie wichtig eine gute Fertigung ist (so wie Intel es nun seit mit 14nm +++... im positiven wie auch negativem lernt) und solange nicht irgendein kleiner passionierter Erbsenzähler auf dem AMD-Chefsessel sitzt, sondern jemand vom Fach wie Su, behaupte ich mal dass die Antwort auf die Frage der Fertigung bis auf weiteres, also auch über die Ära Lisa Su hinaus, nur "whatever it costs" lauten kann und darf.
Für uns als Käufer lernt Nvidia nun hoffentlich auch diese Lektion, selbst wenn es uns im Einkauf teurer zu stehen kommen sollte / wird, aber uns kann es nur lieber sein, wenn wir für den Chip einer 3080 zusätzlich grob 25$ Entstehungskosten bei Nvidia (die im Straßenpreis der Custom Karten dann höchstens mit irgendwo bei 150 bis 200$ liegen sollten / können - von Nvidia bis zum Händler wollen ja alle was von den zusätzlichen 25$ ja auch mehr in der eigenen Tasche haben) zahlen, wenn wir im Gegenzug Hardware bekommen, die nicht außerhalb des Sweetspots betrieben wird, ggf deswegen ein neues Netzteil erforderlich wird, und was sonst noch alles bei Ampere ein wenig aus der Bahn geraten ist, vordergründig eben weil "nur" der 8nm Fertigungsprozess von Samsung eingesetzt wurde, anstelle des teureren 7nm Fertigungsprozess von TSMC
 
Ein_Freund schrieb:
Nvidia könnte doch auch auf diese Fertigung setzen, wenn sie wollten, oder habe ich etwas verpasst und das sicher in etwa solange wie AMD.
So einfach ist das nicht. Das kostet ja auch und TSMC kann nicht unendlich viel fertigen. Wenn man einen so GA100 Chip der ja aus TSMC kommt für nen 5 stelligen Betrag verkauft dann geht das sicher, aber bei Desktop Karten kann Nvidia TSMC sicher nicht jeden beliebigen Preis abnehmen.

AMD hat den Vorteil dass sie bei TSMC in Summe sicher der größere Kunde sind und sie können mit der gesamten Abnahme jonglieren.

Im Prinzip sitzt am längsten Hebel TSMC, die gehen durch die Decke weil quasi jeder da fertigen lassen will.
 
marcmurc schrieb:
Ich denke die stärkste AMD Karte wird sich preislich und leistungstechnisch zwischen einer 3070 und 3080 einordnen.

Wäre doch perfekt !
 
  • Gefällt mir
Reaktionen: CableGuy82
FreedomOfSpeech schrieb:
AMD spricht von +50% Perf/Watt. Die 6900XT kommt mit 2x8Pin, daher 375 Watt.
Die 5700XT braucht 220W.

375/220*1.5=2.55

Daher kann es sein, dass sie 2.5x so schnell wie eine 5700XT ist, und damit liegt sie in Reichweite der RTX 3090....
Sei mir nicht böse, aber das ist ja wohl eine Milchmädchenrechnung. Nur in einer Welt mit perfekter Skalierung wäre so was denkbar.
 
  • Gefällt mir
Reaktionen: domian
Wie wird hier denn DLSS bewertet? Hat AMD da irgendwas gegenzusetzen? Wenn ich 4K ohne Qualitätsverlust aus 1440p oder sogar 1080p aufs Display bekomme, steht dann der Sieger im Duell nicht ohnehin fest, ganz gleich was AMD hier vorlegt?
 
  • Gefällt mir
Reaktionen: CableGuy82
Taxxor schrieb:
Okay ist ein bisschen mehr.

2080Ti: 4352 Shader * 2 * 1750MHz = 15,23 TFLOPs
2080S: 3072 Shader * 2 * 1900MHz = 11,67 TFLOPs

15,23/11,67 = 30,5%

+22% Performance / +30,5% TFLOPs = +0.72 FPS pro TFLOP = 72% Skalierung

Für eine genauere Berechnung bräuchte man aber eine 2080Ti auf 1,9GHz oder alternativ eine 2080S auf 1750MHz, ich denke eine 2080S verliert bei 1750MHz (-8%) keine 8% an Perfornance, wodurch dann bei der Skalierung weniger als 72% rauskommt.
Das kann ich alles so unterschreiben was du sagst und die Skalierung beträgt auch wie du bereits erwähntest 72%. Ich habe mich bei meiner vorangegangenen Berechnung lediglich etwas missverständlich ausgedrückt.

Wie du bereits in einem deiner vorangegangen Beiträge selbst ausgeführt hast, hier nochmals eine kleine Zusammenfassung inklusive der 2070s:
2080s relativ 2080ti FE
15.23 = 100% (TFLOPs) = 122% (Performance) / Skalierung 72% (15,23/11,67 = 30,5/22 = 72)
11.67 = 76.6% (TFLOPs) = 100% (Performance)

11.67 / 15.23 * 1.22 *100 = 93.5% TFLOPS bereinigte relative end performance, was wiederum einer Skalierung von 72% relativ zur 2080s entspricht.

2070s relativ 2080ti FE
15.23 = 100% (TFLOPs) = 139% (Performance) / Skalierung 68% (15,23/9.7 = 57/39 = 68)
9.7 = 63.7% (TFLOPs) = 100% (Performance)

9.7 / 15.23 * 1.39 *100 = 88.5% TFLOPS bereinigte relative end performance, was wiederum einer Skalierung von 68% relativ zur 2070s entspricht.

Was also am Ende zählt um die Performance eines Big Navi mit 80CUs ableiten zu können ist die relative performance pro TFLOP und die beträgt eben ca. 89%: + einen allfälligen IPC Zuwachs.
NAVI21: 5120 Shader * 2 * 2200MHz = 22.5 TFLOPs * 0.89 (analog Turing) = 20 skalierungs normierte TFLOPS
20 * 1.1 (konsevative IPC Steigerung von 10%) = 22/9.7= 227% relativ 5700XT.

Mit meiner ursprünglichen Einschätzung:
Konservativ = 2.08 x 1.1 = 2.29
Optimistisch = 2.08 x 1.2 = 2.50
lag ich demnach nicht weit daneben, wobei ich mich etwas missverständlich ausgedrückt hatte indem ich von einer Skalierung von 94% sprach besser hätte ich von einer skalierungsnormierten relativen performance (5700XT/2080ti FE) von 94% gesprochen.
Allerdings hab ich mir es etwas zu einfach gemacht, obwohl ich wusste das die Skalierung bei steigenden CU's nicht linear verläuft sondern gegen obenhin abflacht.
Aber wie du sagst müsste man für einen 1:1 Vergleich und um das letzte Prozent an Unsicherheit auszuräumen, eigentlich auch noch die 2080ti auf 1.9GHz bringen. Allerdings müsste man die Speicherbandbreite wohl im gleichen Masse vergrößern um da ein Aussagekräftiges Ergebnis zu bekommen.

Aber am Ende kommt es eben darauf an welche Leistung auf der Strasse ankommt, da hören sich die 70% Skalierung im ersten Moment nicht gerade nach viel an. Aber wenn es am Ende trotzdem auf ca. 90% der theoretisch möglichen Leistung hinausläuft, sieht das doch eigentlich schon sehr gut aus.
 
Zuletzt bearbeitet:
Auch die Zahlen vom Prozess allein würde ich mich da nicht verlassen. Es reicht wenn die Güte stabiler ist und man weniger Headroom bei der Spannung ansetzen muss um stabil zu sein.

In der Vergangenheit war es oft so dass gerade bei AMD viele Serien mit recht viel UV betrieben werden konnten, als ab Werk recht viel Sicherheitsaufschlag da war, zB wegen der Streuung.

Wenn das nun sehr ausgereift ist, egal wie der Prozess heißt, dann kann man alleine dadurch schon viel gewinnen.

Man sieht ja auch wie ein 30% kleineren Power Target auch bei Ampere kaum Leistung kostet, aber eben 30% bessere Effizienz liefert. Wenn AMD eher in einem effizienten Taktbereich bleiben kann und die Architektur verbessert sehe ich 50% als gut machbar an.

Wobei sie bei mir auch 400W besuchen darf wenn sie die 3090 zersägt.
 
  • Gefällt mir
Reaktionen: CableGuy82
Wenn es bei dieser Leistung für die TDP bleibt, dann schnapp ich mir definitiv eine AMD Grafka.

Für mich verbrauchen die 3080 und die 3090 einfach zuviel an Watt.
 
  • Gefällt mir
Reaktionen: daknoll und Digibyte
Apfelsch0rle schrieb:
Wie wird hier denn DLSS bewertet? Hat AMD da irgendwas gegenzusetzen? Wenn ich 4K ohne Qualitätsverlust aus 1440p oder sogar 1080p aufs Display bekomme, steht dann der Sieger im Duell nicht ohnehin fest, ganz gleich was AMD hier vorlegt?
Das ist die Frage. Sehe ich ähnlich aber DLSS müsste dazu erstmal ein ganz genereller AA Modus für jedes Spiel und in jeder Auflösung werden.
 
  • Gefällt mir
Reaktionen: Coeckchen, ThePlayer und Apfelsch0rle
Falls es eine HBM Karte geben wird, wird diese sicherlich für den Pro-User für wissenschaftliche Berechnungen bestimmt sein.

Mehr als 2 ghz Clock ist jetzt auch nichts besonderes schafft die RX 5700 XT ja schon...


Major_Fogger schrieb:
Wenn es bei dieser Leistung für die TDP bleibt, dann schnapp ich mir definitiv eine AMD Grafka.

Für mich verbrauchen die 3080 und die 3090 einfach zuviel an Watt.

Netzteil Upgrade :heuldoch:
 
  • Gefällt mir
Reaktionen: CableGuy82
Egal wie es ausschaut. Klingt interessant.

Was mich irritiert sind die ganzen Leute, die es sich nicht vorstellen können, dass die 6900xt die 3080 kassiert.

Ich möchte dabei nur an intel erinnern, die von ryzen kalt erwischt wurden. Auch da war die Leistung überraschend.

Abwarten, aber wer jetzt ne 3080 zu den Preisen kauft könnte sich später womöglich grün und blau ärgern.
 
  • Gefällt mir
Reaktionen: iceshield, CableGuy82 und Kabelkasper
Was mich bei der 3000 Serie von Nvidia bisher stutzig macht ist wie viel W der Uncore braucht, also zB Speicher. Das scheint mir richtig richtig viel zu sein. Ich meine der Chip hat so um 200W.

Bin gespannt ob AMD wirklich auf 256 Bit mit viel L2 setzt oder ggf mit HBM überrascht.
 
  • Gefällt mir
Reaktionen: CableGuy82
Krautmaster schrieb:
...aber bei Desktop Karten kann Nvidia TSMC sicher nicht jeden beliebigen Preis abnehmen.

AMD hat den Vorteil dass sie bei TSMC in Summe sicher der größere Kunde sind und sie können mit der gesamten Abnahme jonglieren.

Im Prinzip sitzt am längsten Hebel TSMC, die gehen durch die Decke weil quasi jeder da fertigen lassen will.
Für AMD scheint es halbwegs rentabel zu sein. Hätten Sie es wollen, wollen hätten sie es machen können darauf wollte ich hinaus. Sie haben es vermutlich aus Kostengründen nicht gemacht oder gar aus entwicklungtechnischen Gründen.

AMD deshalb Glück (beim Fertiger) und fehlendes Know-How (bei den Treibern) zu unterstellen, weil diese einen 7nm-Prozess für die Masse, vor dem Konkurrenten auf den Markt bringen, aber die eigentlichen Karten etwas nach der neuen Generation Nvidias kommen, ist ein bisschen weit hergeholt.
 
  • Gefällt mir
Reaktionen: CableGuy82
bensen schrieb:
So groß kann der Einfluss auch gar nicht sein, da sonst Turing viel mehr profitiert hatte gegenüber Pascal bei gleicher FP Rechenleistung.

Hab die Folie gefunden.

int-fp-concurrent-execution.jpg
 
  • Gefällt mir
Reaktionen: CableGuy82
Also mir reicht meine 5700XT ja eigentlich noch. Ich bin auch auf Zen3 gespannt.
Wünschen würde ich mir eine Karte die ca auf 3080 Niveau liegt und dabei nicht mehr verbraucht als meine alte Strix Vega 64OC (wobei die werkelt jetzt auch im Linux Rechner mit 600Watt Bequite Netzteil, da sollte das 650Watt Netzteil in meinem Gamingrechner noch etwas spielraum haben ;) ) ... es sollte halt nicht zu laut werden und kein Spulenfiepen haben. Da ist die Sapphaire 5700XT Nitro+ deutlich besser als die Strix Vega 64.
Sowas würde ich mir dann auch für eine "6900XT" wünschen.
Ich könnte ja noch locker den Ryzen 9 3900X und die 5700XT weiter nutzen. Habe keinen Druck. Aufrüsten würde ich nur weil ich es kann und mir nicht weh tut.
 
  • Gefällt mir
Reaktionen: CableGuy82
Mir gefällt der Ansatz. Würde ich mir eine RTX3080 zulegen wollen, wären das 800,- € für die Karte, 100,- € für ein neues Gehäuse, dass in der Lage ist 320 Watt leise los zu werden, 100,- € für ein neues Netzteil, in der Summe 1000 Steine für eine Karte die mir im nächsten Hochsommer 320 Watt in die Bude bläst und mit ihren 10 GB ja auch keine Investition für Jahre darstellt. Eine Nummer kleiner, wo man Gehäuse und NT behalten kann und wo die Kühllösung nicht auf Kante genäht ist, ist der bessere Ansatz, auch wenn da jetzt 10% Leistung fehlen.
 
  • Gefällt mir
Reaktionen: Alpha.Male, Neronomicon, Taron und eine weitere Person
Apfelsch0rle schrieb:
Wie wird hier denn DLSS bewertet? Hat AMD da irgendwas gegenzusetzen? Wenn ich 4K ohne Qualitätsverlust aus 1440p oder sogar 1080p aufs Display bekomme, steht dann der Sieger im Duell nicht ohnehin fest, ganz gleich was AMD hier vorlegt?

Dazu gab es schon mal Diskussionen, mein Eindruck: Die Fans hoffen der Rest zweifelt, das AMD was nutzbares/vergleichbares zeitnah herausgibt.
Bezüglich Raytracing ist es sogar noch vorstellbar, da es entpsrechende Engines sogar in Software (CPU) gibt. Ein Anpassung an OpenCL ist zumindest vorstellbar. AMD GPUs haben dafür bestimmt ausreichend Rohleistung. Die Frage ist, wird es von AMD eine gute Umsetzung geben und wie gut harmoniert die mit auf Nvidia optimierter Software?
Bei DLSS ist zum einen fraglich ob sie das überhaupt stemmen und selbst wenn, wird es dann kompatibel oder sind noch mehr Anpassungen (für bereits DLSS lompatible Spiele) nötig? Damit wäre es IMO eine Totgeburt, dann sollen sie lieber die herkömmlichen Treiberfunktionen optimieren.
 
Zuletzt bearbeitet:
Zurück
Oben