News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

edenjung schrieb:
BTW: bin ich der einzige Hier der nen WQHD Monitor der freesync hat mit einer Nvidia graka gepaart hat?
Klar die 980ti unterstützt das nicht, darum wäre es wohl eine AMd karte geworden (ich weiß die neueren nvidia gpus unterstützen endlich freesync).
Unterstützt NV nicht mittlerweile Freesync? Seid Freesync 2 ist doch alles Open Source
 
PHuV schrieb:
Weil sie seit einer Weile immer langsamer und lauter als Nvidia Karten sind. Ich hatte auch schon AMD Karten, als sie noch konkurrenzfähig warten, war ok, auch mit dem Treiber. Selbst für den Kinder-PC war wegen 8 GB eine AMD gut, aber doch dann letztlich zu laut, und ich mußte damals dafür extra ein neues Netzteil für den Kinder-PC kaufen, weil ein gutes 500 W von beQuiet nicht mehr reichte.

Und wer HighEnd will, findet bei AMD leider bisher keine Alternative.
Wie bitte? Die alten AMD Karten waren in der Tat laut. Die RX xxx Modelle sind es vielleicht auch noch. Bei einem guten Kühlkonzept dürfte sich das aber auch in Grenzen halten.
Ich habe eine RX Vega 56 (Sapphire Nitro) die bekanntlich alles andere als Kühl ist. Im Desktop betrieb hört man sie gar nicht weil die Lüfter bei <30°C nicht drehen und auch bei Vollast ist die Karte nicht wirklich laut! Wie es bei den 5xxx Modellen ist kann ich natürlich nicht sagen.
Es kommt aber auch auf das Kühlkonzept an. Wer das billigste vom billigen kauft darf auch kein optimiertes Kühlkonzept erwarten.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Ebu85 schrieb:
Unterstützt NV nicht mittlerweile Freesync? Seid Freesync 2 ist doch alles Open Source
erst ab der 10xxx reihe. nicht die 9xx reihe.
 
Shoryuken94 schrieb:
eine Furx X für um die 140-200€.
Aber auch nur, weil die Exotenstatus hat. Vom Teller reißt Du damit nix mehr.
 
ZeroStrat schrieb:
Davon bin ich noch nicht überzeugt, also dass damit problemlos 80 CUs befeuert werden können. Außerdem, warum hat AMD dann nur so verhältnismäßig kleine Chips mit RDNA 1 umgesetzt?
AMD hat mit RDNA1 noch eine Mischung aus GCN und RDNA, wurde auch immer wieder so gesagt. RDNA2 ist eigentlich die vollendet Version. Ich bin gespannt, so recht vorstellen kann ich mir auch noch nicht, dass sie die wirklich Optimal ausgelastet bekommen
 
  • Gefällt mir
Reaktionen: Benji18
DavidG schrieb:
Das stimmt zwar, aber mit Ryzen 2 haben sie auch nach 15 Jahren die Kurve gekriegt. Also abschreiben würde ich das nicht.

Das ist korrekt, hoch anzurechnen und wirklich toll.
Allerdings kann man die Situation hier nicht ganz vergleichen. Intel hat sich auf seinem Vorsprung und der Marktmacht ausgeruht und nur jährliche Aufgüsse mit homeopathischen Dosen an Mehrleistung gebracht.

Nvidia bringt weiterhin mit jeder Generation spürbare Leistungszuwächse. Hier dürfte es also deutlich schwieriger fallen wieder anzuschließen. Aber ich hoffe das Beste und würde mir sehr gerne wieder eine AMD Karte verbauen und diese nicht immer nur anderen Leuten, die etwas in der Mittelklasse suchen, empfehlen - während mir selbst keine Alternative zu Nvidia zur Verfügung steht.


quakegott schrieb:
Das ist ja alles schön und gut das sich hier wieder ein verbaler Schlagaustausch anbahnt. Und am ende haben die meisten doch eine Mittelkasse Karte im Rechner und keine Big Navi oder RTX3080ti. Aber wer für eine Graka 1000€ und mehr auf den Tisch legt dem ist auch nicht mehr zu helfen...

Wer sich ein Auto über 30.000€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich ein Haus über 150.000€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich eine Kaffeemaschine über 100€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich einen Fernseher über 1000€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich eine Küche über 5000€ zulegt dem ist auch nicht mehr zu helfen...

Willst du wieder übernehmen? Mir fallen kaum noch weitere blöde Aussagen dieser Art ein.


canada schrieb:
Es wird Zeit für eine neue Radeon 9700! Damit man endlich mit einer nV mal den Boden wischen kann und die nicht ganz die halt zur Erde verlieren und abheben ...

Boden wischen? Sehr erwachsen...!



modena.ch schrieb:
Schon Navi 10 (RDNA1) mit nur 2560 Shadern liegt bei der 2070S, da ist ne 2080 nicht sooo viel schneller.
Und schon RDNA1 liegt pro Takt und Shader bei Turing. (eher noch n Müh besser)

...

Ich würd eher mit 70-90% rechnen.
Schon ein doppelter RDNA1 Navi 10 Chip wäre 50% schneller gewesen.

70-90% schneller als der High-End Chip der aktuellen Generation? Ein schöner Traum, m.M.n. aber reine Fantasterei. Das wäre eine historische Entwicklung... klar, würde ich mitnehmen - halte ich aber für ausgesprochen unrealistisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zubz3ro, PHuV und .Sentinel.
GUN2504 schrieb:
Du vergisst die R9 290x, welche locker mit der damaligen Konkurrenz 780ti mithalten konnte und später sogar überholt hat.

Also AMD, bitte wieder eine 5850 oder R9 290x :D
Es wird Zeit für eine neue Radeon 9700! Damit man endlich mit einer nV mal den Boden wischen kann und die nicht ganz die halt zur Erde verlieren und abheben ...


Summerbreeze schrieb:
Nö, wieso?
Den haben sie sich auch ehrlich verdient. Wenn nach über einem Jahr immer noch vereinzelt Blackscreens und div. Fehler im Treiber auftauchen / nicht behoben wurden, brauchen sie sich über Spott nicht beklagen. ;)
Mhm, der Treiber meiner nV Gurke schmiert auch gerne mal ab, ich glaube da nehmen sich beide nicht viel, aufgrund der millionen Rechner Konstellationen wird es da nie 100% fehlerfrei geben.
 
cruse schrieb:
Radeon rtx 3080 ai

Glaub ich eher weniger. 2080ti-Leistung maximal.
"50% drüber" - in ein paar Jahren vielleicht....

Schon Navi 10 (RDNA1) mit nur 2560 Shadern liegt bei der 2070S, da ist ne 2080 nicht sooo viel schneller.
Und schon RDNA1 liegt pro Takt und Shader bei Turing. (eher noch n Müh besser)

Big Navi ist ne überarbeitete Arch (RDNA2), die mehr IPC, mehr Takt bekommen soll, das massiv breitere Speicherinterface und wohl auch schnellere Module oder gar HBM (also deutlich mehr Bandbreite),
dazu doppelt so viele Shader (5120). Der Chip ist viel grösser und muss entsprechend liefern, sonst ist es
reine Verschwendung von Platz im teuren 7NM Verfahren.
50% mehr als ne 2080er wäre das absolute Minimum für den grossen Navi.
Ich würd eher mit 70-90% rechnen.
Schon ein doppelter RDNA1 Navi 10 Chip wäre 50% schneller gewesen.

Ergänzung ()

ZeroStrat schrieb:
warum hat AMD dann nur so verhältnismäßig kleine Chips mit RDNA 1 umgesetzt?

7NM Kapazität, was sonst?
Warum wohl hat NV nix oder kaum was bekommen?
Weil nix frei ist.

@Summerbreeze
Meine GTX1080 verliert öfters mal den HDMI Audio Ausgang, dann kann ich den Treiber reparieren oder neu installieren und nach einem Neustart ist der Audioausgang wieder da.
Auch bei Grün ist der Treiber nicht immer perfekt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Obvision und GERmaximus
Stunrise schrieb:
Hoffen wir mal, dass AMD diesmal liefert - die Specs lesen sich ja außerordentlich gut. Es würde mich freuen, wenn ich für meine künftige Nvidia Ampere Grafikkarte nicht unnötig viel bezahlen muss, nur weil es keine Konkurrenz gibt. Ich bin froh um jede gute AMD Karte und um jeden Käufer einer solchen :daumen:

Ohje diese Aussage ist auf soviele Arten traurig. 😅
Wie Marktwirtschaft funktioniert weißt du auch oder? Ansonsten, ja hoffe und bete mal, anstatt sich zu überlegen bei der Konkurrenz zu kaufen wenn die Leistung stimmt? Ausser du bist mit G-Sync-Monitor NV gebunden, dann wäre es vllt nachvollziehbar.


Summerbreeze schrieb:
Nö, wieso?
Den haben sie sich auch ehrlich verdient. Wenn nach über einem Jahr immer noch vereinzelt Blackscreens und div. Fehler im Treiber auftauchen / nicht behoben wurden, brauchen sie sich über Spott nicht beklagen. ;)

Gut das NV nie Treiber-Probleme hat? Musste nur die letzten 3 mal nach den neuen Treiber auf alte wechseln weil immer irgendwas in den neuen Versionen nicht funzt. Ich glaube da nehmen AMD und NV sich nicht viel was schlechte Treiber angeht.
 
  • Gefällt mir
Reaktionen: rasenschach
Denn aktuell macht es den Anschein, dass es eine Variante von Navi 21 gibt, die ein 384 Bit breites GDDR6-Interface bietet und eine, die mit HBM 2 umgehen kann.

Klingt Logisch. das GDDR6 für unsere Endkunden aka Gamerversion und die HBM2 Version für die Pro Modelle für Firmen wo der Aufpreis für das HBM2 durch die Zeitersparnis die die Karten beim berechen in den Supercomputern wieder einsparen.
 
Vega64 hatte auch genug Rechenleistung (TFlops) um gegen NV Highend zu bestehen... aber leider nur auf den Papier.
Einen kleinen Chip ums doppelte hochskalieren heißt nicht, dass er da Doppelte leistet.
Auf alle Fälle wirds spannender als die letzten Jahre.

Achja... ich hoffe manche Weltverbesserer - die meinen Firmen hätten was zu verschenken - stellen sich eh schon drauf ein das Big Navi auch entsprechen kosten wird...
 
  • Gefällt mir
Reaktionen: Floppes und cruse
  • Gefällt mir
Reaktionen: edenjung
PHuV schrieb:
Und wer HighEnd will, findet bei AMD leider bisher keine Alternative.
Wer High-End will, darf auch ruhig High-End zahlen.
Da braucht man sich nicht bei AMD beschweren, wenn die Nvidia Karten so teuer sind.


PHuV schrieb:
Selbst für den Kinder-PC war wegen 8 GB eine AMD gut, aber doch dann letztlich zu laut, und ich mußte damals dafür extra ein neues Netzteil für den Kinder-PC kaufen, weil ein gutes 500 W von beQuiet nicht mehr reichte.
Du hast doch hoffentlich keinen VRAM-Griller gekauft? Sofern du die Karte noch hast, schau da lieber mal nach und spendiere einen ordentlichen Kühler samt passiv-Kühler für VRAM und SPAWA´s.

Bei den Costumdesigns (egal ob Nvidia oder AMD) sollte nicht der Preis sondern Lautstärke und Temperaturen kaufentscheidend sein. Die 50€ Ersparnis bringen dir nichts, wenn du dafür eine Turbine hast, bei der sich pünktlich zum Garantieende der VRAM verabschiedet.


modena.ch schrieb:
50% mehr als ne 2080er wäre das absolute Minimum für den grossen Navi.
Ich würd eher mit 80-90% rechnen.
Schön wärs. Das glaube ich aber erst, wenn es soweit ist.
Chipfläche lässt sich leider nicht 1:1 in Leistung umrechnen.
 
  • Gefällt mir
Reaktionen: domian
modena.ch schrieb:
50% mehr als ne 2080er wäre das absolute Minimum für den grossen Navi.
Ich würd eher mit 70-90% rechnen.
Schon ein doppelter RDNA1 Navi 10 Chip wäre 50% schneller gewesen.

Das ist doch Quatsch, nur weil BN vielleicht die (theorethische) doppelte Rohleistung einer 5700XT hat, heisst das noch lange nicht, dass sie doppelt so schnell wird. 70 bis 90% über 2080 halte ich für völlig utopisch. Das wird wahrscheinlich auch nicht die RTX3090 oder wie auch immer die heissen wird, leisten können.
 
ZeroStrat schrieb:
Joar, da ist schon was dran. Vega hat viel GPGPU Ballast mit an Board.

Hat man bis heute diesen Ballast eigentlich schon identifiziert, oder wie ist der zu benennen?
Im Vergleich zur Hawai Architektur sehe ich da keinen Ballast, der vorher nicht da war, oder was ist der Unterschied zu Navi?

modena.ch schrieb:
7NM Kapazität, was sonst?

Klaaar....^^
 
@modena.ch
ich glaub die geschichte setzt sich eher fort.
che-tah nimmt mir die worte aus dem mund:
Che-Tah schrieb:
Vega64 hatte auch genug Rechenleistung (TFlops) um gegen NV Highend zu bestehen... aber leider nur auf den Papier.
aber mir persönlich egal, erstmal kein geld für (luxus-)upgrades und ich brauchs auch nicht ;)
 
Freu mich drauf. Größeres Navi ist auch besser ablesbar als ein kleines xD

Awas ! Ich würde es feiern. Schön mit 12-16GB VRAM und mehr Leistung als eine 1080 Ti
Bin gespannt.
 
  • Gefällt mir
Reaktionen: ChrisM
sdo schrieb:
Niemand der Rollenspiele, Shooter oder ähnliches zockt,
Naja, eigentlich sollte jeder der Shooter zockt KEINE Konsole kaufen. Shooter auf Konsole ist doch wie Auto fahren ohne Lenkrad.

Ich kaufe mir definitiv eine kommende High End GPU. Ich habe zu viele Vorteile auf den PC. Mod Support will ich nicht missen und mein kompletter Freundeskreis spielt entweder PC oder gar nicht.
 
  • Gefällt mir
Reaktionen: pietcux
ZeroStrat schrieb:
Davon bin ich noch nicht überzeugt, also dass damit problemlos 80 CUs befeuert werden können. Außerdem, warum hat AMD dann nur so verhältnismäßig kleine Chips mit RDNA 1 umgesetzt?

Sagen wir so, dass RDNA problemlos über 40 Shader hinweg skaliert bleibt AMD uns noch schuldig. Bin mir aber auch Sicher, dass Sie das Problem kennen und zumindest daran arbeiten.

Das die Xbox Series X auf 52 Shader setzt, dürfte ein guter Hinweis darauf sein. Ich denke tatsächlich auch, dass wir die Xbox Series X GPU (mit den vollen 56 CUs) als neue Mittelklasse in Form einer 6800XT sehen werden.

Die Chipgröße von ~250mm² dürfte wohl eher ein Resultat wirtschaftlicher Überlegungen sein. Pro Flächeneinheit soll der 7nm Prozess etwa das doppelte von den Vorgängern kosten. als Nachfolger von Polaris 10 mit ähnlicher Größe passt das also ganz gut, wenn die preise nicht zu extrem anziehen solen.
 
Zurück
Oben