News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

pakichaggi schrieb:
Viel wichtiger als die Rohleistung wäre mir, dass AMD bei den Features mit NVidia gleichzieht. Raytracing und vor allen Dingen DLSS. Ich würde mir wünschen, dass AMD etwas abliefert, das ähnliche oder zumindest in absehbarer Zeit ähnliche Ergebnisse bei der Pixelrekonstruktion schafft wie DLSS in seiner aktuellen Version. Für mich ist das schon ein echt mächtiges Argument für NVidia im Moment. Wenn ich bei gleicher Bildqualität wie die native Auflösung + TAA ungefähr 40 % schneller bin, muss AMD mit Rohleistung ja ganz schön klotzen, um da mitzuhalten.
Hab das Vergnügen DLSS 2.0 in Death Stranding zu nutzen. Das ist echt Magie ! Was da an Mehrleistung bei rum kommt, bei gleicher oder sogar besserer Bildqualität ist schon ein hartes Pro Nvidia Argument und definitiv die Zukunft !
 
  • Gefällt mir
Reaktionen: marzk
pipip schrieb:
Ich finde aber den Anstieg schon sehr groß. Man macht sich selbst auch irgendwie irgendwo die Preise kaputt ^^ Ja klingt hart
Ist auch hart.

Jetzt stellt dir mal vor, wie elend ein Leben ist, wenn man sich nur alle 0,00012 Sekunden eine Lederjacke aus feinstem Leder kaufen kann, anstatt alle 0,00010 Sekunden?

Jetzt mal ehrlich? Da denkt keiner von euch dran.

Die Karten sind zu günstig.
 
Alphanerd
Mit zu hohen Preisen wäre NV bald vllt ARM dran 🥴 🤔
 
  • Gefällt mir
Reaktionen: NMA, Chismon und Alphanerd
elmex201 schrieb:
Gleich geblieben bei gleicher Leistung. Leute die aufrüsten wollen bleiben stecken, weil man für das gleiche Geld keine Leistungssteigerung bekommt. Wenn überhaupt.
Achso, eine 2070 ist nicht fast 3x so schnell wie eine 970, aber nicht mal 50% teurer?
 
  • Gefällt mir
Reaktionen: .Sentinel.
PHuV schrieb:
Das war eine AMD Radeon R9 390 8GB Gigabyte G1 Gaming OVP, extra gekauft, weil ich mit Sohnemann Star Wars Battlefront spielen wollte. Vorher war eine GTX 960 mit 2GB drin. Kaum war die Karte eingebaut, und man hat das Spiel gestartet, Peng, PC ging aus. Ein 650 W Netzteil von beQuiet brachte Abhilfe. Das Teil war aber soo laut, daß ich das Ding 2 Zimmer weiter hörte. Das wurde dann April 2018 gegen eine GTX 1060 getauscht, und seitdem ist wieder Ruhe.
Das Problem war also das du dich nicht zu dem Modell informiert und Hersteller Angaben zum Thema Netzteilempfehlung und Strombedarf ignoriert hast? Lass mich raten, die höhere Abwärme wurde bei der Gehäusebelüftung nicht berücksichtigt wodurch die Karte noch zusätzlich im eigenen Saft schmorte und die Lüfter noch stärker aufdrehen musste?
 
  • Gefällt mir
Reaktionen: Iapetus
Ich denke tatsächlich das AMD diesmal einen großen Angriff fährt, durch den Release nach den neuen Nvidia wird man beim Preis und Leistung auch diesmal eher Spielraum haben.
Nvidia wird dieses Jahr sicher keine Super mehr nachschieben.

Für alle die auf 4k schielen sollten auf jeden Fall beide Releases abwarten, die Leistungssteigerung zur 2080Ti wird zumindest bei Nvidia sehr enorm, aktuell ist von bis zu 50% die Rede. Allerdings fraglich, was das dann kosten soll.
Hängt alles sehr von AMD ab, wie die ihre schnellsten Modelle bepreisen.
Ich ahne da übles, denn es kann gut sein das die Top Modelle alle um die 1.000 sein werden...
 
GroMag schrieb:
Achso, eine 2070 ist nicht fast 3x so schnell wie eine 970, aber nicht mal 50% teurer?
Der Umstand ist auch nur dem massiven Sprung von Pascal zu verdanken.
Der Vergleich von 1080 und 2070 zeigt dann z.B. dass die 2070 im Schnitt nicht mal ganz 10% schneller war als die 1080, dafür war die 1080 zu Release der 2070 etwas günstiger.

Und den 970 Käufer interessiert evtl auch nicht, wie viel schneller die 2070 ist, wenn er sein Limit dort hat, wo die 970 war, welches zu Release nicht mal für die 2060 gereicht hat.

Übrigens kam die 2070 für 519€ und die 970 für 321€, das sind +62% und damit deutlich über 50%.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer, NMA, Obvision und 2 andere
KuestenNebel schrieb:
Siehe Titan V: Verfügt über noch mehr Rohleistung als die Radeon VII, ein DP-Verhältnis von 1:2, 640 Tensorkerne und "nur" 12 GB VRAM. Trotzdem performt das Teil auch in Spielen durchaus akzeptabel und liefert beim Port-Royal-Raytracing-Test von 3D-Mark trotz fehlender RT-Kerne in etwa die Leistung einer RTX 2060 Super :D

Du freust dich allen ernstes bei einem derzeitigen 3000€ Monster die Leistung einer 2060 Super zu bekommen?
 
  • Gefällt mir
Reaktionen: elmex201
@Wadenbeisser

Bitte genau lesen: Die Titan V verfügt NICHT über Raytracing-Kerne, sondern führt das Pathtracing auf den normalen CUDA-Kernen durch. Das Ergebnis zeigt wie dramatisch der Leistungsgewinn durch spezialisierte Hardware sein kann. Bei allen anderen Tests liegt die Karte selbstredend deutlich vor fast jeder anderen Karte.
 
CrustiCroc schrieb:
Sicherlich eine der besten 57XT´s.
Die Treiber sind aber immer noch katastrophal ! Das kann mir auch keiner schön reden, und hat auch nix mit "Bedienfehler" zu tun.

Soviele Blackscreens, Chrashes, vergessene Treibersettings etc. sprechen einfach Bände.

Hatte ne Referenz 57 XT zu Release, dann ne Aorus 57 XT und auch mal ne Red Devil.
Hatte AMD immer mal wieder ne Chance gegeben, in meinem "AMD only" Rechner.

Irgendwann wurds aber auch da ne Nvidia Karte ( 2070 SUPER ), und die läuft und läuft und läuft....

Das ist einfach nur schwach von AMD, und ich behaupte mal das diejenigen die sagen : Bei MIR läuft die 57 XT ohne Probleme, sagen wir mal nicht ganz die Wahrheit sagen.

However, hoffe AMD bekommt das in den Griff, und die Leistung passt. Dann kanns was werden.

Kommt darauf an, wer die Karte installiert, aber jetzt hier wegen Vergangenem noch ein Fass auf zu machen (angelehnt an den unruehmlichen/wertenden Stil in einem PCGH Foren-Beitrag eines dafuer zu Recht auch angeprangerten PCGH Redakteurs) bzgl. der Navi10 AMD Treiber - die sicherlich kein Ruhmeszeugnis waren, das ist sicherlich wahr - ist dann evt. auch eher unpassend/wenig sachlich insgesamt, auch angesichts der auf 3D Center gelisteten RMA-Quoten Beispiele und der fuer nVidia eher peinlichen, hohen RTX 2080Ti/Turing Flaggschiffmodell Ausfaelle, die aber keiner hier mehr anfuehrt, was dann fast schon irgendwie nach Doppelmoral schreit.

Und wie im 3D Center Artikel angefuehrt, ist die angepreiste RTX 2070S eben die Revision der urspruenglichen RTX 2070 (mit weniger schmeichelhafter, zu Navi10 vergleichbarer RMA-Quote) waehrend die RX 5700XT eben bisher keinen Refresh erhalten hat.

So einfach und einseitig ist die Sachlage also nicht, wie Du sie hier (an Deinem Einzelbeispiel) darstellst, auch wenn natuerlich klar ist, dass Du enttaeuscht warst mit Deiner Erfahrung ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Obvision und Colindo
Taxxor schrieb:
Die Begründung ist doch viel simpler: Verbrauch.

40 CUs in der 5700XT verbrauchen 225W, wie hätte man mit dieser Effizienz bitte eine 80CU Karte umsetzen sollen? Selbst eine 64CU Karte wäre so schon bei weit über 300W gelandet.
Die Big Chips kann man sich jetzt mit RDNA2 erst leisten, wo man so eine 64CU Karte auf entsprechende 225W bekommen könnte bei gleichzeitig etwas höheren Taktraten.
Du kannst doch nicht eine 5700XT mit 225W nehmen und dessen Verbrauch einfach X2 rechnen.
Die 2x SI 256Bit = 512Bit
Eine imaginäre Leistungsstärkere RDNA1 Karte hätte max. 384Bit gehabt.
Ziehe daher lieber die 5600XT (2304) mit 192Bit (130-150W) für deine Vergleichszwecke heran.
Performance / Watt 5600XT

80CU's wären so wahrscheinlich nicht möglich gewesen, aber es wäre ein leichtes gewesen gleich viele wie bei der 2080ti/Titan RTX (68 - 72 SM, 4352/4608) bei vielleicht etwas geringerem Takt zu bringen.

Ob es am Ende die zu Beginn noch nicht ausreichende Yield-Rate war, oder ein anderes Produkt stattdessen priorisiert wurde, oder andere Gründe vorlagen weiß keiner außer AMD selbst.
Aber generell wäre es sicher möglich gewesen. Den die P/W ist bereits jetzt auf einem Level.
 
Meine 5700XT (2050/1.070mV) verbraucht bei 100% Last 160W. Das ist vollkommen in Ordnung.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DarkerThanBlack und Benji18
Precide schrieb:
Wann hat AMD das letzte mal beim HighEnd-Chip so wirklich geliefert? Ich würde sagen das ist jetzt mit der HD 5870 eine Dekade her. Entsprechend "hoch" sind meine Erwartungen....
Mit der 290X! Damals hat die 290X der Titan und 780Ti ganz schön eingeheizt. Und das auch für nur ~500 statt 1000€ (Titan).
 
KuestenNebel schrieb:
@Wadenbeisser

Bitte genau lesen: Die Titan V verfügt NICHT über Raytracing-Kerne, sondern führt das Pathtracing auf den normalen CUDA-Kernen durch. Das Ergebnis zeigt wie dramatisch der Leistungsgewinn durch spezialisierte Hardware sein kann. Bei allen anderen Tests liegt die Karte selbstredend deutlich vor fast jeder anderen Karte.
Ich habe genau gelesen, und?
Wer kauft sich so eine Karte zum daddeln damit die Argumentation irgendeinen tieferen Sinn hat?
Die Radeon VII bekam man für unter 800€ mit 16 GB statt 12 GB des ach so teuren HBM2 Speichers und kostete damit ca. 1/4 der Titan die man übrigens auch nur von nvidia selbst bekam und deshalb immernoch den ca. gleichen Preis hat. Der Vega Chip der VII hat übrigens auch von hause aus dein 1:2 Verhältnis bei der DP Leistung das auf 1:4 beschnitten wurde, wobei die Karte ursprünglich mit 1:8 rauskommen sollte.
Die volle Leistung des Chips bekam man aber nicht als Daddel sondern mit der AMD Radeon Instinct™ MI50/60 als reine Compute Karte und dann auch noch mit diversen Features dazu.

Das Ergebnis zeigt lediglich wieviel Leistung ein ineffizienter Einsatz kostet, zudem dürfte es selbstverständlich sein das nvidia ihre Software nur für die eigene Hardware optimiert, welche dann bei der Architektur der Konkurrenz entsprechend ineffizient läuft. Tech Demo eben.
 
Wadenbeisser schrieb:
Wer kauft sich so eine Karte zum daddeln damit die Argumentation irgendeinen tieferen Sinn hat?

Welcher tiefere Sinn soll das sein? Mein Vergleich zeigt lediglich wie viel Extra-Performance es braucht, um den Verlust der RT-Kerne zu kompensieren - nämlich wahrhaftig titanische Dimensionen :D

Die Karte ist teuer, ja, aber hinsichtlich der Performance in Deep-Learning-Anwendungen oder bei Berechnungen in doppelter Genauigkeit über jeden Zweifel erhaben. Außerdem haut Nvidia die Dinger kostenlos heraus, wenn man den Bedarf sinnvoll begründen kann :)
 
Zuletzt bearbeitet von einem Moderator:
GroMag schrieb:
Achso, eine 2070 ist nicht fast 3x so schnell wie eine 970, aber nicht mal 50% teurer?
Eine 970 kostete zum Release ca. 350 Euro eine 2070 zum Release ca. 600 Euro. Und das vier Jahre später. Ich hab im Winter 2014 eine R9 290 für 270 Euro gekauft. Die Leistungsmäßig irgendwo im Bereich einer RX 570. Eine Karte die heute noch für ca. 150 Euro verschachert wird und das nach 6 Jahren. Anfang 2019 bin ich auf eine 1060 umgestiegen ohne signifikanten Leistungssprung.

Wenn du das Technische Entwicklung nennst, dann prost Mahlzeit. Übertragen auf den 486er, der in den 90er noch sündhaft teuer war, müsste die heutige Technik Milliarden kosten.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und ThePlayer
@KuestenNebel

Warum fragst du mich welchen tieferen Sinn deine Argumentation haben soll?

Zum zocken ist die Karte zu teuer, für den DP Vergleich hat sie gegenüber der VII für den Preis zu wenig DP Leistung und wer eine entsprechende Workstation zum daddeln verwendet hat sie schon wegen dem Thema Datensicherheit nicht alle.
Nochmal zum Mitschreiben, du vergleichst eine 3000€ Karte mit einer 700-800€ Karte und freust dich nen Kullerkeks das sie im DP Einsatz bestenfalls doppelt so schnell ist und beim Raytracing daddel Einsatz mit einer 350-400€ RTX 2060 Super halbwegs mithalten kann, wobei diese nur so um die 100-150W weniger Strom fressen dürfte.

Käme das Ding von AMD hätte man es als ineffizentes und überteuertes Strom Monster verschrieen und der DP Leistung wie üblich jegliche Relevanz abgesprochen.
 
ArrakisSand schrieb:
Du kannst doch nicht eine 5700XT mit 225W nehmen und dessen Verbrauch einfach X2 rechnen.
Habe ich irgendwo 450W geschrieben?
Mit 64 CUs, 384bit und 12GB käme man immer noch auf ~350W, wenn die CUs auch so hoch takten sollen wie bei der 5700XT, was sie tun müssten um auch entsprechend genug Mehrleistung zu erzeugen, damit sich so ein großer Chip rechnen würde.
Mit 80CUs wären wir dann um die 400W.

ArrakisSand schrieb:
Ziehe daher lieber die 5600XT (2304) mit 192Bit (130-150W) für deine Vergleichszwecke heran.
Es sind 142-165W, wobei selbst das 165W BIOS noch fast 200MHz von den Taktraten einer 5700XT entfernt ist.

CUs verdoppeln, SI verdoppeln, VRAM verdoppeln bringt uns dann auf ~320W(~10W für anderen Stuff) und immer noch zu wenig Takt.
 
Zuletzt bearbeitet:
Kann hier mal jemand die Formel rein schreiben um die Leistungsaufnahme einer GPU zu berechnen?
Und wie kann man die Spannung runter rechnen, wenn man beispielsweise untervoltet?
 
Wadenbeisser schrieb:
Das Problem war also das du dich nicht zu dem Modell informiert und Hersteller Angaben zum Thema Netzteilempfehlung und Strombedarf ignoriert hast? Lass mich raten, die höhere Abwärme wurde bei der Gehäusebelüftung nicht berücksichtigt wodurch die Karte noch zusätzlich im eigenen Saft schmorte und die Lüfter noch stärker aufdrehen musste?
Wow, Du machst Deinem Namen alle Ehre. Nein, Du liegst in allem falsch. Logik ist nicht so ganz Deine Stärke, oder? Wenn dieser PC ein Abwärmeproblem hätte, würden andere GKs ebenso Probleme machen. Tuts aber nicht, Fakt ist, die genannten AMD Karten machten in diesem PC Probleme, die Nvidia Karten eben nicht. Und tu Dir bitte einen Gefallen, laß Unterstellungen, wenn Du keine Infos hast.

Wie gesagt, wir sprechen über Erfahrungen, und wenn Deine von meinen Abweichen, ist das nun mal so. Warum Leute wie Du immer daraus so ein (persönliches) Drama machen müssen, ist mir schleierhaft.
 
  • Gefällt mir
Reaktionen: CrustiCroc und adAstra
Zurück
Oben