News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

Jethro schrieb:
Das ist ne Aussage, einerseits soll AMD liefern und wenn sie es tun wird trotzdem ne NV Karte gekauft.
Wenn sie wegen Geldmangel nicht liefern wird sich drüber aufgeregt was fürn Mist die wieder abliefern.
Für Leute wie Dich sollten NV Karten ruhig noch teurer werden.

Einer der besten Posts hier, genau so sieht es aus.
Käufer wie dieser, haben den aktuellen und extrem überteuerten GPU Markt zu verantworten.
 
  • Gefällt mir
Reaktionen: elmex201, ThePlayer, Benji18 und 6 andere
@Wadenbeisser

Wadenbeisser schrieb:
Vergleich hat sie gegenüber der VII für den Preis zu wenig DP Leistung
In diesem Preissegment gibt es keinen linearen Zusammenhang zwischen Preis und Leistung. Insbesondere natürlich, wenn die Konkurrenz kein adäquates Produkt entgegensetzen kann.


Wadenbeisser schrieb:
beim Raytracing daddel Einsatz mit einer 350-400€ RTX 2060 Super halbwegs mithalten kann,
Noch einmal für dich: Im Gegensatz zur RTX 2060 Super hat die Titan V keine RT-Kerne. Darüber hinaus handelt es sich um keine Gaming-Karte.

Wadenbeisser schrieb:
Käme das Ding von AMD hätte man es als ineffizentes und überteuertes Strom Monster verschrieen
Äpfel und Birnen? Selbstverständlich schlägt sich eine Karte mit RT-Kernen in entsprechenden Benchmarks besser als eine Karte ohne. Hast du mal den Score der Radeon VII im Port-Royale-Benchmark gesehen? Setze das dann mal in Relation zur TDP von 295 Watt, vergleiche dies mit der höheren Leistung der Titan V bei nur 250 Watt TDP und denke dann noch einmal über deine Ausführungen zum Thema Effizienz nach :D

Komplett absurd wird es dann, wenn wir über die Tensorleistung im Bereich Deep Learning sprechen, wo die V im Idealfall bei 110 TFLOPS landet. Was schafft die Radeon VII im Vergleich dazu? Für meinen Anwendungsfall ist die Titan V einfach die optimale Karte und wurde mir von Nvidia auf Antrag dankenswerterweise kostenlos zur Verfügung gestellt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaraElfer und PHuV
Interessantes Teil wirds ganz sicher. Aber wenn ein Teil nicht drauf läuft völlig uninteressant für mich.
 
Bei mir war die Grenze auch noch vor 4 Jahren 400€ aber was soll ich machen?
tstorm schrieb:
Wer sich ein Auto über 30.000€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich ein Haus über 150.000€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich eine Kaffeemaschine über 100€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich einen Fernseher über 1000€ zulegt dem ist auch nicht mehr zu helfen...
Wer sich eine Küche über 5000€ zulegt dem ist auch nicht mehr zu helfen...

Willst du wieder übernehmen? Mir fallen kaum noch weitere blöde Aussagen dieser Art ein.


Boden wischen? Sehr erwachsen...!

Wenn man sich wegen den Preis unterhält und vergleiche zieht sollte man sich bitte folgendes beachten:

Ich könnte mir heute 20 Tis kaufen ohne einen Kredit zu nehmen. Auch wenn man genug hat, sollte man eine Schmerzgrenze haben. Das sollten eigentlich intelligente Menschen machen, die mit ihren Geld gut wirtschaften wollen.

Und 1000 Euro sind halt Wucherpreise für eine Grafikkarte genau so wie 50000 Euro Neupreis für ein Mittelklasse Wagen.

Wenn dir das alles egal ist, dann gehörst du zu den die wirklich genug haben oder die sich halt ausnehmen lassen.

Keine Frage der Markt regelt den Preis aber wenn ich sehe wieviele für ein für ein iPhone 1300€ ausgeben und ein Monat oder fast ein Monat dafür arbeiten müssen, dann ist das schlichtweg dumm und genau so siehts mit der Grafikkarte aus...

Viele können sich einfach nur nicht kontrollieren(!) und genau deshalb sollte man es ansprechen, dass es sich hier um Wucher Preise sich handelt!
Vielleicht hält es den ein oder anderen davon ab und dann bewirken solche Kommentare auch was ;)

Wirst du dein Freund der ein 1500€ Job hat nicht versuchen zu erklären, dass es vielleicht wirtschaftlich unklug sei ein Fernseher für 5000€ zu kaufen auch wenn er den Fernseher so geil findet?

Also grundsätzlich geht es nur darum, den Leuten verständlich zu machen, dass hier eine Monopolstellung gnadenlos ausgenutzt wird. Entscheiden kann jeder dann immer noch selbst.

Ich glaube darum ging es den User.. ich tippe Mal darauf und das sollte man auch ansprechen. Nvidia übertreibt es schlichtweg mit den Preisen. Punkt.
 
  • Gefällt mir
Reaktionen: gAAra33
Taxxor schrieb:
Habe ich irgendwo 450W geschrieben?
Mit 64 CUs, 384bit und 12GB käme man immer noch auf ~350W, wenn die CUs auch so hoch takten sollen wie bei der 5700XT, was sie tun müssten um auch entsprechend genug Mehrleistung zu erzeugen, damit sich so ein großer Chip rechnen würde.
Mit 80CUs wären wir dann um die 400W.


Es sind 142-165W, wobei selbst das 165W BIOS noch fast 200MHz von den Taktraten einer 5700XT entfernt ist.

CUs verdoppeln, SI verdoppeln, VRAM verdoppeln bringt uns dann auf ~320W(~10W für anderen Stuff) und immer noch zu wenig Takt.

Wieso sollte man 64CU's analog der 5700XT auf 1.9GHz takten?
Die 2080tiFE taktet doch offiziell auch nur mit 1.623GHZ bzw. unter realen Bedingungen so hoch wie auch immer.

Die 5600XT ist Pi mal Daumen 20% langsamer als eine 5700XT und die 2080ti wiederum ca. 50% schneller als eine 5700XT.
Ergo 66.7% * 0.8 = 53.4% x1.7 ( realistischer Wert bei einer Verdoppelung der Einheiten bei Gleichbleibendem Takt und leichten bis mittlerer Limitierung der Speicherbandbreite ) = 91% der Leistung der 2080tiFE.

Die von mir zuvor gepostete Effizient Tabelle zeigt doch schwarz auf weiß, das die 5600XT in dieser Hinsicht
mit den den besten Karten von NVIDIA konkurieren kann, weswegen es mich verwundert wieso du dich so vehement gegen die Tatsache stemmst das AMD und NVIDIA was die Effizienz anbelangt keine 5% trennen.
 
ArrakisSand schrieb:
Wieso sollte man 64CU's analog der 5700XT auf 1.9GHz takten?
Die 2080tiFE taktet doch offiziell auch nur mit 1.623GHZ bzw. unter realen Bedingungen so hoch wie auch immer.
Eben, unter realen Bedingungen taktet eine 2080Ti mit 1,9GHz sogar leicht höher als eine 5700XT.

Und die hat 68SM, wenn AMD im oberen Bereich auch nur gleich gut wie Nvidia skaliert müssten hier schon 2GHz stehen um an die 2080Ti zu kommen.
ArrakisSand schrieb:
Die von mir zuvor gepostete Effizient Tabelle zeigt doch schwarz auf weiß, das die 5600XT in dieser Hinsicht
mit den den besten Karten von NVIDIA konkurieren kann, weswegen es mich verwundert wieso du dich so vehement gegen die Tatsache stemmst das AMD und NVIDIA was die Effizienz anbelangt keine 5% trennen.
Weil du die Effizienz der 5600XT nicht so hochrechnen kannst. Nur weil sie im Bereich einer 2060 ähnlich effizient ist, heißt das nicht dass es weiter oben so bleibt, siehe 5700XT vs 2070.
Da stehen 30% Mehrverbrauch gegen 10% Mehrleistung.
 
  • Gefällt mir
Reaktionen: Maggolos und .Sentinel.
Taxxor schrieb:
Nur weil sie im Bereich einer 2060 ähnlich effizient ist, heißt das nicht dass es weiter oben so bleibt, siehe 5700XT vs 2070.
Da stehen 30% Mehrverbrauch gegen 10% Mehrleistung.
Das ist eben nicht alles
AMD gegen Nvidia: RMA-Quote führt zu Diskussionen und wirft Fragen auf
Laut Tabelle haben sowohl die Radeon RX 5700 XT als auch die Non-XT-Variante eine RMA-Quote von 4 Prozent. Bei der Geforce RTX 2070 steht diese Quote hingegen nur bei einem Prozent;
:
Die Radeon RX 5700 XT etwa hat den hinterlegten RMA-Quoten nach tatsächlich nur eine Quote von 3,17 statt 4 Prozent. Nachvollziehbar hingegen sind die auf 4 gerundeten 3,87 Prozent der Radeon RX 5700. Umgekehrt wurden die von uns errechneten 1,55 Prozent der Geforce RTX 2070 auf ein Prozent abgerundet.
Und in dem Artikel steht noch was von Kinderkrankheiten und Co.

Sowas sollte man auch mal in Betrachtung ziehen, und nicht nur immer die Leistung und den Verbrauch.

Wenn ich mal so etwas zurückschauend betrachte, haben mich AMD Karten in Summe immer etwas mehr geärgert. Vielleicht ist das dem geschuldet, daß man mit den Macken der doch eher überwiegenden Nvidia Karten besser zurechtkommt.
 
PHuV schrieb:
Das ist eben nicht alles
Um fair zu bleiben die Zahl ist für AMD hier nur deshalb so hoch weil die Powercolor Karten 6% RMA Rate haben, bei der 5700 sogar 13%.
Fast alle anderen sind auch nur bei 2%, die verhauene erste Thicc von XFX sticht noch etwas raus
 
Taxxor schrieb:
Eben, unter realen Bedingungen taktet eine 2080Ti mit 1,9GHz sogar leicht höher als eine 5700XT.

Und die hat 68SM, wenn AMD im oberen Bereich auch nur gleich gut wie Nvidia skaliert müssten hier schon 2GHz stehen um an die 2080Ti zu kommen.

Weil du die Effizienz der 5600XT nicht so hochrechnen kannst. Nur weil sie im Bereich einer 2060 ähnlich effizient ist, heißt das nicht dass es weiter oben so bleibt, siehe 5700XT vs 2070.
Da stehen 30% Mehrverbrauch gegen 10% Mehrleistung.

takt 12080ti.png

So 1.75Ghz im Schnitt sind wohl realistischer als deine 1.9GHz

Die 5600XT schaft auch ca. 1.7GHz bei 147W (Bios 2) im Spieledurschnitt.
takt 5600xt.png

Müsste sie den ganz ran kommen? 10-15% langsamer wären für RDNA1 schnell genug.
Die 2070 (2304) kannst du nicht mit der 5700XT ( 2560) vergleichen.
Der Gegenspieler der 2070 ist die 5700.

Und wieso 64CU eine Doppelte 5600XT hat 2x36CU's= 72CU vs. 68CU der 2080ti die müsste man auch nicht so hoch takten um der 2080ti schon gefährlich nahe zu kommen.
 
Zuletzt bearbeitet:
GUN2504 schrieb:
Also AMD, bitte wieder eine 5850 oder R9 290x :D

Aber bitte ohne die Leistungsaufnahme oder Abwärme, das steh ich nicht noch weiter durch. Wundert mich aber nach wie vor wie meine 280X noch performt. :lol:

Die Specs klingen schonmal vielversprechend, freu mich schon auf die neuen Karten 🙂
 
  • Gefällt mir
Reaktionen: GUN2504
Ich kaufe immer gebraucht. Werde dabei bleiben. Bekommt man ein gutes P / L Verhältnis.
Wobei meine 1080 mir derzeit reicht.
 
@Shoryuken94
ich kann mich durchaus noch an die 700er gtx karten erinnern.
was hierbei jedoch immer vergessen wird, ist dass so ein gespann aus gpu und vram nicht bliebig kombinierbar ist und auch nicht beliebige kosten verursachen darf UND dann noch in der gewählten koniguration ordentlich performen muss - ansonsten darf man dann bei der vorstellung und der nennung der UVP eine riesenlavine an "zu teuer!" oder "zu lahm!" gejammere anhören!
fertigung in 7nm hat seinen preis - besonders wenn diese chips so riesig werden...wenn man den gerüchten glauben mag, wird big navi irgendwo im bereich zw. 430mm² und 500mm² landen - das ist alles andere als klein. ein vollausbau mit 80cu bedeutet dass dafür nur chips verwendet werden können, die vollständig i.o. sind - alles andere wäre eine salvage lösung mit entsprechend weniger cu's.

also - die meisten vram chips existieren bisher in 1GB und 2GB varianten (ob es von gddr6x auch 4GB pro chip geben wird, weiß ich nicht..)
bei 192bit breitem bus a 32bit sind 6 vram-chips möglic..also 6GB oder 12GB vram insgesammt.
bei 256bit...8 chips...8/16GB vram
bei 320bit..10 chips..10/20GB vram
bei 384bit..12 chips..12/24GB vram

ein 2GB vram chip (gddr6) kostet im "freien" handel ca. 24$ bei größeren batches - wahrscheinlich werden amd/nividia jedoch sonderkonditionen haben die gutes stück darunter liegen. nehmen wir mal an dass diese dafür nur die hälfte(!!) bezahlen - bei 12 dieser chips für die 24gb lösung sind das ca. 150$ (!!) hk1 nur für das vram; und das nur als gddr6-non-x!! was darf eine bignavi graka mit 24gb gddr6x den so kosten, damit es nicht zu teuer wird??
wie gesagt..das sind nur die preise die man so für gdd6 findet, geschweige den für gddr6x.
(die 1GB vram chips kosten etwas weniger als die hälfte gegenüber den 2GB varianten..ca 10-11$)
jetzt kann man sich mal grob überlegen was das für die karten - auch die von nvidia so bedeutet.

um mal die sicht für einige hier etwas zu schärfen: wenn man dann meint dass man einen 320bit tsmc-7nm (oder von mir auch samsung-8nm) chip mit 20GB vram doch bitte für ~300-400$ kaufen mag, ist das schlicht eine überzogene erwartungshaltung.
desweiteren ist es nichts neues dass die konsolen zu anfang ihrer lebenszeit die pc's leistungstechnisch überflügeln; das gab es schon paar mal. nur leben die kosolen von generation zu generation mehrere jahre.

zwischen der ps2 und der ps3 lagen 6,5 jahre - zwischen der ps4 und ps4 waren es fast auf den tag genau 7 jahre.
wenn man sich da mal anschaut was zum jeweiligen releasezeitpunkt an gpu's so verkauft wurde...

märz 2000 (ps2) -> release zw. geeforce 256 und geforce 2 generation bzw. noch vor der ati radeon 7000er gen (dx7)
bei der hälfte der ps2 "produktlaufzeit" - ca. sommer 2003 - gab es bereits den ersten directx9 beschleuniger in form der geforce fx (sowas wie geforce fx5800 - also schon nach geforce3 und geeforce4, also die gesammte dx8 ära!!) bzw die radeon 9000er serie bei ati!

bei launch der ps3 (november 2006) - war die geforce7 reihe halbes jahr auf dem markt (z.b. geforce 7800gt) - ati bot die x1000 serie an (z.b. die x1950 pro)
dreieinhalb jahre später (anfang 2010) - war man kurz vor dem launch der ersten directx11 nvidia gpu..der 400er serie, respektive die radeon hd4000er gpu war bereits seit monaten auf dem markt, ende 2010 kamen dann die hd5000er als dx11 gpu raus..

so könnte man auch bei de ps4 (oder auch bei den xbox derivaten) vergleichen und würde feststellen dass die kosolen irgendwann im laufe ihres "lebens" von den gpu wieder überrundet wurden - das scheint sowas wie der natürliche zyklus zu sein: anfangs legen die konsolen ordentlich vor und irgendwann jammern viele wieder über die trostlosen konsolen-pc ports..
 
- Faxe - schrieb:
Aber bitte ohne die Leistungsaufnahme oder Abwärme, das steh ich nicht noch weiter durch.
Das ist in den leitzten Jahren nicht wirklich besser geworden. Sapphire hat da mit der Nitro+ SE ein mit der 290X vergleichbares Heizeisen geschaffen :D
Im Winter ist das doch ganz angenehm. Im Sommer wirds halt etwas unangenehm.

Ich kenne das Problem und hätte schon längst einen Radiator an die Außenwand gedübelt, wenn Wakü nicht so verdammt teuer wäre.
- Faxe - schrieb:
Wundert mich aber nach wie vor wie meine 280X noch performt. :lol:
Die ist echt gut gealtert. Von der Leistung ist die vorallem mit OC durchaus mit einigen Abstrichen auch noch für aktuelle Spiele geeignet. Wenn die Karte nur mehr VRAM hätte, könnte man damit auch ohne Pixelmatsch spielen.
(Für alle die die Karte nicht kennen: Bei hohen Texturauflösungen gibt es mit 3GB VRAM z.T. heftige Microruckler. Da hilft dann nur noch die Texturen/Details zu reduzieren)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: - Faxe -
DavidG schrieb:
Naja, mit den Ryzen, die eine sehr hohe Marktdurchdringung haben, wird ganz gut Geld verdient.
Sie haben in Summe wenig Marktdurchdringung, weil die OEMs Intel fest die Treue halten. Dort wird die Stückzahl gemacht, nicht im Online-Versand für Technikfans wie du und ich.
 
Wadenbeisser schrieb:
Ich habe genau gelesen, und?

Du hast den Kontext der Diskussion genauer gesagt überhaupt nicht verfolgt, von lesen, kann da keine Rede sein und von genau lesen schon gar nicht.
Es ging im den Mythos, dass der angebliche Ballast bei Hawai eine gute Gamingperformance verhindert hätte und die Titan V zeigt, dass es eben nicht so ist, weil die Gamingperformance der Karte hervorragend ist.

Als Zusatz kommt dann noch die herausragende Leistung unter RT workloads, in der die Karte ohne fixed function units alle anderen ohne! RT Cores nass macht. Dich hat nur der Besitz der Titan V gestört.
Die Karte ist aber leider geil, auch wenn der Preis astronomisch war.
 
Zuletzt bearbeitet von einem Moderator:
Wäre es ein kluger Schachzug seitens NVIDIA ihre kommenden RTX-GPUs schon diesen oder nächsten Monat releasen zu wollen? Wirklich nötig haben sie es momentan noch nicht und das nächste prestigeträchtige Spiel um RT massiv bewerben zu können, erscheint erst im November. Warum nicht der Konkurrenz den Vortritt lassen und bei Bedarf einen draufsetzen?

NVIDIA wird doch intern mit Sicherheit auch eine "Vorahnung" haben, wo BigNavi rein leistungstechnisch landen könnte. Navi 10 konnten sie ja auch "kurzerhand" mit dem S für Super wieder ausstechen.

Bei all der Euphorie kocht auch AMD nur mit Wasser und wie gut damals Vega mit "Poor Volta" wurde, wissen auch alle. Zwar lässt Navi 10 schon deutlich besseres vermuten, dennoch bin - zumindest ich - skeptisch und warte auf nackte Zahlen.

Ob AMD mit Big Navi auch ein Pendant zu DLSS 2.0 / ... liefern können wird, steht auch noch nicht fest.

Mal sehen wer meine 2080Ti ablösen wird - Ampere oder vlt. doch Big Navi. Auf jeden Fall müssen erst einmal Wasserkühler für die GPUs erscheinen. :)
 
Woher kommt die Erkenntnis, dass diese Informationen aus dem Treiber stammen? Ich sehe da in keiner der Quellen einen direkten Hinweis darauf.
 
PHuV schrieb:
Wow, Du machst Deinem Namen alle Ehre. Nein, Du liegst in allem falsch. Logik ist nicht so ganz Deine Stärke, oder? Wenn dieser PC ein Abwärmeproblem hätte, würden andere GKs ebenso Probleme machen. Tuts aber nicht, Fakt ist, die genannten AMD Karten machten in diesem PC Probleme, die Nvidia Karten eben nicht. Und tu Dir bitte einen Gefallen, laß Unterstellungen, wenn Du keine Infos hast.

Wie gesagt, wir sprechen über Erfahrungen, und wenn Deine von meinen Abweichen, ist das nun mal so. Warum Leute wie Du immer daraus so ein (persönliches) Drama machen müssen, ist mir schleierhaft.
Offenbar ist mein logisches Verständnis besser ausgeprägt als du glaubst.
Wenn die Gehäusekühlung die zusätzliche Abwärme, welche die Custom Kühler fröhlich im Gehäuse abladen, nicht vernünftig abführen kann heizt es sich entsprechend auf und die Lüfter der Grafikkarte müssen unnötig weit aufdrehen, schließlich hast du eine Karte mit einer TDP von 275W mit 2 Karten verglichen die lediglich ca. 120W besitzen. Wenn das Gehäuse dann auch noch schön schmal ist und sich die Abwärme unter der Karte richtig schön stauen kann kommt nochmal richtig "Freude" auf.
Hättest du dich im Vorfeld informiert dann wäre dir vielleicht auch vor deinem Testlauf aufgefallen wenn das Netzteil zu knapp bemessen ist, die Hersteller gben schließlich nicht aus langer Weile Empfehlungen zur Netzteil Leistung raus und aufgrund deiner Beschreibung habe ich große Zweifel das du dir auch nur ansatzweise Gedanken um den Mehrverbrauch, dessen Kühlung und die Stromversorgung gemacht hattest.

Es hat auch einen recht einfachen Grund warum deine Erfahrungen von meinen Abweichen, ich rechne seit zig Jahren mit 300W für die Grafikkarte, 125W für die CPU und lege auch die Gehäusekühlung und Stromversorgung entsprechend aus. Beides wird von daddel Hardware kaum erreicht, wodurch die Config entsprechend viel Spielraum für neue Hardware besitzt.
Frißt die verbaute Hardware weniger ist es ein Bonus für die Lautstärke des Systems und die Lebensdauer des Netzteils.
 
R O G E R schrieb:
Die Karte hatte damals geile Specs aber irgendwie kam die Leistung nicht auf den Boden an :-)
Könnte auch meine Vega 64 sein, richtig viel Rohleistung, in Spielen jetzt auch alles andere als langsam, aber trotzdem kann die ihre vorhandene Leistung nicht so wirklich in FPS umwandeln, dafür jedoch in Wärme.

Nunja, die GPU schafft meine Ziele 4K60 fürn TV und UWQHD mit mind. 90fps in den meisten Spielen mit hohen Settings von daher will ich mich gar nicht beschweren.
Bin mal gespannt was RDNA2 aufs Parkett bringt, wird sicher spannend. 80CUs klingt aber auch schon wieder nach massig Saft. Immerhin werden das GPUs mit denen 4K120 ein realistisches Ziel sind.
 
Zurück
Oben