Notiz GPU-Gerüchte: AMD Navi 21 mit 80 CUs auf Basis von RDNA2

Anders. Wenn die Konsolen den Prozess wechseln, dann wird TSMC teilweise auch die Produktionslinien für die alten Konsolen auf 7nm umrüsten. Insofern hat die Kapazität für Sony und MS kaum etwas mit den Grafikkarten zu tun.
 
  • Gefällt mir
Reaktionen: PS828
Inxession schrieb:
Treiberseitig seh ich AMD auch mittlerweile weit vorne.

habe ich irgendwas verpasst? ich lese ständig von Treiberprobleme beim AMD

Inxession schrieb:
nVidia reitet irgendwie zu sehr diesen RTX Zug.
Ist aber auch irgendwie verständlich, wenn eigentlich nur RTX den Unterschied zum vorher "günstigeren" Pascal Portfolio bietet.
Ohne nVidias extrem penetrante RTX Werbung würde das zum jetzigen Zeitpunkt wieder von der Bildfläche verschwinden. Bis zum erscheinen der RT fähigen Konsolen Generation muss nVidia also alle Spieleschmieden unter die Arme greifen um den Vorteil von RTX überhaupt an den Mann zu bringen.
1. weiß ich nicht, warum sich alle über RTX so aufregen. Habt ihr euch über AA + AF auch so aufgeregt?
2. wenn mans nicht braucht oder will, einfach deaktivieren.
3. Turing hat auch leistungsmäßig ganz schön aufgesattelt. Zwischen einer 1080 und ein 2080 liegen immerhin fast 50% Mehrleistung. Und das obwohl es nichtmal eine AMD-Konkurrenz gab, bzw. sich diese mit der Vega7 auf den gleichen Preisspot nachträglich gesetzt hat.

Inxession schrieb:
Von Pascal 1080 ti zu Turing 2080 absolut kein Leistungssprung, aber 30% mehr Kosten.
Das kann man nur mit der RTX Werbekampagne erklären.
schau dir mal die Benchmarks an. Eine 1080Ti hat eher die Leistung einer 2070 als einer 2080.

Inxession schrieb:
Aber genau um diese frechen Preise in Zukunft zu vermeiden, sollte man doch zumindest dort, wo Konkurrenz vorhanden ist (<2080) am besten zu AMD greifen.
Ja nur leider bringt AMD nur HighPersormance und nicht Highend. Und AMD macht genauso freche Preise. Siehe zB die 5500/5600 Preise, die sich leistungsmäßig auf dem Niveau einer 5 Jahre alten 290XT (zumindest die 5500) bewegen bzw. bei der 5600 vermutlich auf Niveau einer Vega 56, die es schon für 240 Eur gab, (gut effizienter, aber nach 5 Jahren für diese Leistung noch 200 Eur / 300 Eur zu verlangen, ist jetzt nicht gerade faire Preisgestaltung/Schnäppchenalarm). Wenn AMD wirklich was für die Kunden hätte machen wollen, hätten sie die 5500 für 130-150Eur auf den Markt gebracht und sich die Kohle für Marketing/Entwicklung etc. der 5600 gespart, stattdessen die 5700 für 250 Eur angeboten und die 5700XT für 320 Eur. Stattdessen springen sie genauso immer nur so hoch, wie sie müssen. Glaube nicht, dass AMD "besser" ist als Nvidia. Das ist genauso eine kapitalistische AG, die Kohle verdienen will, wie die anderen Pendants. Geschenkt wird dir da nichts.

Inxession schrieb:
Anhand der Mindfactory Zahlen sehen das zum Glück viele Leute ähnlich und greifen zur 5700(XT)
was sagt ein Händler aus? Gar nichts. Trotzdem ist Nvidia immer noch "größer" als AMD mit dem Grafikkarten und CPU Markt zusammen.

Inxession schrieb:
Auch die Generaldebatte über 5500 zu teuer .... (ja, weil Apple massig Chips benötigt)
komische Doppelmoral.
Warum sollte NV ihre Karten günstiger verkaufen, wenn sie konkurrenzlos sind und für den Preis loswerden? Weil Du es willst?

Inxession schrieb:
... oder 5600 XT nur 6 GB VRAM ... (ja, aber wie viel Mehrspeicher bietet nV in dem Preissegment?) ...
auch komische Doppelmoral. Sonst wird immer auf NV eingedroschen, mit ihren nur 6GB. Bei AMD ist dann das Argument, die Konkurrenz bringt ja auch nicht mehr? Das trägt nicht zumal es unterschlägt, dass NV ein deutlich besseres Speichermanagement hat als AMD und die NV-Karten ausweislich der letzten CB-Tests besser mit "wenig" GRAM zurecht kommen, als AMD.

Inxession schrieb:
Da ist mir ein gesunder Konkurrenzkampf mehr Wert als RTX.
Solange AMD nicht an die Leistung von NV rankommt, wird es auch keinen Kampf geben. Insoweit bleibt zu hoffen, dass beide in der nächsten Generation eine ordentliche Schippe drauflegen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: noxon
CrustiCroc schrieb:
So war es nicht gemeint, meine Antwort bezog sich auf den Post der behauptete, die AMD Treiber seien bezüglich der Stabilität der Konkurrenz haushoch überlegen.
DAS sind Alternative Fakten !
Ah, OK. Wobei, was ist Haushoch? Für so ein Urteil müsste Nv schon ziemlichen Schrott abliefern.
Ich muss aber ganz Ehrlich sagen, die AMD Treiber gefallen mir ein gutes Stück besser.
Da macht Nvidia für mich nicht den besten Eindruck.
AMD hat da ab 2015? angefangen deutlich Gas zu geben.
Über Stabilität erlaube ich mir jetzt mal gerade kein Urteil, da ich keinen Grund habe. ;)
Der AMD Treiber ist für mich aber deutlich besser zu Händeln bzw benutzbar. Und macht Optisch den moderneren Eindruck.
 
yummycandy schrieb:
Ehrlich, ich halte viel von den derzeitigen Architekturen, aber das bekommen sie noch nicht hin. Die Chips sind mit 7nm teurer geworden, nicht günstiger.
Naja man wird abwarten müssen. Wenn echtes 4K Standard sein soll, müssen sie schon auch in diese Leistungsregion vorstoßen. Und die Preise hängen von verschiedenen Faktoren ab, wie Abnahmemenge, Marge, Konditionen, etc.
 
Rage schrieb:
Die komplette Xbox Series X soll mit weniger als 250 Watt an der Dose auskommen, mehr ließe der Stecker, der auf den CES-Rendern zu sehen war, nicht zu. Und da sind angeblich 56 RDNA2 CUs, Raytracing, ein 8 Kern-Zen 2 Prozessor und etliche GB GDDR6 dabei.

Die Leaks zu neuen Xbox zeigen aber auch eher niedrigere Taktraten.
Schon ein Ryzen 1700 ließ sich bei ca. 3 ghz Takt mit 30 Watt betreiben. Man schaue sich mal die kommenden APUs an, da wird der CPU Teil alleine für 8*3,irgendwas Ghz wohl deutlich drunter bleiben.
Navi fängt auch erst richtig an zu saufen wenn der Takt hoch geprügelt wird. Verzichtet man auf die letzten 10% Performance kann man gerne mal 30% Energie einsparen.
 
  • Gefällt mir
Reaktionen: Rage und mic3107
CrustiCroc schrieb:
Das ist Schwachsinn !

Du denkst also : "Aha ! Intel hat gepennt, AMD nicht, nun ist Intel hinten dran. Und weil Lisa Su cleverer als alle andere CEO´s auf diesem Planeten ist, wird sich genau das bei den GPU´s wiederholen"

Kleine Gedankenstütze : Der Tag an dem etwas "Schief ging", war bei AMD´s GPU Sparte bildhaft gesprochen jeder Zweite in den letzten Jahren.

Träum weiter.

Hallo CrustiCroc....

Also ich denke nicht Intel hat "gepennt", sie haben eventuell ein paar Probleme das wollte ich sagen und es läuft nicht wie geplant mit 10nm, oder willst Du das in Frage stellen? Und Intel macht immer noch sehr gute Chips keine Frage.
Ich denke auch nicht Lisa ist der schlaueste CEO, Sie macht vieles richtig, meiner Meinung nach, das war es schon. Und AMD's GPU Sparte hat in der Tat sich in den letzten Jahren einige Fehler geleistet auch das steht außer Frage.

Nur weil das das so war, heißt das nicht das es immer so weiter geht, und ich erwarte nicht das AMD aus dem nichts eine "wahnsinns High End GPU" raushaut, das wird nicht passieren, das muss AMD aber auch nicht.
Ich halte AMD Navi für einen Schritt in die richtige Richtung. Weitere müssen folgen. Ryzen 3xxx ist auch nur da wo er jetzt ist, weil es Ryzen 2xxx und Ryzen 1xxx in einem "Takt" gab, den ich AMD nicht zugetraut hätte.
Das ist es was AMD auch in der GPU Sparte machen müssen, die "Schlagzahl" erhöhen. Ob sie das können wird sich zeigen.

Nur irgendwie habe doch eigentlich nichts vom dem geschreiben, oder?

Ich kann nur diesen "Reflex" mit vorgefertigten Meinungen nicht nach vollziehen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Summerbreeze schrieb:
Ah, OK. Wobei, was ist Haushoch? Für so ein Urteil müsste Nv schon ziemlichen Schrott abliefern.
Ich muss aber ganz Ehrlich sagen, die AMD Treiber gefallen mir ein gutes Stück besser.
Da macht Nvidia für mich nicht den besten Eindruck.
AMD hat da ab 2015? angefangen deutlich Gas zu geben.
Über Stabilität erlaube ich mir jetzt mal gerade kein Urteil, da ich keinen Grund habe. ;)
Der AMD Treiber ist für mich aber deutlich besser zu Händeln bzw benutzbar. Und macht Optisch den moderneren Eindruck.
Stimme dir da 100 % zu !
Der AMD Treiber ist in der Tat sehr viel moderner.

Funktionell sind generell beide. Mir ist das bunte, hübsche selber nicht so wichtig, da ich den Treiber so gut wie nie öffne.

OC, sowie Lüfterkurve geh bei mir nur über den MSI AB.

Ich nutze selber immer mal wieder AMD Karten. Mein Kurzer hat ne RX 5700 XT im Rechner.
Dort ist der Treiber derzeit schon etwas instabil, bzw. es kann auch die Karte selbst sein ( Powercolor Red Devil ).

Wir haben recht oft Bluescreens und Crashes mit Meldung des Grafiktreibers. Ob das Problem letztlich von der Karte selbst kommt, ist schwer zu sagen.
MF hat sie ausgetauscht, aber das Problem blieb bestehen.

Wir haben dann Quer getauscht, also meine 2070S aus meinem Zweitrechner in seinen, die 57 XT in meinen Rechner.
Die Crashes waren dann bei ihm weg, und bei mir vorhanden.

Objektiv betrachtet kann man also behaupten, entweder ist der AMD Treiber instabil oder halt die 57XT an sich.
( Deckt sich auch mit zig Foreneinträgen dazu )
 
  • Gefällt mir
Reaktionen: GERmaximus und Smartin
Zero_Point schrieb:
Weil Hardware bekanntlich noch nie günstiger wurde. :rolleyes:
Die Geforce 1 Käufer müssen ein zertrümmertes Gesicht haben, wenn man sieht, was sie heute für das Geld bekommen würden. Hätten die mal nur gewartet. ;)

lol. die preise von nvidia sind (zumindest seit rtx) eh ein schlag ins gesicht des käufers.
 
Mr. Rift schrieb:
So sieht's aus. Mindestens 20% auf die 2080ti sollte schon sein, um mit Nvidias 3000 Rheie einigermaßen mit zu halten.

Dann taucht aber immer noch der AMD interne Codename Nvidia Killer auf in diversen Getüchten als Big Navi Nachfolger??
Ja das ist kein Code Name im Sinne eines real benannten Chips von AMD, aber angeblich nennen ihn die Mitarbeiter so....und es soll nicht Navi21, sondern Navi 23 sein.
Zumindest laut Redgamingtech.com

Zu wünschen wäre es ja.
 
ja technisch gesehen wäre es mit Ampere kein Problem 50% drauf zu packen.

Es gibt auch Leaks von heute die stimmig wirken
MyDrivers is reporting on two new GPUs in the Ampere family of GPUs: GA103 and GA104. Long-time nerds and enthusiasts will note that the GA103 is an interesting entry, as we would've expected GA102 and GA104, but GA103 is reportedly powering the upcoming GeForce RTX 3080 and has some beast specs with it.

GA103 will reportedly pack 3840 stream processors, 60 SMs, and 10/20GB of GDDR6 on a 320-bit memory bus. The 10/20GB VRAM option there is an interesting one, as we haven't had a card with 20GB of VRAM before. Moving onto the GA104, we have 3072 stream processors, 48 SMs, and 8/16GB GDDR6 on a 256-bit memory bus -- this will take form in the GeForce RTX 3070.

Read more: https://www.tweaktown.com/news/7005...070-leaked-specs-up-20gb-gddr6-ram/index.html

Zum Vergleich:

RTX 2070 aka TU106 hat aktuell 2304 Shader, 256Bit SI - 8GB
RTX 3070 aka GA104 hätte dann 3072 Shader, 256 Bit SI - 8GB

RTX 2080 aka TU104 hat aktuell 2944 Shader, 256 Bit SI - 8GB
RTX 3080 aka GA103 hätte dann 3840 Shader, 320 BIT SI - 10GB

für sich stimmig. Denkbar dass der GA103 hier ein Teilaktiver Chip ist und eigentlich 384 Bit SI bietet.
Der GA102 hätte dann ggf statt 60 SM 72 SM, also 4608 Shader und 386 Bit SI - würde damit quasi einem Shrink des TU102 entsprechen.

Anzunehmen dass man noch eine Variante darüber findet die eventuell wieder auf HBM setzt.

Mir kommen die Zahlen etwas klein vor angesichts 7nm. Da würde ein Big Navi darüber liegen.
 
  • Gefällt mir
Reaktionen: fox40phil, 1Pferdemädchen und danyundsahne
Chismon schrieb:
So gesehen rechne ich mit einer RTX 3080Ti erst gegen Ende 2020 (puenktlich vor Big Navi) und mit den Oberklasse-GPUs (RTX 3080 und 3070) davor, im (Spaet-)Sommer, wobei diese tatsaechlich schon im Maerz angekuendigt werden koennten (den Sommer 2020 halte ich aber weiterhin fuer realistischer fuer eine Einfuehrung), so dass diese einem moeglichen RX 5700(XT) Refresh mit RDNA2 zuvor kommen wuerden.
Nun, https://twitter.com/VideoCardz/status/1219171309298561024
2020-01-20 11_16_52-(20) VideoCardz.com auf Twitter_ „We were told NVIDIA will launch a new GP...png


Wann die Karten kommen, steht natürlich noch nicht fest.
 
  • Gefällt mir
Reaktionen: jemandanders und danyundsahne
[wege]mini schrieb:
Die ersten Benches geistern ja durchs Netz und vor allem die grüne Fraktion, will sie nicht wahr haben.[...]

Ach komm schon, müssen jetzt wieder "Fraktionen" gegeneinander ausgespielt werden?

Bei 95% aller bevorstehenden Hardwarereleases gibt es vorher tolle Benchmarks, die dann hinterher wieder relativiert werden müssen. Dann waren es doch nur einzelne Best Case Szenarien ohne großen realen Gegenwert.

Polaris, Vega, Navi; Alle waren/sind gut, aber Alle hatten/haben auch so ihre Probleme.

Bei RDNA 2 / Big Navi wird es nicht anders sein. Die "Über"-Karte zum Selbstkostenpreis wird es nicht mehr geben. Von keinem Hersteller.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Oneplusfan schrieb:
Ich glaube viele hier unterschätzen den Leistungssprung, der mit Volta möglich ist.
Volta ist doch schon längst auf dem Markt?!
Ich glaube, du meinst Ampere.
 
  • Gefällt mir
Reaktionen: Oneplusfan
Smartin schrieb:
3. Turing hat auch leistungsmäßig ganz schön aufgesattelt. Zwischen einer 1080 und ein 2080 liegen immerhin fast 50% Mehrleistung. Und das obwohl es nichtmal eine AMD-Konkurrenz gab, bzw. sich diese mit der Vega7 auf den gleichen Preisspot nachträglich gesetzt hat.
2080 und 1080TI haben beide 699 USD MSRP und nur ~8% unterschied.

Smartin schrieb:
schau dir mal die Benchmarks an. Eine 1080Ti hat eher die Leistung einer 2070 als einer 2080.
2070 Super, 2070 ist langsamer als beide 2070 Super und 1080Ti.
 
  • Gefällt mir
Reaktionen: fox40phil und GERmaximus
bigfudge13 schrieb:
AMD RIS ist ein einfacher Schärfefilter und tritt in Deinem Beispiel gegen einen DLSS Kandidaten der ersten Stunde an. DLSS wurde seither umgebaut.

Seit Wolfenstein Youngblood hat sich das Blatt gewendet. Das was nvidia versprochen hatte - Mehr Leistung bei besserer Bildqualität als nativ trifft hier zum ersten Mal zu.

z.B.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12188504&postcount=1059

oder
1579518576094.png


LG
Zero
 
  • Gefällt mir
Reaktionen: fox40phil, v_ossi, TheUngrateful und eine weitere Person
Mir ging es nicht um den Vergleich zwischen RIS und DLSS, aber schön zu sehen, dass sich da inzwischen was getan hat. Bei Final Fantasy sah das ja noch nicht so gut aus.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Also ich liebe ja die Spekulationen vor neuen Generationen :D Meine Einschätzung ist erstmal grob umrandet Big Navi 10-20% vor einer 2080ti, allerdings gehe ich bei der 3080 von 50-55% Mehrleistung zur 2080 aus und somit ebenfalls ca. 20% vor der 2080ti. Das wäre eine realistische und dennoch positive Geschichte für AMD, man hätte eine Situation wie bei Pascal vs Vega wäre aber nicht ein Jahr später dran (sprich ca. 1 Jahr aufgeholt). Jetzt könnte man natürlich noch über Best/Worst Case Szenario (für AMD) spekulieren, also Best: AMD 30% vor 2080ti, Nvidia legt nur leicht zu und man ist relativ nah an der 3080ti; Worst: man ist kommt bloß in den Bereich der 2080ti und ärgert sich dann mit der 3070 rum. Wenn es anders kommen sollte, sprich AMD kann sich tatsächlich um den Spitzenplatz streiten und die Energieeffizienz wird gesteigert (Rechne bei Big Navi mit ~300 Watt, bei der 3080ti mit ~250 Watt) dann umso besser für alle.
bigfudge13 schrieb:
Ich bin auf den VRAM gespannt. 384 bit oder 512 bit Bandbreite, 12 GB oder 16 GB, bleibts überhaupt bei GDDR6 oder kommt wieder HBM...
Erscheint mir niedrig angesetzt, ich halte eine Verdopplung in den meisten Leistungsbereichen für möglich und realistisch. Könnte mir 384bit und 24GB vorstellen, wenn man auf GDDR6 setzt.
Baal Netbeck schrieb:
Das bedeutet entweder deutlich geringere Taktraten [...]

[...] müssen sie bestimmt 30% beim Takt runter. [...]

[...] Ich glaube eher wir sehen 64CUs, mit schnellerem VRam.....verbraucht dann 350W [...]
Von einer niedrigeren Taktrate ist auszugehen, ich denke aber eher ~15-20% weniger. Die Sprkulation mit 64CUs ist interessant.
1Pferdemädchen schrieb:
Selbst Schuld wenn man Nvidia ihre Preispolitik unterstützt! Hätte sich die RTX Serie schlecht verkauft hätte Nvidia sicher auch von alleine die Preise gesenkt ;)
Jaja so gut wie alle Konsumenten sind dumm und unterstützen den bösen Marktführer (so interpretiere ich die Aussage mal, ich leg dir nichts in den Mund), die meisten Grafikkarten werden übrigens weiterhin eher im unteren Teil des Spektrums verkauft. Ich denke die Preise von Turing hatten 4 Gründe: ausloten der Zahlbereitschaft, Gewinnmaximierung (wir sprechen trotz billigem 12nm Prozess von riesigen Chips), halten des Preisniveaus von Pascal (Siege keine großen Steigerungen des €/Leistungs-Verhältnisses, vor allem >500€) und oft vergessen, eine gute Position um alte Pascal Chips loszuwerden. Ja die Preise sind nicht schön, aber muss so eine Verallgemeinerung wirklich sein?
Atent123 schrieb:
Wenn auf HBM gesetzt wird, könnte man sogar ein ganzes Stück unter 500mm² bleiben.
Ob sich AMD nochmal an HBM versucht, Vorteile hätte es (Platz, Stromverbrauch), aber nach Vega...
NMA schrieb:
Das wäre dann in dem Fall die (vermutlich) 3080er Klasse, was bei AMD einer kontinuierlichen Steigerung, Konkurrenzfähiger Produkte im Grafikkarten Markt seit Polaris entspricht.
Nach Polaris kam Vega welches mit der 1080 konkurrieren konnte also wäre das rein auf die Leistung gesehen eher ein Nachziehen auf alte Verhältnisse.
[wege]mini schrieb:
Zaubern kann keiner und die Rechner für "Gamer", werden die 1 KW Grenze wohl in den nächsten Jahren sprengen.

Auch daher ist ja die Cloud so wichtig....sharing is caring :D
Das halte ich für unrealistisch, wenn durch verbesserte Fertigung die Packdichte immer weiter erhöht wird, wie genau sollen dann 1KW gekühlt werden? Der Aussage mit der Cloud stimme ich zu.
yummycandy schrieb:
Nun, https://twitter.com/VideoCardz/status/1219171309298561024
[..]
Wann die Karten kommen, steht natürlich noch nicht fest.
Danke für die Info, Videocardz hat doch oft zuverlässige Infos, also Ampere Q2 und Big Navi Q3? Ich bin doch sehr gespannt.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
KaitouX schrieb:
2080 und 1080TI haben beide 699 USD MSRP und nur ~8% unterschied.

2070 Super, 2070 ist langsamer als beide 2070 Super und 1080Ti.
Upsa, hast Recht habe ich die 2070 mit der 2070 Super verwechselt
 
Hier mal eine vermutete Verbesserung von RDNA2 gegenüber RDNA1:
RDNA2 vs RDNA1.png

Ob dies so kommt, ist natürlich nur reine Spekulation. Aber möglich wäre es schon und wenn dann noch statt GDDR6 nun HBM3 zum Einsatz kommt....
😊👍
 
  • Gefällt mir
Reaktionen: danyundsahne
Zurück
Oben