Notiz GPU-Gerüchte: AMD Navi 21 mit 80 CUs auf Basis von RDNA2

[wege]mini schrieb:
guckst du Bilder...misst du Abstand :D

https://www.computerbase.de/news/grafikkarten/bilder-und-benchmarks-hd-2900-xt-1-024-mb-gddr4.19303/

kA, wer jemals Ram "überall" auf der Karte verteilt hat.

In jeder Ram Generation hat man versucht, die Abstände gleich zu haben, da man sonst den Takt nur mit unterschiedlichen Spannungen gleich hoch ansetzen konnte. Sonst hat man höheren Widerstand mit längerer Leitung....Nicht gut....

GDDR6 ist doch kein "Hexenwerk"....den Kindern wird heute halt noch mehr mist aufgetischt, um hohe Preise zu erzielen.

mfg


https://images.hothardware.com/contentimages/article/2836/content/small_titan-rtx-pcb.jpg

Und wo willst du jetzt die restlichen vier Chips für 512Bit platzieren?

Kann es sein das mein Beitrittsdatum vor deinem Geburtsjahr liegt?
Deinem Umgangston nach zu Urteilen, nicht unwahrscheinlich.
 
  • Gefällt mir
Reaktionen: eLw00d und Rage
Naja ich meine damit sie warten eher bis die Fertigung wirtschaftlich ist oder sie gezwungen sind zu launchen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
aldaric schrieb:
Sie müssen also dieses mal nutzen was vorhanden ist und können nicht wie vorher den Prozess auch mitverfeinern für ihre eigenen Produkte.
Ok danke. Und auch an @yummycandy
Andererseits müssen dann halt nVidia aktiv werden und das Produkt an den Prozess anpassen. Dann sollte das schon gehen.
Andererseits sehe ich auch, dass AMD in diesem Vorgehen bereits einen Wissensvorsprung besitzt.
Das könnte also tatsächlich spannend werden.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und aldaric
Baal Netbeck schrieb:
Naja und da scheint es ja in allen Punkten bei AMD Nachholbedarf zu geben.
Genau so sieht’s aus.
Wenn Software derartige Probleme bereitet und Bugs wiederholt auftauchen, dann ist eine brauchbare, automatisierte Regressionstestsuite fast nie gegeben.
Damit einher gehen meist auch eher archaische Vorgehensweisen bei der Entwicklung. Völlig egal, ob das agil sein soll, oder nicht.
Und falls Geld knapp sein sollte, dann raten wir mal woran als erstes gespart wird ...
Und so kommt man halt zu Test by customers. ;)
Ergänzung ()

Taxxor schrieb:
Gleichzeitig war es aber auch die Kombi, die Nvidia bei Pascal +65% Performance bei nahezu gleichem Verbrauch beschert hat.
Na, dann würde ich mal frech behaupte, dass da die grüne Fraktion etwas elementar richtig gemacht hat. Im Gegensatz zu Blauen.
wird spannend.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@Unnu @Baal Netbeck

Da widerspreche ich euch beiden. Schonmal die wiederkehrenden Bugs mit dem nVidia Treiber gesehen?

Schwarze Balken im Firefox Browser, immer mal wieder dabei, oder G-Sync greift mal wieder nicht und setzt die FPS auf 30 fest. Zum "black box" Bug, den gab es sogar für über ein halbes Jahr bei meiner 1070. Dann wurde er endlich gefixt, nur um 3 Treiberversionen später wieder reingepatcht zu werden.

Ich glaube, grade beim Treiber, rühmt sich keiner der Hersteller. (was Bugs angeht)

Den Funktionsumfang inklusive Design, finde ich den AMD Treiber besser und fortschrittlicher, hänge hier aber noch auf einer GTX 1070 fest mit dem NV Control Panel.
 
  • Gefällt mir
Reaktionen: fox40phil, greeny112 und 1Pferdemädchen
Die 80 sind eigentlich keine schlechte Zahl wenn die XBox bereits 56 haben soll und das mit Sicherheit ein 60CU Chip ist. Mit HBM dürfte es nicht mal große Probleme beim Verbrauch geben.
 
  • Gefällt mir
Reaktionen: Rage
Wenn viele Dinge so eintreffen wie spekuliert, würde die gegenwärtige Generation oberhalb von 2060S/2070 aber einen enormen Preisrutsch erleben oder in den Regalen wie Blei liegen bleiben.

Ich kann mir manches kaum vorstellen, allerdings muss man ja tatsächlich sagen, dass NVidia diese Preise wohl nur nehmen kann, weil es in den Grafikkartenregionen keinerlei Konkurrenz gibt und wenn die mit mal da wäre - Prost Mahlzeit! :)
 
So lange ich im Grafikkartenmarkt dabei bin (seit ca. 2000) bzw. seit GeForceFX, wurden die Top-Geforce noch nie nach Erscheinen der Nachfolger deutlich günstiger verkauft. Es gibt dann kurz einzelne Schnäppchen, aber der Großteil scheint mit altem Preis vor sich hin zu gammeln. So waren auch jetzt GTX 1070 und 1070Ti höchstens ganz kurz und vereinzelt preislich Alternativen zur RTX 2060, die GTX 1080 (Ti) war neu nie eine zur RTX 2070.
 
@Cpt.Willard Man hört ja immer wieder aus der Industrie (von den Boardpartnern und aus dem Handel), dass es noch viel zu viel Polaris und Pascal im Lager gibt. Ich glaube eher daher kommen die höheren Preise. Und natürlich auch daher, dass die Leute es halt zahlen. Würde mich auch hier, wenn die Specs einigermaßen passen, auf 1000 Mäuse einstellen.
 
Warum sollte die auch durch Nachfolger billiger werden?!? Das könnte nur bei massiven Fehlern in der Lagerhaltung geschehen. Deswegen gibt es ja einen Abverkauf und der lässt sich auch wunderbar steuern.
 
Ich meine schon durchaus den Abverkauf, also die Straßenpreise der fertigen Karten. Da tut sich bei NV meist nicht viel, obwohl niemand eine GTX 1080 zu ihrem letzten Straßenpreis vor Erscheinen von Turing kaufen würde, nachdem Turing erschienen ist.
 
Unnu schrieb:
Ok danke. Und auch an @yummycandy
Andererseits müssen dann halt nVidia aktiv werden und das Produkt an den Prozess anpassen. Dann sollte das schon gehen.
Andererseits sehe ich auch, dass AMD in diesem Vorgehen bereits einen Wissensvorsprung besitzt.
Das könnte also tatsächlich spannend werden.

Bei TSMC habe ich zum 7nm Prozeß irgendwas wie "Optimization by Design" gelesen, was so viel heissen soll wie während des Design muss die Architektur zum /mit dem Prozeß optimiert werden. Was dazu führt, das im Design Flow mehr Iterationen gemacht werden müssen und eventuell die HW Architektur angeapsst werden muß. Eine gewisse Erfahrung hat AMD mit 3x 7nm Designs im Tape out da voraus. Auf der andern Seite wissen wir nicht wieviel Testchips Nvidia schon im Tapeout hatte um genau diese Erfahrungen auch zu machen, Zeit hatten sie ja genug... Die spannnende Frage ist haben Sie gleich auf TSMC emtwickelt oder waren die echt mal dabei auf Samsung 7nm zu gehen ? Eventuell haben Sie dort ein bischen Zeit liegen lassen...wer weiss...
Ergänzung ()

und ja ich weiss das Design/die Architektur muss immer an den neuen Prozeß angepasst werden. Aber bei 7nm soll der Aufwand dafür noch erheblich gestiegen sein ...nur um Missverständnisse zu vermeiden...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu
Es würde mich nicht wundern wenn Nvidia eine ganze Generation mit 10nm geplant hatte und diese nie gebraucht hat. Eventuell sogar mit fertigen Chips. Ursprünglich war mit Volta ja was vor Ampere angedacht. Aber Namen sind eh Schall und Rauch.

Die Zyklen wurden seit man AMD bei den GPU recht deutlich hinter sich gelassen hatte immer länger. Gut, Turing hat mit Tensor, RT usw schon einiges anderes gemacht als die Vorgänger. Das war auch riskant.

Bei AMD dürfte viel Aufwand in RNDA und ggf einer eigenen RT Implementierung geflossen sein. Jetzt mit starken Ryzen kann AMD hier wieder investieren und bekommt sicher bei TSMC zunehmend bessere Konditionen da man ein großer Abnehmer wird. Ich denke auch GPU seitig darf man zunehmend mehr von AMD erwarten.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Krautmaster schrieb:
Es würde mich nicht wundern wenn Nvidia eine ganze Generation mit 10nm geplant hatte und diese nie gebraucht hat. Eventuell sogar mit fertigen Chips. Ursprünglich war mit Volta ja was vor Ampere angedacht. Aber
Das ist tatsächlich der Fall. Eigentlich sollte Turing in 10nm kommen, jedoch konnte Samsungs 10nm nie das versprochene einhalten, weshalb man den 16nm angepasst hat.
 
Zuletzt bearbeitet:
aldaric schrieb:
Da widerspreche ich euch beiden. Schonmal die wiederkehrenden Bugs mit dem nVidia Treiber gesehen?
Und Du widersprichst meiner QA-Analyse wo und aus welchem Grund genau?
Was hat das mit nVidia zu tun?
Und nein, habe ich noch nicht gesehen, weil ich noch nie eine nVidia hatte.
Davon ab würde ich die gleichen Schlussfolgerungen ziehen.
Wenn die Leutz bereits gefixte Bugs wieder rein bekommen, ist die CI bzw. das CD kacke. Vor allem die Regression. Völlig Wurscht bei wem.
 
  • Gefällt mir
Reaktionen: aldaric
Das könnte tatsächlich so erscheinen, das würde dann der Vollausbau sein.

Die APU in der kommenden Xbox Series X soll laut Gerüchten 56 CUs beinhalten. Das klingt für mich alles sehr plausibel.
 
DarkerThanBlack schrieb:
Andere Gerüchte sprechen schon von Arcturus mit 128CUs(8192 Shader) also über 3x Navi10!
Vorsicht :D arcurus ist RDNA3 vermutlich ^^ das ist wie als würde man jetzt über Zen4 (Genoa) spekulieren
 
DarkerThanBlack schrieb:
Andere Gerüchte sprechen schon von Arcturus mit 128CUs(8192 Shader) also über 3x Navi10!
PS828 schrieb:
Vorsicht :D arcurus ist RDNA3 vermutlich ^^ das ist wie als würde man jetzt über Zen4 (Genoa) spekulieren
Also das ist doch sehr weit weg spekuliert :D zumal da sicher mehr passiert als einfach 128 CUs draufzuklatschen, das dürfte doch kaum skalieren. Zumal es auch Gerüchte gab, dass Arcturus der Nachfolger von Vega im professionellen Umfeld ist.
Aber der Vergleich mit Zen 4 war passend, spekulieren wir über die nahenden Produkte.
 
Zurück
Oben