Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizRadeon RX 6000: AMD heizt die Stimmung in Richtung Nvidia an
to look forward to + something / to look forward to + gerund
Das "to" nach forward ist eine Präposition und danach folgt im englischen das Gerund (Infinitiv+ing)
Die Present simple Form ist formeller und man nutzt sie in Emails oder Briefen.
"I look forward to taking your $10" ist formeller als " I'm looking forward to taking your $10", beides ist aber die korrekte Grammatik. Wobei man letzteres nutzen würde wenn man spricht und nicht schreibt.
---
Ich würde mich freuen wenn BigNavi ungefähr in der Nähe der 3080 landet und nen Tick effizienter ist.
Auf welchen Ki Karten will AMD überhaupt irgendwelche Techniken entwickeln? Auf der VEGA Architektur, die derzeit in GPGPU Anwendungen teils RDNA davon rechnet?
nvidia baut seine Stellung weiter in Rechenzentren aus und bald steht sicher die nächste Deep Learning Generation nicht nur für DLSS an.
Während AMD um Spieler buhlt, verkauft nvidia seine Produkte auch an Wissenschaftler.
Die Markstellung ist bei der Aussage mehr als gravierend und eine Grafikkarte die ein Kinder Ü-Ei ist, also Spielen, Spaß und Lernen, damit meine ich nvidia Produkte, wird am Ende jedes reine Spieleprodukt übertrumpfen, wenn man produktiv, kreativ sein darf.
@ gustlegga
nvidia hätte bei seiner Vormachtsstellung und Budget eigentlich keine Vorlaufzeitprobleme. Die derzeitigen RTX Karten hätten schon längst bei der Ampere Vorstellung Anfang des Jahres, sei es nur mit GDDR6 als grober Flaschenhals auf einem Prototyp fertig entwickelt sein können, wenn man mittlerweile zwei Jahre zwischen den Generationen Zeit hat und man zeitig die passende Fertigung nutzen kann, was für die Profi Ampere in 7nm bei TSMC ja auch zutrifft. Aber die doch sehr kurzfristige Designüberstürzung fiel schon leicht bei den ersten Leaks zu den RTX Karten auf. nvidia hat sich hier wohl selbst zu viel Druck gemacht, obwohl man einen guten Safe für Verschlusssachen hat und als fabless Entwickler schadet es trotdzem nicht wenigstens die Prototypplatinen doch mal selbst im Keller fertigen zu können. Dann bleibt es auch geheim.
Immerhin hat nvidia mal mit 3dfx selbst STB Systems mit eingekauft und das ist Fertigungs Know-How, was man wenigstens für die solide Prototypentwicklung für die eigene Firma bewahren kann, wenn man nicht selbst groß Grafikkarten produziert und verkauft.
Aber schlechter als natives 8K! zumindest sagen das die Tests. Das 8K Gaming Marketinggeschwurbel war einfach banane. Aber das war zumindest mir davor schon nach den 3080 Tests klar, dass wenn die 3080 grad so für 4K geeignet ist, dann wird eine minimal schnellere 3090 nicht auf einmal für 8K geeignet sein.
Und DLSS mag ja schön und gut sein, aber die Spiele müssen das erst mal unterstützen. Ich hab bis jetzt noch kein Spiel gespielt, was DLSS hat. Man kann auch nicht hergehen und sagen Nvidia sind so krass, weil sie mit DLSS was ja gaaaaanz bestimmt in der Zukunft aaaallleeee Spiele haben werden dann viel mehr performance haben. Das kann jetzt keiner sagen. Bei AMD hat es immer geheißen, dass man die Performance etc. im hier und jetzt bewerten muss und nicht was irgendwann evtl. mit treiberupdates etc. noch kommt.
Ja, bzw. nein. Das von dir verlinkte Modul hat nicht 8GB sondern 8 Gb - ein kleines b bedeutet bit nicht Byte ;-)
das ist im übrigen auch die Standardangabengröße bei Speicherchips aller Art
edit: @.Sentinel. nein, so "billig" ist er auch wieder nicht...
D'oh!
Ich hab mich schon gewundert, wie man aus 8GB Modulen eine 10GB Karte basteln kann. Fertig gedacht hab ich das dann aber offensichtlich nicht.
Danke.
8bit = 1Byte, also 1GB pro Modul á 9€, macht 90€ für die 10GB der 3080, knapp über 200€ für die 3090.
Wenn es normaler GDDR6 wäre.
Premiumaufschlag für "X" macht ne Mittelklasse GPU als Gegenwert für NUR die GDDR6X Chips.
3080 twice as fast as 2080 stimmt so nicht (lol) 3090 = 8K gaming stimmt so nicht (DLSS via 1440p und handverlesene potatoe taugliche Games mit reduzierten Settings) 3090 = Titan Class stimmt so nicht (sie ist kastriert, an zig Ecken und Enden)
1) Die 3080 ist in einigen ausgewählten Szenarien doppelt so schnell wie die 2080. Das ist zwar selten der Fall aber es kommt vor, dass man das nun auf die Folien schreibt nennt sich Marketing.
2) Es wurde bereits während der offiziellen Produktvorstellung gesagt, dass sich 8K Gaming auf die Verwendung von DLSS bezieht also auch hier nichts besonderes.
3) Das hast du bereits woanders geschrieben und ich sage dir jetzt nochmal: "Titan" oder "Titan Class" ist das, wo es Nvidia draufschreibt. Zudem:
-Bereits die aller erste GeForce GTX Titan war ein beschnittener Chip
-Die zweite Titan X (Pascal Generation) war ein beschnittener Chip
-Die Titan V war ein beschnittener Chip (erst die "CEO-Edition" entsprach dem sogenannten Vollausbau)
Sprich 3 von 9 Titan Modellen waren bisher beschnitten.
Bezüglich RX 6000 Karten: AMD muss sich (zumindest mir gegenüber, aber sicher auch anderen) beweisen. Seit den R9 290/290X Karten war man doch meist zu spät und dann zu schwach dran. Der aktuelle Stand der Dinge ist, dass die schnellste kaufbare Karte von AMD ca. 50% der Leistung bringt der zweitschnellsten Karte von Nvidia (3090 lass ich mal außen vor). Das AMD diesen Rückstand aufholen kann (ganz oder teilweise) und möglicherweise dabei auch noch energieeffizienter werden könnte bestreite ich nicht, selten war die Chance so hoch wie jetzt. Allerdings muss AMD das eben auch erstmal machen, Ampere ist auf dem Markt Navi 2X nicht und das ist die aktuelle Situation. Das Marketing spielt da zumindest für mich nur eine untergeordnete Rolle am Ende zählt was im Test steht.
Das kommt halt drauf an, was AMD wirklich erreichen möchte. Welches Leistungsziel haben Sie und wie möchten Sie es erreichen. Effizient und und der Absolute Verbrauch resultieren immer aus dem eigentlichen Ziel.
An sich ist Navi z.B. sehr effizient. Nur erreicht man mit Navi in einem wirklich effizienten Bereich nicht die angepeilte Konkurrenz. Theoretisch kann man einen Grafikchip mit ein paar Millivolt oberhalb der Mindestspannung betreiben und hätte eine extrem effiziente GPU, nur wäre diese halt extrem langsam.
Ich bin mir nicht Sicher, welchen Weg AMD fährt. Big Navi mit 80 CUs wird absolut gesehen ganz sicher kein Kostverächter sein. Bei der Effizienz habe ich ganz gute Hoffnung. Nur dann ist halt weder die Frage, wie man abschneidet.
Sollte RDNA 2 gut skalieren, dann hat man sehr gute Chancen die 3080 in der Effizienz deutlich zu unterbieten. Einfach weil man ein deutliches Plus an Shadern hat und mit weniger Spannung und takt das gleiche Level erreicht.
Ich erwarte auch keine Wunder, ansonsten würde das referenzdesign auch ganz anders aussehen, aber ich rechne schon damit, dass man einen gewissen Abstand zu Ampere hat, wenn RDNA2 gut mit der Shaderzahl skaliert. Davon hängt am Ende viel ab.
An die Kotzgrenze getrieben werden sich Ampere und RDNA2 aber wohl nicht viel nehmen. Spannend werden dann aber die Taktraten. Denn die enttäuschen bei Nvidia schon etwas.
Ich bin einfach sehr gespannt. Von der Ausgangssituation hat AMD viele Chancen, wenn sie die bisherigen Baustellen angegangen sind. Das aller wichtigste. Sie müssen die Shader endlich auch ausgelastet bekommen. Damit steht und fällt am Ende der Erfolg von RDNA 2. Wenn Sie das wirklich effizient hinbekommen, haben die Karten echt Potential. Aber das müssen sie wirklich erst hinbekommen. Tahiti hatte damit Probleme, Hawaii hatte damit Probleme, Fiji hatte damit Probleme und auch vega hatte damit Probleme. Bi gespannt, ob sie es nun hinbekommen. Wenn ja, dann wirds spannend.
AMD soll mal lieber JETZT mit einer Einordnung ihrer BigNavi-GPU kommen und enttäuschte Fast-3080-Käufer damit ködern, anstatt auf Twitter sarkastische Halbwitze zu machen. Darauf wartet jeder, der sich kurzfristig doch entschieden hat, den Papierlaunch nicht auf sich sitzen zu lassen.
Ich würde das nicht machen, damit kann man genauso ein Eigentor schießen. Lassen wir doch einfach die Karten kommen und entscheiden nach den Testergebnissen.
Hmm ... wie Azor sich gewiss bewusst ist, wird man an seinen Aussagen gemessen und ein Unternehmen, sollte es sich in vernünftiger Führung befinden, wird dafür sorgen, dass solche Fauxpas der Vergangenheit, die bei einer sehr... sagen wir mal "temperamentvollen" Käuferschaft, blöde ankommen und zig Memes zur Folge haben.
Das ist halt quasi selbstschädigendes Verhalten.
Wenn Azor:" "Ich schätze, dass wir unsere 16K-Gaming-Botschaft streichen müssen. Dabei war ich schon so aufgeregt." - als Aussage raus haut, ist da natürlich sehr viel Interpretationsspielraum - für mich heißt das aber, dass evtl. "der Gerät" gut performed und da gibt´s ne Menge Zunder, das dafür spricht für.
Jeder hat den Launch gesehen, die Tests gesehen, die Verfügbarkeit gesehen... das war halt eine Reaktion und die lässt mich freudig warten.
Und ...auch AMD ist klar, dass sollte noch ein "wartewilliger" enttäuscht werden, es beim nächsten Mal noch weniger wartewillige Käufer geben wird - hier ebnet man den Weg für die zukünftige Akzeptanz auf dem Markt ...oder äschert diese eben ein.
PS: Für viele die sagen, dass die Navi 10 Klasse Nvidia überhaupt nicht das Wasser reichen kann, ich war gestern doch ein paar mal erstaunt bzgl. der 4k Benches in denen Navi 10 mit GCN-Anteilen, klar ...manchmal unter der 2070 S ist, aber auch an die 2080S ran kommt.
Das Ganze sähe anders aus, hätte der Lieblingsverein damals nicht "die ominöse Schublade" aufgemacht/aufmachen können, wie ein anderer "RIESE" es gern machte und seinen Stammkunden in Salamitaktik die Treue ver...entgoldet hat.
Mit der RTX 30xx wird dies aber ein wenig schwerer als mit Turing vermute ich...
Das ist bei DLSS nur eine Frage, wieviele Samples es nimmt. Es muss nicht schlechter sein und das trotz erheblich gesteigerter Leistung.
Der Ultra- Performance- Mode zeigt ja erstmal, was mit dieser Technik überhaupt möglich ist und das die alte Methode des "snapshot- rasterns" unnötig Ressourcen zum Fenster rausbläst.
Sie ist einfach im Gesamtergebnis technisch deutlich unterlegen.
Das ist wie, wenn Du ein Lied von einer CD nimmst und dann verlustfrei komprimierst (z.B. flac). Dann sparst Du 40% Ressourcen ein auf Kosten von Rechenleistung beim Dekomprimieren.
Und DLSS mag ja schön und gut sein, aber die Spiele müssen das erst mal unterstützen. Ich hab bis jetzt noch kein Spiel gespielt, was DLSS hat.
Kommt noch. Für DLSS gibts inzwischen Proxy- Libraries, die Du ganz einfach in die eigene TAA Integration einschleifen kannst. Bei Unreal ist DLSS inzwischen in Engine abgebildet.
Man kann auch nicht hergehen und sagen Nvidia sind so krass, weil sie mit DLSS was ja gaaaaanz bestimmt in der Zukunft aaaallleeee Spiele haben werden dann viel mehr performance haben.
Es gibt ja immer irgendwann den Punkt, an dem irgendetwas Good Enough ist.
Wieso sollte ich bei einem Spiel, dass per se schon 160FPS liefert noch DLSS draufknallen?
Es besteht keine Notwendigkeit außer Energiesparen und ein besseres Antialias dadurch.
Das kann jetzt keiner sagen. Bei AMD hat es immer geheißen, dass man die Performance etc. im hier und jetzt bewerten muss und nicht was irgendwann evtl. mit treiberupdates etc. noch kommt.
Ja- Und im hier und jetzt haben die nvidia- Karten DLSS Kerne mit 100ten Teraflops Zusatzleistung und auch schon Titel, in welchen die Technik angewandt wird.
Somit ist das kein- In XY Monaten kommt der "Wundertreiber" oder ähnliches. Du kannst es jetzt bereits nutzen.
1.) DIe Titan RTX war uncut. Der GA102 verfügt im ungekürzten Maximalausbau über 7 GPCs mit je 12 SMs was 10.752 CUDA-Cores entspräche.
Die 3090 hat aber weniger ALUs: 10.496
2.) Die Titans hatten bis 4 way SLI/NVLINk, die 3090 nur noch einen, hat also auch nicht die Titan üblichen Multi GPU Positionierung.
3.)Die alte RTX Titan schreddert die 3090 im SNX Benchmark um 2000 % (!) und haut die 3090 auch in Tensor core FP32, OpenGL CAD etc aus den Schuhen
Ihre kastrierten workloads sind auch den Anwendern aufgefallen, und das war schon vorhher bekannt, weil sie eben KEINE Titan ist oder sein sollte:
"GeForce cards are still going to be artificially capped in tensor performance for market segmentation reasons. As with RTX 20 cards, FP16 tensor ops with FP32 accumulate is running at half the native rate. This leaves the door open to an Ampere Titan." Via Ryan Smith
4.)Und somit ist sie beschnitten aus Usersicht = "I can tell you that some of the nice features on the Ampere Tesla GPUs are not available on the GeForce 30 series. There is no MIG (Multi-instance GPU) support and the double precision floating point performance is very poor compared to the Tesla A100 ( I compiled and ran nbody as a quick check).
5.)Laut Nvidia ist sie auf Anfrage keine Titan und erhält keinen Titan Treiber Support, siehe das LTT Video.
6.) Mit nur 24 GB VRAM hat sie nicht mehr VRAM als die alte Titan RTX. Auch das war schon ein klares Indiz, dass hier gekappt wurde.
Nvidia war jetzt kreativ und hat sie daher den content creators zugeordnet, vermarktet wird sie als Gaming GPU.
Wer weiß, wenn sie mal groß wird, wird sie eine kleine Titanin!
Aber ja, sie kann , natürlich, mit der Architektur auch workloads, fliegt aber aus dem CAD etc. Portfolio
Ergänzung ()
MrNejo schrieb:
1) Die 3080 ist in einigen ausgewählten Szenarien doppelt so schnell wie die 2080. Das ist zwar selten der Fall aber es kommt vor, dass man das nun auf die Folien schreibt nennt sich Marketing.
2) Es wurde bereits während der offiziellen Produktvorstellung gesagt, dass sich 8K Gaming auf die Verwendung von DLSS bezieht also auch hier nichts besonderes.
3) Das hast du bereits woanders geschrieben und ich sage dir jetzt nochmal: "Titan" oder "Titan Class" ist das, wo es Nvidia draufschreibt
1.) Also nicht "twice as fast", sage ich doch. Die Behauptung stimmt also nicht.
2.) Also wieder Etikettenschwindel, QED
3.) Sie ist keine Titan, sogar Nvidia sagt das.
Ampere ist bis jetzt ein Nvidia Marketing Schenkelklopfer Fiasko.
Ändert nix an der Qualität der 3090, ich werde mir auch eine holen. Aber sie ist eben nicht so gut wie erhofft und overpromised.
Dank der 3090 steht die 2080Ti besser da als jemals in der Retrospektive. Danke, Nvidia
Es gibt ja immer irgendwann den Punkt, an dem irgendetwas Good Enough ist.
Wieso sollte ich bei einem Spiel, dass per se schon 160FPS liefert noch DLSS draufknallen?
Es besteht keine Notwendigkeit außer Energiesparen und ein besseres Antialias dadurch.
Ich sehe den größten Nutzen von DLSS aktuell auch eher in Verbindung mit RT und die Spiele die RT bekommen, bekommen eigentlich auch alle DLSS dazu.
Damit bekommt man am Ende vielleicht nur 10% weniger Performance bei voller RT Qualität.
Und genau das wird bei AMD spannend. Wenn sie RT in ähnlicher Qualität hinbekommen und dabei den gleichen Performance Hit bekommen, wie Nvidia, dann kann Nvidia den fast vollständig dadurch ausgleichen, dass die RT Spiele auch DLSS haben werden.
Wenn beide mit RT Off bei 75FPS starten, dann kommt Nvidia mit RT+DLSS am Ende bei 65FPS raus, während AMD bei 45FPS hängt.
Helfen würden da nur drei Dinge:
- Die Raster Performance muss bereits ~40% über der von Nvidia liegen, sodass man mit RT am Ende auch bei 65FPS rauskommt -> ausgeschlossen, aber der Optimalfall, da Nvidia auf die Art DLSS zwingend nötig hätte, um die Performance von AMD zu erreichen, auch in nicht RT Titeln.
- Die RT Performance muss so gut sein, dass man wesentlich weniger Verlust durch RT hat -> Auch unwahrscheinlich, zumal man gleichzeitig wohl trotzdem noch mehr Rasterleistung bräuchte um auf die 65FPS zu kommen.