Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

1. Rückmeldung:
Ich will Balken 😝

2. Rückmeldung:
Super Artikel, sehr spannend 💪

3. Rückmeldung:
Man muss eine GPU nicht doppelt so groß machen, um massive Mehrleistung zu bekommen 😁

RTX 3080/3090 = 628 mmRTX 2080 Ti = 754 mm²

🤜 Es kommt nicht auf die Größe, sondern die Technik an 🤛
 
  • Gefällt mir
Reaktionen: Lübke82
engineer123 schrieb:
Man muss eine GPU nicht doppelt so groß machen, um massive Mehrleistung zu bekommen 😁
Musste man noch nie, man hat sie im Grunde aber fast doppelt so groß gemacht, und dann durch den neuen Prozess wieder verkleinert. Bei der "Größe" des chips, wenn es um die Leistung geht, sollte man lieber nach der Transistorzahl als nach den mm² gehen.
Und da stehen ca 13 Mrd für die 2080 zu ca 23 Mrd für die 3080, was passenderweise ziemlich genau +75% entspricht und damit ca dem Mittel aus dem DF Benchmarks
 
  • Gefällt mir
Reaktionen: Lübke82
Der Merowinger schrieb:
amd wird wohl nichts gegen nvidia diesmal haben.
Selbst wenn die nur auf die Leistung 3070 kommen, aber nur 150 Watt verbraten ist das mir Lieber.
 
  • Gefällt mir
Reaktionen: Gorgone
  • Gefällt mir
Reaktionen: Lübke82 und gr1nd
Phneom schrieb:
Aber wer weiß vielleicht überrascht AMD uns ja. Nvidia scheint ja irgendwie Angst zu haben und haben einfach mal eben mit der Brechstange geliefert was sie können :D
Das denke ich nicht.

Für mich sieht es so aus, als dass nvidia hier einmal kurz aber heftig und als Machtdemonstration klappert, um evtl. Unsicherheiten, die durch den Eintritt der neuen Konsolengeneration entstehen können und auch dem Beitritt eines neuen ernstzunehmenden Wettbewerbers (Intel), den Wind aus den Segeln zu nehmen.

Ich denke wie Igor, dass es sich beide Mitbewerber schon schön gemütlich gemacht haben in einer leistungstechnischen und margentechnischen Komfortzone im Schatten nvidias.

Der Vorstoß von nvidia schüttelt daher den Markt mehrfach und multifunktional durch. Unter Anderem können sie auch Pascal endgültig den Todesstoß versetzen und eine breite Basis für ihre DX12 Ultimate/DXR Produkte schaffen, was wiederum das Hardwarekarussell ordentlich ans drehen bringt.

Sie ordnen damit den Markt nach ihren Befürfnissen.

Die Entwickler wirds freuen, da ihnen neue Möglichkeiten an die Hand gegeben werden, ihre Software effizienter umsetzen zu können.
 
  • Gefällt mir
Reaktionen: Der Nachbar, Mumusud, th3o und 4 andere
Wirbt nicht die andere rote Firma mit dem Slogan

"Chipgröße von 5700 XT verdoppeln = doppelte Leistung"?
 
  • Gefällt mir
Reaktionen: gr1nd
Phneom schrieb:
Weil se heute teils deutlich teurer werden als damals? Achso! :freaky:

gr1nd schrieb:
Naja, das lag aber eben auch daran, dass es die Konkurrenz bei mind. gleicher Leistungsabgabe mit deutlich weniger Leistungsaufnahme geschafft hat.
Wie gesagt, der Punkt der Effizienz spielte nur eine untergeordnete Rolle bei den Diskussionen und das Totschlagargument war die zu kühlende Abwärme an sich, welche z.B. die Räume so wahnsinnig aufheizt und schwere/sperrige Kühler oder laute Kühlsysteme erfordert.
Urplötzlich scheint das aber keine Relevanz mehr zu haben. :D
Ich wage mal zu spekulieren das man bei Big Navi einfach an anderen Punkten rummeckert wenn die Dinger effizienter arbeiten sollten und das dann die neuen No Go's sind. ;)
 
  • Gefällt mir
Reaktionen: gr1nd
  • Gefällt mir
Reaktionen: McFritte, engineer123 und gr1nd
.Sentinel. schrieb:
Du bist ganz nah dran.

Wo ist dort von den Bildkacheln die Rede die du hier versuchst mit deinem Beispiel unterzujubeln?

Edit:
Weil du dich ja weigerst anzuerkennen das DLSS das gerenderte Bild nur aufbläst, frissch aus der von dir geposteten Dokumentation:
DLSS.JPG
 
Zuletzt bearbeitet von einem Moderator:
CrustiCroc schrieb:
Der war gut. Versuchen gegenzuhalten macht derzeit AMD.
Du meinst also AMD wird eine 2080Ti nicht schlagen können?
Denn ca da wäre die 3080 gelandet, wenn man sie nicht auf dem 102 Chip gebracht hätte, dann wäre sie das geworden, was jetzt die 3070 ist, eine Karte mit dem gleichen Verbrauch wie die 2080, nur 30-35% schneller.

Und dann hätte AMD die 3080 locker überholt, genau deshalb wird man sie direkt auf dem 102 gebracht und den Verbrauch erhöht haben, um nochmal 30% und damit genug Abstand zu haben.

So wird AMD nun vmtl irgendwo zwischen 3070 und 3080 landen.
 
  • Gefällt mir
Reaktionen: Colindo
Wadenbeisser schrieb:
Ich finde diese Diskussion so witzig weil ich mich noch verdammt gut an die Diskussionen erinnern kann bei denen AMD für seine 250-300W Monster verteufelt wurde und das nicht primär wegen der Effizienz sondern vielmehr wegen der Abwärme und der damit verbundenen Probleme an sich. :freaky:

Ich weiß gar nicht wie oft ich inzwischen diesen Satz in ähnlicher Form schon kommentiert habe.^^ Das Problem bei Vega war eben nun mal die Abwärme und der Verbrauch im Vergleich zur Leistung und Konkurrenz. Und da hat AMD eben deutlich abgestunken im Vergleich. Nvidia stinkt hier absolut nicht ab außer AMD bringt was mit ähnlicher Leistung und weniger Stromaufnahme. Aber ich geh davon aus, dass das bestimmt nicht passieren wird. Nvidia hatte damals ja mit Fermi die goldene Himbeere erhalten...zu recht natürlich, dort dann halt AMD.
 
  • Gefällt mir
Reaktionen: McFritte
Wadenbeisser schrieb:
Wo ist dort von den Bildkacheln die Rede die du hier versuchst mit deinem Beispiel unterzujubeln?
Es geht um keine Bildkacheln sondern eher um ein Pixelmosaik.
In dem von mir verlinkten Dokument wird auf Seite 77 darauf eingegangen.

Das mit dem Kacheln war nur ein abstraktes Beispiel um zu demonstrieren, dass man auch ohne hochauflösende Kamera mit einer niedrig auflösenden und vielen Abtastungen ein höher aufgelöstes Bild entstehen lassen kann.

Das ist ja das, was in die Köpfe nicht reingehen will. Die meinen man rendert mit 512P, lässt dann eine KI anhand von einem Inferencing Datensatz drauf los raten und dann kommt plötzlich ein 4K Bild dabei rum.

Die KI funktioniert bei DLSS2.0 komplett anders und hat ganz andere Aufgaben bekommen.
Sie ist jetzt eher ein guter Puzzlespieler gepaart mit einer guten Mustererkennung, um im Nachgang Artefakte rauszufischen.

Das wiederum zeigt die Seite 42 und Folgende ganz gut.
 
  • Gefällt mir
Reaktionen: Nuon
@Lübke82

Wo schrieb ich was von Vega? 🤔
Die Diskussionen sind gibt es mindestens seit der 290x und gefühlt noch deutlich länger. ;)
Und wie gesagt, dabei wurde idR. der Verbrauch an sich als Totschlagargument genutzt weil ja ganz bestimmt neue (stärkere) Netzteile erforderlich sind, der Radau durch die stärkere Kühlung (natürlich inkl. Gehäusebelüftung) und weil die Abwärme im Sommer die Räume so unerträglich aufheizt.
Waren das doch nur pseudo Argumente die auf einmal keine Rolle mehr spielen? ;)
 
Wadenbeisser schrieb:
Edit:
Weil du dich ja weigerst anzuerkennen das DLSS das gerenderte Bild nur aufbläst, frissch aus der von dir geposteten Dokumentation:
Anhang anzeigen 963099

Genau- Weiterlesen!
Du bist an der richtigen Stelle angekommen.

Auf der Folgeseite:

1599318873778.png


Aha! Low- Res Samples mit Jitter offsets! Und voilá sind wir wieder beim Punkt!

Nämlich genau hier:
1599319047558.png
 
.Sentinel. schrieb:
Es geht um keine Bildkacheln sondern eher um ein Pixelmosaik.
Doch denn bei deinem Beispiel setzt du das Bild aus Bildkacheln zusammen um am Ende das gleiche Bild rauszubekommen und nicht vergessen das Edit des Postings zu lesen. ;)
 
Ich war ehrlich gesagt auch skeptisch wie plötzlich die Leistung zustande kommen soll. Jetzt zeigt sich Mal wieder alle kochen nur mit Wasser und wahrscheinlich ist mehr Marketing. Blub Blub da als gedacht.
Persönlich habe ich so doch wieder mehr Hoffnung für big Navi, klar gegen die 3090 nicht, ist aber auch nicht nötig. Wenn sie es schaffen etwa 3080 Leistung für etwas weniger Money zu bieten sind sie im Rennen. Aber genau da wird es schwierig, da ich persönlich glaube das tsmc teuerer ist als Samsung. Schon Navi 1.0 hatte und hat das Problem das es für AMD sinnvoller ist die Wafer anderweitig zu nutzen.
Insofern bleibt es spannend, bzw. Nvidia hat es selbst spannend gemacht durch den limitierten RAM. Ich selbst würde wahrscheinlich nicht warten bei einer 3080 mit 20gb, dafür schreit die 1070 zu sehr nach Ablösung. Dabei war ich sicher wieder eine rote zu kaufen, bei mir ist das immer so ein Wechsel zwischen rot und grün seit 20 Jahren. Jetzt warte ich definitiv und schaue dann, 4k muss für 3-4 Jahre drin sein, öfter kaufe ich nichts neues.

Mfg
Pawel
 
  • Gefällt mir
Reaktionen: TorgardGraufell
Wadenbeisser schrieb:
Wie gesagt, der Punkt der Effizienz spielte nur eine untergeordnete Rolle bei den Diskussionen und das Totschlagargument war die zu kühlende Abwärme an sich, welche z.B. die Räume so wahnsinnig aufheizt und schwere/sperrige Kühler oder laute Kühlsysteme erfordert.
Urplötzlich scheint das aber keine Relevanz mehr zu haben. :D

Das ist dann aber einerseits sehr selektives Lesen deinerseits (weil die Leute, die sich keine 300+ Watt Karte kaufen wegen der Abwärme gab es diesen Launch genauso, mal unabhängig welcher Hersteller), andererseits schmeißt du wieder unterschiedliche Ansichten von unterschiedlichen Leuten in einen Topf. Also eine Doppelmoral kannst du hier nur nachweisen, wenn du Aussagen finden würdest, die Nvidia hier anders behandeln als AMD.
So wie ich das sehe, war Argument Nr. 1 immer die Effizienz, Nr. 2 die Lautstärke und Nr. 3 dann vlt. die Abwärme. Und AMD konnte bei den letzten Karten nach Hawaii (jetzt mal die Custom Modelle außen vor) in keinem der drei Bereiche wirklich punkten.

Geht man davon aus, dass die Gerüchte stimmen, also eine 275W RDNA2 leistungsmäßig zwischen 3070 und 3080 kommt, mit der Option auf 3080 Niveau bei 300+ W zu kommen, dann hätte man eine ähnlich effiziente Karte wie Ampere.
Das wäre schon sehr gut, aber obs für Marktanteile reicht ist dann immer noch fraglich. Zwar wird man vermutlich vorerst den VRAM Vorteil haben, hinsichtlich der Features weiß man aber noch nichts handfestes. Und die Marketingzugkraft einer 3090, die über allem steht, geht so wieder an Nvidia.
 
.Sentinel. schrieb:
Genau- Weiterlesen!
Du bist an der richtigen Stelle angekommen.
Da wird nur der DLSS Kasten weiter aufgeschlüsselt und nun?
Das ändert herzlich wenig am grundsätzlichen Ablauf, nämlich dass das Bild erst in der kleinen Auflösung gerendert und danach per DLSS aufgeblasen wird. Wie es aufgeblasen wird steht dann eben auf der Folgeseite und am Schluss kommen noch die Post Effekte drüber.
 
Teralios schrieb:
Deswegen bei Ampere quasi die 180° Rolle rückwärts. Was aber in meinen Augen auch ein genialer Schachzug ist, auch wenn nicht so elegant wie die CU bei AMD.

Nennen wir Ampere Gleitperformance-Sieger. Igor hat in der Hinsicht auch schon angedeutet, dass Benchmarks unterschiedlich stark ausfallen. ;)
 
  • Gefällt mir
Reaktionen: GERmaximus und Teralios
Wadenbeisser schrieb:
@Lübke82

Wo schrieb ich was von Vega? 🤔
Die Diskussionen sind gibt es mindestens seit der 290x und gefühlt noch deutlich länger. ;)
Und wie gesagt, dabei wurde idR. der Verbrauch an sich als Totschlagargument genutzt weil ja ganz bestimmt neue (stärkere) Netzteile erforderlich sind, der Radau durch die stärkere Kühlung (natürlich inkl. Gehäusebelüftung) und weil die Abwärme im Sommer die Räume so unerträglich aufheizt.
Waren das doch nur pseudo Argumente die auf einmal keine Rolle mehr spielen? ;)

Sorry dafür das ich Vega heranzog, aber es war nun mal das beste Beispiel dafür. Den Rest hab ich damals nicht weiter verfolgt mit 290x und Co. Die Karten haben mich einfach absolut nicht interessiert. Wer meint auf solche Diskussionen eingehen zu müssen, wie bei den von dir angesprochenen...bittefein. Ich kann dazu nichts sagen. Wird aber möglicherweise ja auch was dran gewesen sein...oder auch nicht.
 
Zurück
Oben