Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

xexex schrieb:
Was ist eine standardmäßige Lüfterbestückung? Sowas?

Dürfte heutzutage der Praxis entsprechen und dafür ist die Grafikkarte optimal ausgelegt.

Bei High-End-Systemen vielleicht ja. Der "Normale" dürfte höchstwahrscheinlich deutlich weniger Lüfter in seinem Gehäuse verbaut haben.

Payne19 schrieb:
Diese ganze Lüfter-Diskussion ist total dämlich. Immer hat jemand zu meckern.

Ich sage gar nicht, dass die neue Hybrid-Lösung schlecht ist. Mich würde nur interessieren welchen Einfluss das Kühlsystem auf die CPU-Temperatur hat. Das ist alles. Vom technischen Standpunkt aus finde ich Nvidias neues Kühlkonzept sehr interessant.
 
  • Gefällt mir
Reaktionen: Lübke82 und Mcr-King
eXtra schrieb:
Der "Normale" dürfte höchstwahrscheinlich deutlich weniger Lüfter in seinem Gehäuse verbaut haben.

Der "normale" haut sich keine 700€ Grafikkarte in seinen PC und hat auch kein 650W Netzteil um diese zu betreiben. Gehäuse mit Mesh oder Lüftern im Deckel gehören seit mindestens 10 Jahren zum "Standard".

Wer sich eine Grafikkarte mit 320W Nennleistung in sein Gehäuse baut, sollte sich schon dessen bewusst sein, dass er die Luft für diese GPU sowohl zuführen als auch abführen muss und wenn auf der Grafikkarte schon zwei oder gar drei 100er Lüfter ihr Werk tun, reichen für das Gehäuse auch nicht ein zwei 120/140er Lüfter aus, ausser man setzt ein Gehäuse ein, bei dem die Grafikkarte aktiv an der Kühlung beteiligt ist.

1599301639211.png


Niemand wird gezwungen eine FE zu kaufen, wer er meint ein Quirl der die warme Luft nur umwälzt, besser zu seinem Kühlsystem passt. Die FE pustet aber immerhin einen Teil der Wärme direkt aus dem Gehäuse heraus, während bei "normalen" GPUs genug Luft sowohl ein- als auch ausgeblasen werden muss um 320/350W zu kühlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
Shoryuken94 schrieb:
Die 3080 und 3090 setzen nach aktuellen Informationen auf die gleiche Platine

Was aber so schon nicht stimmen kann, da es ja eklatante Unterschiede gibt. Das PCB der 3090 ist deutlich breiter und der 12-Pin-Anschluss sitzt ja auch vollkommen wo anders . Dass die Rückseite mit Speicher bestückt werden kann, finde ich durch die stark unterschiedlichen Kosten zwischen 3080 und 3090 auch als sehr fragwürdig. Na man wird es ja bald wissen.
 
  • Gefällt mir
Reaktionen: Mcr-King
KlaraElfer schrieb:
Aber ist die Bildqualität in der nativen Auflösung mit den jeweiligen Glättungsverfahren wie beispielsweise TAA nicht auch schwankend? Du vergisst für mich an der Stelle den riesigen Performancevorteil.
… Ganz ehrlich: »Gnagh!«.

Ich vergesse da gar nichts, weil es nicht das Thema der Diskussion war, auf das ich eingegangen bin. Um die Preformance ging es nicht, sondern um die Bildqualität und dass DLSS mal wieder als »Trickserei« oder eben als »Mogeln« bezeichnet wird, was es aber nicht ist.

Des weiteren habe ich hier als auch in einem anderen Thema geschrieben, dass DLSS für mich eines der interessantesten Features der letzten Jahre ist, gerade auch bei der Entwicklung, die es hingelegt hat.

DLSS zeigt auf der einen Seite wunderbar die Limitierung von Deep Learning, gleichzeitig zeigt es seit version 2.0 auch dessen stärken.

Deep Learning kann keine guten Algorithmen ersetzen, DL kann aber gute Algorithmen beschleunigen bei solch komplexen Themen.

KlaraElfer schrieb:
Zu DLSS 1.0 sind das Welten, vielleicht mit Ausnahme von FinalFantasy.
Erzähl mir bitte etwas, was ich nicht bereits in einem Diskussionsthema zu DLSS geschrieben habe. Ich hasse es, wenn Leute meinen versuchen mir etwas zu erklären, was ich bereits weiß und was ich merhfach auch angesprochen habe.


KlaraElfer schrieb:
Sehe ich auch anders, da man durch Auflösung an sich kaum mehr an BQ hinzugewinnen kann.

Deshalb habe ich mich seitdem, wo Deep Learning Super Sampling aufkam, sofort für einen WQHD Bildschirm mit entsprechend hohen Hertzzahlen entschieden und sehe keinen Grund mehr höhere Auflösungen zu fahren.
Das ist ja das Schöne an DLSS, dass es die Bildqualität bei gleicher Auflösung oder etwas geringere Auflösung sogar erhöhen kann, weil gewisse Strukturen, die vorher durch den Rasterziger gefallen sind, wieder rekonstruiert werden usw.


KlaraElfer schrieb:
Auflösung ist für mich momentan ein wenig der Fortschrittkiller was Fotorealistische Grafik anbelangt.
Für dich, für mich auch. Ich mag meinen 1440P-Monitor total. Aber ich kenne genug Leute, die es anders sehen.

KlaraElfer schrieb:
Aber dafür ist doch das Forum auch da, ansonsten könnten wir die Kommentarfunktion doch auch deaktivieren, wenn jeder über alles informiert wäre.
Das Problem ist aktuell, dass die Leute immer nur Schlagzeilen lesen und dann einfach ihre Gedanken heraus plärren und damit oft dann auch Halbwahrheiten bis Unwahrheiten verbreiten, was in 90% der Fälle unnötig wäre, wenn man einmal ein Artikel vollständig liest und sich auch mal mit einem Thema beschäftigt.

Wenn ich von etwas keine Ahnung habe, dann lese ich mir einen Artikel durch und wenn ich meine etwas zu kommentieren, dann schreibe ich sehr klar dazu, dass ich mir nicht sicher bin und ich gerne mehr wissen will, statt mein Halbwissen als Tatsache hinzustellen und wenn mir letzteres doch mal passiert, dann bin ich über jeden froh, der mein Wissensschatz vermehrt, statt das ich an meinem Halbwissen festhalten.

Kacha schrieb:
AMD nutzt ihre Shader schon dynamisch, oder? Das war mein letzter Stand.
AMD hat mit GCN eine relativ flexible CU gestaltet. Zwar hat eine CU nominell 64-ALUs, aber die haben sich von Anfang an in 4 * Vec16 geteilt. Jede Vec16 wird bei GCN über einen Wave16-Befehl angesprochen. So konnte bereits von Anfang an jede Vec16 Alu eine eigene Operation mit einem eigenen Datentyp durchführen.

Als Beispiel: 1. Vec16 hat 16 FP32-Werte berechnet, die 2. Vec16 hat 16 INT32-Werte berechnet, die 3. Vec16 dann zum Beispiel 32 FP16 usw. (FP16 Support usw. kam später dazu.) Mit der Zeit hat AMD, um die Auslastung zu erhöhen die CU versucht "kontextlos" zu gestalten - vergrößert die ALU ein wenig - um auch Mixed Wave16-Befehle zu ermöglichen. Bei einer Vec16/Vec32 ist es also nicht mehr notwendig, dass sie nur "FP" oder nur "INT" berechnet, sondern dass man, solange es die selbe Operation ist, unterschiedliche Datenformate verrechnen kann.

AMDs CU sind, wenn man es so will, wahre flexible Monster, die während der GCN Zeit jedoch 4 Threads pro CU benötigten, damit die CU ganz ausgelastet wird. Seit RDNA ist das Monster ein wenig gezähmt worden, in demm nun nicht mehr theoretisch 4 unterschiedliche Operationen in der CU laufen, sondern nur noch derer 2. Aber was Datenformate angeht. …

GCN als auch RDNA sind da sehr nahe an den AVX-FPUs moderner Prozessoren, die zum Beispiel auch eine Operation auf einen Vektor anwenden und im Vektor werden verschiedene Datentypen verpackt. ;)
 
  • Gefällt mir
Reaktionen: CableGuy82, Colindo und noxon
MiaSanMiaaa schrieb:
Ja, wer zockt auch nicht, während 3 verschiedene Webbrowser laufen. Was soll das bitte für ein sinnfreier Screenshot sein?!
99% der Leute die wegen VRAM rumnöhlen haben die Funktionsweise dahinter nicht wirklich verstanden. Die anderen 1% sind Leute, die wissen wovon sie reden und dann mit irgendwelchen mega super 4k Texturmods um die Ecke kommen, für ein 10 Jahre altes Spiel.
Der Screenshot vom ihm ist mist, aber die Aussage an sich ist nicht verkehrt.

Es gibt jetzt schon ein paar Dutzend Spiele die >10GB vRAM brauchen. Eine GPU mit 10GB ist dann selbst mit verbessertem Caching im RAM nur begrenzt zukunftsfähig. Wenn er viel Total war und andere Speicherfresser spielt wird er mit den neuen Karten wohl nicht glücklich.
Die meisten Spiele orientieren sich aber an dem was am Markt verfügbar ist. Wenn nur wenige Karten mehr als 10GB bieten wird es wohl auch nur für die extremsten Grafikeinstellungen nötig sein (wobei es bei einer neuen GPU doch schön wäre die nutzen zu können).
 
Kacha schrieb:
Ja, da haette es etwas mehr Nachdenken beim Launchartikel benoetigt. Finde ich schade, wenn man sich Techredaktion nennt, aber dann im Endeffekt auch nur Nvidias Marketing nachredet.
So etwas ist immer der Informationslage geschuldet. In Nachrichten hast Du nunmal nicht den Luxus auf Informationen zuzugreifen, die die nächsten Tage noch so reintröpfeln.
Zudem kannst Du theoretisch genau das tun, was Du hier verneinst, wenn Du nämlich nur auf FP32 gehst.

Wie gesagt, wurde ja hier schon eine Grafik verlinkt, die die Verhältnismäßigkeit eines normalen Spieleworkloads in Sachen Int und FP darstellt. Die ist recht eindeutig.

Bei deinen weiteren Ausfuehrungen wird klar, dass sich Nvidia da nicht nur einen Gefallen getan hat. Aber wie du auch meinst, die haben genug Geld den Aufwand in die Treiber zu stecken und bei den Engines "mitzuhelfen". AMD nutzt ihre Shader schon dynamisch, oder? Das war mein letzter Stand.
In anbetracht der zukünftigen Herausforderungen an die GPU (Hybrid RTRT) haben sie das eben schon.
Du weisst nicht, wie der Warp Scheduler bei Ampere verteilt.
Es kann auch sein, dass garkein Treiber- Eingriff notwendig ist. Aber das werden wir in Kürze in der Praxis und in der Tiefe analysieren können.

Oh ja... Das war in den Kommentaren beim Launchartikel teilweise wirklich peinlich. Da wird dann alles geglaubt was Nvidia von sich gibt.
Auch das ist der Informationslage geschuldet, die bis zum Erscheinen unabhängiger Tests einseitig gesteuert wird.
Übertreibt man es allerdings mit dem Schönzeichnen, hat man einen negativen Marketing Effekt und einen Imageschaden. Ob man es für nötig empfindet das zu riskieren?

Waren dann auch immer die, die dann das Video von Digital Foundries verlinkt haben, ohne wenigstens einmal das Hirn einzuschalten und zu ueberlegen ob das vielleicht Teil der Marketingkampagne ist.
Ich traue mich fast wetten, dass man mit Ampere genau diese Messchriebe unter dieser Software genau so nachvollziehen können wird.
Es wird hier einseitig unterstellt, dass nvidia nur Best- Case Szenarien dargestellt hat. Was wenn nicht?

Denke bei vielen ist es auch einfach so, dass sie das alles glauben wollen, weil sie eben schon im Gruppendenken wir gegen die drin sind. Wenigstens offenbaren sie es schnell und man kann sie abhaken.
Wohingegen andere Gruppen zu beobachten sind, welchen man liefern kann, was man will. Es wird nie geglaubt, man ist latent pessimistisch und gewillt immer irgendwo ein Haar in der Suppe finden zu wollen und dies dann zu einem Elefanten aufzublasen.

Warum sind denn hier einige Forenmitglieder gleich immer so extrem? Entweder ist alles unkritisch geil oder gleich völlig scheisse...
 
  • Gefällt mir
Reaktionen: pietcux, KlaraElfer und Teralios
DarkerThanBlack schrieb:
Doch, dass kann ich und werde ich auch. 😊
Um endlich eine brauchbare Speichermenge zu erhalten soll man also tief in die Tasche greifen und Titanpreise bezahlen? Oder wie du es sagst, in den sauren Apfel beißen? Das ist also deine Logik? Dann gute Nacht mein Freund.

Dann erkläre ich einmal die Logik dahinter.
Die 3070 und die 3080 sind mangels VRAM ein NOGO!
Die 3090 ist halsabschneiderei und ebenso ein NOGO. Soweit nun die Logik verstanden?

Also jetzt bin ich mal gespannt, wofür reicht der Speicher der 3080 nicht?
Ganz davon abgesehen, scheinst du ein profi Troll zu sein, der alles will, aber nicht bereit ist dafür zu bezahlen.
 
  • Gefällt mir
Reaktionen: Ziggystardust, squadric und Lübke82
.Sentinel. schrieb:
Warum sind denn hier einige Forenmitglieder gleich immer so extrem? Entweder ist alles unkritisch geil oder gleich völlig scheisse...
Das ist das, was mich hier am meisten aufregt.

Entweder man folgt blind den Marketing Geblubber, oder man zweifelt es vollständig an. Ich hab viel mehr Spaß0 daran mir dann Information zu suchen und zu schauen, was für Schwächen gab es bis jetzt, wie könnte es sein und das schöne ist: Am Ende liegt man dann oft Richtig mit seiner Position zwischen den beiden Extremen.

Leider verlernen immer mehr Menschen zu differenzieren.
 
  • Gefällt mir
Reaktionen: Nuon, milliardo, SchorschSepp und 4 andere
Mustis schrieb:
Teralios sagt ws schon. Die 3000 kann, wenn es ideal läuft, knallhart leistung zeigen. Nur, wann kann sie das? Dazu muss softwareseitiges einiges darauf optimiert werden. Ist das schon der fall? Wird er es sein? Das ist der Knackpunkt. Ich denke, dass nvidia hier „schummelt“ und den idealfall als standard darstellt, was so nicht sein wird. Das erklärt auch die dev treiber und vorgegeben games bei digital foundrys benches. Das sond nämlich die idealfälle. Da wo ampere seine muskeln voll zeigen kann.
Das ist Schwachsinn, und das weisst du auch. Da schmeckt einem einfach nicht das Nvidia hier krass abliefert. Glaubst du allen Ernstes, Nvidia spricht selbst von nahezu "doppelter" Leistung und am Ende sind es im Durchschnitt nur 40 % ? Das glaubst du doch selbst nicht.

Igor hat dazu gestern auch ein Video hochgeladen. Der Typ ist übrigens hervorragend vernetzt, hat beste Kontakte zur "Gerüchteküche", die sich nahezu immer als richtig herausstellen.

Und er sagt : BigNavi kämpft mehr mit der 3070, denn mit der 3080. Es sei denn AMD macht da jetzt was mit der Brechstange, und opfert jedwede Effizienz und Vernunft.

Und genau DAS sagt was über Ampere aus. Nämlich das der Leistungszuwachs diesmal brachial ist. Egal ob dir das gefällt oder nicht.
 
  • Gefällt mir
Reaktionen: Celinna, Der Nachbar, Ziggystardust und eine weitere Person
Teralios schrieb:
Erzähl mir bitte etwas, was ich nicht bereits in einem Diskussionsthema zu DLSS geschrieben habe. Ich hasse es, wenn Leute meinen versuchen mir etwas zu erklären, was ich bereits weiß und was ich merhfach auch angesprochen habe.

Du erwartest aber jetzt nicht ernsthaft das man jedes mal wenn man auf einen Beitrag eines Users eingeht erstmal seine Post-History zu durchforsten um zu schauen was der User schon weiß und was nicht? :freak: :freak: :freak:
 
mastakilla91 schrieb:
Ich muss schon sagen. Da stecken extrem viele technische Neuerungen drin und das alles nur in einem Jahr. Wahnsinn und alle Achtung vor den Leuten die bei Nvidia arbeiten.

Zwei Jahre waren es! Du rechnest erst ab dem Super-Refresh anscheinend. ;-)
 
Renegade334 schrieb:
Es gibt jetzt schon ein paar Dutzend Spiele die >10GB vRAM brauchen

Schön und gut, dass es immer und immer von vielen wieder gepredigt wird, dass Spiele 10GB brauchen.
Bis jetzt ist mir kein einziger Benchmark bekannt, der das belegt. Nur weil der Speicher der Karte voll ist, heißt das nämlich noch immer nicht, dass dieser auch gebraucht wird.
Und die neuen Featuresets, die jetzt kommen, als auch die schnelle Anbindung der neuen Karten, werden einfach mal gänzlich ignoriert.
Nur weil irgendwelche 10 Jahre alten Spiele mit selbstgebastelten 4k super ultra duper Mods evtl. irgendwelche Dubiosen Ruckler haben sollen, langt das noch lange nicht, um ständig diese Aussage zu treffen, dass der VRAM nicht reichen würde.
Wo sind dazu die Benchmarks von seriösen Quellen? Muss es ja doch dann schon zu Hauf geben?
 
Auch wenn die CPU etwas mehr Wärme abbekommen wird, ich finde das Design gut. Einmal direkt hinten raus und der vordere Lüfter blästs zu den anderen Lüftern nach oben und weg mit der Abwärme. Bei den ganzen Customkarten bisher wurde die warme Luft nach unten geblasen, was zumindest bei mir zu Schwierigkeiten geführt hat, diese Wärme wegzubekommen. Hier wäre ein Seitenlüfter sicher gut oder unterhalb der Graka ein kleiner Lüfter, der sie nach hinten rauszieht. Oder Seitenwand ganz wegmachen :)
Je nach Gehäuse problematisch. Ich wäre jetzt bereit für die 3080 FE!

Es gibt tatsächlich Seiten, die von Rucklern aufgrund des vollen Vrams berichten, z.B. bei dem neuen (schlechten) Avengers Spiel. Aber ich kanns auch eher nicht glauben....denn in 4k bei Avengers z.B. soll die 2080 Ti auch nur knapp 40Fps schaffen, also sowieso in Richtung Ruckelprobs.
 
  • Gefällt mir
Reaktionen: Lübke82
Lübke82 schrieb:
Dafür gibt's sogar dann schon was... nennt sich 3090.^^

Naja aber wesentlich Teurer 700 zu 1500 ist doch etwas zuviel finde ich, dazwischen ist mehr als genug Platz für eine Ti. 😉
 
Im Deckel hatte ich noch nie Lüfter, ehrlichgesagt.
thrawnx schrieb:
Also jetzt bin ich mal gespannt, wofür reicht der Speicher der 3080 nicht?
Du findest 10GB ok. Sehe ich eigentlich auch so. Heißt das nun, du findest 8 GB in der 3070 auch noch ok oder ist das zu wenig (auch in Anbetracht des angesetzten Preises)? Und die brachialen 24 GB in der 3090 - wenn du 10 GB als ausreichend siehst, sind 24 dann nicht völlig unsinnig viel und etwas, was den Preis völlig nutzlos in die Höhe jagt?
 
.Sentinel. schrieb:
Du kannst ein Poster entweder mit einer Hochauflösenden Kamera 1x Fotografieren, erhältst aber genau das gleiche Ergebnis, wie wenn Du alle Bereiche des Posters dann in kleineren Abschnitten mit einer niedrig aufgelösten Kamera fotografierst und dann die Einzelteile zu einem großen zusammensetzt.
Nichts für ungut aber der Vergleich ist denkbar schlecht weil genau das bei DLSS nicht stattfindet.
Es wird lediglich das gering aufgelöste Bild geschossen und ein Algorithmus versucht mittels unterschiedlicher Berechnungspfade den besten Weg zu finden um die fehlenden Pixel für das hoch aufgelöste Bild zu erraten.
 
  • Gefällt mir
Reaktionen: bugmum und ShiftyBro
MiaSanMiaaa schrieb:
... auch die schnelle Anbindung der neuen Karten, werden einfach mal gänzlich ignoriert.
Wenn man sich aber die Tabelle anschaut, hat sich die Anbindung (Speicherinterface) im Vergleich mit der 2080Ti nur in der teuersten 3090 erhöht. Bei der 3080 und der 3070 hat er sich verkleinert.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wadenbeisser schrieb:
Es wird lediglich das gering aufgelöste Bild geschossen und ein Algorithmus versucht mittels unterschiedlicher Berechnungspfade den besten Weg zu finden um die fehlenden Pixel für das hoch aufgelöste Bild zu erraten.
Oh bitte nicht....

Du musst keinen Pixel erraten, der bereits berechnet wurde....
So wie Du das beschreibst, meinst Du das hier:
1599304942780.png


Wir reden aber von dem hier:
1599305104188.png


Und schau mal, was da den Input liefert. Ein einfach gesampletes Frame? - Nein....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BGnom, Lübke82, noxon und 2 andere
Ich bin mal gespannt auf die 3070. Die hat schon zeimlich wenig Speicherbandbreite. Ich hätte da auch GDDR6X erwartet. Da ist der Sprung zur GA102 doch recht groß.
Lässt noch Luft für eine 3070 Super mit 48 SM und GDDR6X. :D

eXtra schrieb:
Frage an CB:
Wenn ihr die Founders Edition der RTX 3080 testet, könnt ihr dann mal schauen welchen Einfluss das neue Kühlsystem der Karte auf die Temperatur der CPU hat? Ein Teil des Kühlers pustet ja scheinbar warme Luft nach oben in Richtung der CPU. Wäre interessant zu wissen ob die CPU dadurch wärmer wird als bei einem herkömmlichen Kühlsystem.

Anhang anzeigen 962877
Wo geht denn die Wärme hin, bei herkömmlichen Kühlsystemen? Die geht ja genauso irgendwann von unten kommend über die rückwärtigen oder oberen Lüfter weg. Jetzt wirds eben nicht noch ein paar mal verquirlt sondern gerichtet weg. Für die CPU dürfte das nicht wirklich schlimmer werden. Aber für die Graka etwas besser.
Ergänzung ()

Marflowah schrieb:
Wenn man sich aber die Tabelle anschaut, hat sich die Anbindung (Speicherinterface) im Vergleich mit der 2080Ti nur in der teuersten 3090 erhöht. Bei der 3080 und der 3070 hat er sich verkleinert.
Naja, interessant ist am Ende nur die verfügbare Speicherbandbreite. Ob durch Takt oder Breite des Speicherbusses ist ja egal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Eusterw schrieb:
Das ist wohl so, "aber" die Grafik in 4k sieht einfach "um Welten" besser aus. Nachdem ich 1x einen 4k Monitor hatte, werde ich nie wieder auf eine niedrigere Auflösung zurückgehen.

Das sehe ich persönlich nicht so. Ich nehme den größten Sprung von Full HD auf WQHD war und ab dann ist es mMn nicht mehr signifikant. Gut, natürlich auch abhängig von der Monitorgröße und Pixeldichte.

Ich sitze jetzt auf 27 Zoll und WQHD und der Sprung zu meinem 4K Monitor der hier noch rumsteht (28Zoll) ist für mich irrelevant.
 
  • Gefällt mir
Reaktionen: GERmaximus und Mcr-King
Zurück
Oben