Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling
- Ersteller Wolfgang
- Erstellt am
- Zum Bericht: RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling
q9450proll
Lt. Junior Grade
- Registriert
- März 2009
- Beiträge
- 299
Ich denke wenn man realistisch bleibt und von älteren oder nicht optimierten Titeln ausgeht, kann man bei der 3080er von einer etwas mehr als doppelten Leistung gegenüber der 1080 rechnen. Hab hier einen interessanten Chart auf den Seiten von Nvidia gefunden und denen mal mit Benchmarks von CB verglichen.
Anhänge
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.630
Dem ist nicht so, Du scheinst aber hier schon seit mehreren Threads alles relativieren und runtermachen zu wollen, was nun als Neuerung und Innovation angekündigt wurde.Psychodelik schrieb:Du und ich wissen doch noch gar nicht was die BIG-Navi bzw. die RDNA-2 Architektur so anbieten wird. Meinst du AMD wird schlafen und die RIS Technologie die sie gegenüber der DLSS 1.0 entwickelt haben einfach links liegen lassen und nicht verbessern bzw. anpassen gegenüber der DLSS 2.0 Technologie seitens nVidia oder was !
Was bezweckst Du damit?
AMD schläft natürlich nicht und sie werden mit RDNA2 eine große Erweiterung ihres Featuresets durchführen. Allein die Previews bzw. bekannten Fakten bezüglich der Konsolenchips zeigen, dass sie sich auf DX12 Ultimate Niveau rüsten.
Somit wird RDNA2 alles haben, was es zum leben benötigt.
Dennoch darfst Du die Realitäten nicht verleugnen. Dort wo RDNA2 einsteigt, hat nvidia schon 2 Jahre Praxiserfahrung und ihren ersten optimization- Pass hinter sich gebracht.
nvidia schläft im Vergleich zu einem Intel nicht - Im Gegenteil. Das Gaspedal wird weiter durchgedrückt.
Dementsprechend ist die Wahrscheinlichkeit, dass AMD nvidia mit RDNA2 vollumfänglich stellen kann extrem niedrig.
Was liegt Dir eigentlich persönlich an dieser Firma? Es ist ein Konzern! Wieso verschenkst Du Dein Herz daran und meinst es wie ein Kleinkind beschützen zu müssen?Ihr stellt mit euren Antworten AMD so dar, als würden die den ganzen Tag nur schlafen und nichts tun bzw. nichts anbieten und nicht forschen, aber die Realität sieht ganz anders aus, als würde AMD ein Saftladen sein aus eurer Sicht. Das stimmt aber nicht.
AMD macht seinen Weg. AMD wird nicht untergehen (allein schon wegen der X86 Lizenz nicht).
Aber im Wettbewerb müssen sie sich einfach stellen. Der Kunde ist grausam und wählt im Gegensatz zu den Fans einer Marke, gnadenlos das innovativere Produkt.
Da hat AMD in den letzten Jahren schöne Ansätze (z.B. primitive shader) gezeigt, stand sich aber letztendlich dann selbst immer im Weg, weil Entwickler mit Features im Regen stehen gelassen wurden, weil die Treiber die eigenen Hardwarefunktionen nicht richtig unterstützt haben etc.
AMD vernachlässigt die Softwareseite schon lange und sorgt nicht aktiv dafür, dass deren Vorzüge in Spieletiteln auch tatsächlich eingeführt werden.
Da nimmt NVIDIA MASSIG Geld in die Hand. Die Unterstützung von Entwicklern, die Bibliotheken, das Toolset was einem da an die Hand gegeben wird, ist AMD Lichtjahre voraus.
Mit nichten- Alleine diese Aussage zeigt, wie eingeschränkt Deine Sichtweise ist.Ein Beispiel schau mal die Ryzen AMD Prozessoren an, die schlagen die Intels bei weitem,
AMD hat technisch Intel inzwischen eingeholt. Aber von einem "bei weitem schlagen" kann keine Rede sein.
Das tun sie nur in einem- Und zwar dem massiv- parallel computing.
Wenn man sich aber in der Anwenderlandschaft so umsieht, zieht nur eine ganz kleine Nutzergruppe einen Vorteil daraus.
Da sagst Du etwas ganz richtiges. Jedoch geht eben nicht AMD richtung 5nm Fertigung, sondern TSMC und dessen Mitarbeiterzahl von 45.000!Intel ist zur Zeit mit ihrem sch.. neuen Logo beschäftigt, AMD geht schon Richtung 5 nm Fertigung und experimentiert jetzt schon mit 3 nm in Ihren Labors.
Eben nicht. Du reagierst nur über und versuchst alles über die Maßen in eine andere Richtung zu drängen (zu lasten nvidias).Nicht nur nVidia arbeitet, AMD tut das auch, aber manch einer stellt AMD so dar, als würden die nichts anbieten, nichts tun, nicht arbeiten, nicht an die Zukunft denken, nicht forschen, etc. pp..
Und das ist nunmal auch rein objektiv unangebracht.
Ja nvidia hat ein großes Maul. Ja- der Jensen gefällt auch nicht allen. Ja, die Vertriebsabteilungen haben es in ihren Allmachtsfantasien und Gängelungen in diversen Bereichen hart übertrieben.
Aber- Sie zeigen konstant beeindruckende Leistung, Innovation und langen Athem, wenn es um die Umsetzung der Technologien geht.
Das sind Konstanten, auf die man als User über die Zeit gelernt hat, darauf vertrauen zu können.
Das ist alles.
Zuletzt bearbeitet:
maxpayne80
Commander
- Registriert
- Nov. 2006
- Beiträge
- 2.330
Fighter1993 schrieb:Wir werden sehen.
Antworte nicht auf @MeroWinger, schau in die Posthistorie und bestenfalls <ignore>.
Denke aber mal es ist ein Jugendlicher, da ist man schon mal noch etwas unreflektiert / läuft mit Scheuklappen rum.
Was ich interessant finde, das man da zum vergleich nur die normale GTX2080 heran genommen wurde und nicht die Ti Version, denn dann wäre der Balken Abstand bedeutend kleiner wenn man zum CB Chart schaut zwischen 2080 (Ti) und 3080. Aber so sieht der Balken Abstand ja viel größer aus.q9450proll schrieb:Ich denke wenn man realistisch bleibt und von älteren oder nicht optimierten Titeln ausgeht, kann man bei der 3080er von einer etwas mehr als doppelten Leistung gegenüber der 1080 rechnen. Hab hier einen interessanten Chart auf den Seiten von Nvidia gefunden und denen mal mit Benchmarks von CB verglichen.
Eusterw
Lt. Commander
- Registriert
- Juni 2007
- Beiträge
- 1.202
Das liegt aber SEHR am Anwendungsbereich. Ich hab mir letzten Monat nen neuen Prozessor geholt -> von Intel. Ich benötige volle Leistung zu 98% beim Spielen. Wenn ich mal 1x im Jahr nen Video konvertiere, hab ich die extra Zeit.Psychodelik schrieb:Ein Beispiel schau mal die Ryzen AMD Prozessoren an, die schlagen die Intels bei weitem, Intel ist zur Zeit mit ihrem sch.. neuen Logo beschäftigt, AMD geht schon Richtung 5 nm Fertigung und experimentiert jetzt schon mit 3 nm in Ihren Labors.
Wenn du als (mehr oder weniger) reiner Anwendungsbereich-Nutzer mit AMD besser fährst, dann ist das in deinem Fall so. Aber es gibt genauso andere Anwender, die auch mal spielen...
T
Teralios
Gast
Na ja, es war aber eher ein logischer Schluss. Die Aktion hier von der Redaktion, dass ja ein Shader nun plötzlich 2 FP32-Werte zur gleichen Zeit berechnet, war etwas unglaubwürdig, da hätte NVIDIA die Quadratur des Kreises geschafft.Kacha schrieb:Erstmal Gratulation, du lagst richtig mit deiner Vermutung im Launchthread.
Falsch. …xexex schrieb:Es ist keine Einschränkung wenn ich die vorher brachliegenden Int32 Einheiten nun als FP32 Einheiten nutzen kann. Viel mehr warst du vorher eingeschränkt, weil du möglichst 50% Int und 50% FP Berechnungen durchführen musstest um die Karte auszulasten. Jetzt stehen dir so viele Int32 Einheiten wie du brauchst und der "Rest" steht dir komplett als FP32 Einheit zur Verfügung.
Ampere kann 64 FP32 und 64 INT32 oder 128 FP32-Werte berechnen, wird auch so von NVIDIA beschrieben und es steht sogar hier im Artikel: » Ein SM von Turing kann also maximal 64 FP32- und 64 INT32-Berechnungen gleichzeitig durchführen. Ein SM von Ampere dagegen entweder 128 FP32- oder 64 FP32- und 64 INT32-Berechnungen – je nachdem, welchen Workload die Anwendung an die Grafikkarte verteilt. Je nach Szenario weist ein Ampere-SM also dieselbe Rechenleistung wie ein Turing-SM auf (wenn FP und INT gleichzeitig berechnet werden), oder die doppelte Rechenleistung (wenn nur FP berechnet wird). Das ist der Grund, warum sich die theoretische FP32-Rechenleistung bei Ampere gegenüber Turing mehr als verdoppelt hat und Nvidia in Bezug auf die Anzahl der FP32-ALUs jetzt von der doppelten Anzahl CUDA-Cores redet.«
NVIDIA zieht die gute Leistung aus ihren SM daraus, dass diese relativ einfach nach außen strukturiert sind. NVIDIA benötigt bei PASCAL genau 1 Thread pro SM, um die 128 FP32-ALUs auszulasten, auch wenn die Intern feiner strukturiert sind.
Turing braucht pro SM 2 Threads um 64 FP32-ALUs als auch 64 INT32-ALUs zu füttern. Bei Ampere muss ich warten, bis die Karten da sind um diese mal mit CUDA etwas zu quälen und um raus zu finden, wie sich die SM. Vermutlich wird für INT + FP-Last wieder 2 Threads benötigt, die Frage aktuell ist, ob der 2 64er-Block von einem Thread gefüllt wird, oder ob es nun pro 64er-Block einen eigenen Thread auf der SM braucht.
Ampere ist es nach aktuellen Aussagen jedoch nicht möglich 96 FP32-Werte + 32 INT32-Werte zur selben Zeit zu berchnen oder eben 112 + 16. Die starre Struktur ist immer noch 64 + 64. Und wie geschrieben, die große Frage ist, ob es wirklich 128 FP32 Werte sind oder 64 FP32 + 64 FP32.
Aber da werden CUDA-Tests später mehr zeigen. Aber die feine Aufteilung, von der du hier schriebst, beherrscht Ampere anscheinend nicht, sonst hätte NVIDIA das auch angekündigt, zumal man mit so einer feinen Aufteilung in die gleichen Probleme wie AMD mit GCN rennen würde.
Das primäre Problem hier auf der Seite ist oft, dass die Leute keine wirkliche Ahnung von Informatik haben und ihnen oft grundlegendes Wissen fehlt. Sie lesen irgendwelche Marketing-Folien und blubbern dann daher. Genau so lesen sie oft dann nicht die technischen Artikel und schwadronieren dann Eigenschaften daher, die NVIDIA selbst nicht mal sagt. Und warum? Weil ihnen jedes Verständnis fehlt.Psychodelik schrieb:Nicht nur nVidia arbeitet, AMD tut das auch, aber manch einer stellt AMD so dar, als würden die nichts anbieten, nichts tun, nicht arbeiten, nicht an die Zukunft denken, nicht forschen, etc. pp..
Ich hab da hier nun 3 bis 4 Spezis gefunden, bei den man weiß, dass sie zwar Google Bemühen können, aber sie die Marketing-Folien als auch den Rest nicht wirklich verstehen. Mit solchen Leuten ergibt es dann oft keinen Sinn zu diskutieren, weil Sie ihre eigene Inkompetenz nicht erkennen, da kann man sich noch so viel Mühe geben.
Es sind auch genau die Leute, die einem immer wieder Erzählen, wie weit AMD ja jetzt abgeschlagen ist, wenn man sie dann mit Inhalt versucht zu wieder legen, kommen stumpfe Erwiderungen oder wieder irgendweches Marketing-Geblubber, ohne dass sie es verstehen.
Na ja, ein Problem würde ich es nicht nennen. Bei den aktuell gängigen Workloads der Engines, kann es durchaus sinnvoll sein, dass man erst versucht "128"-FP32-Berechnungen abzuknuspern und dann die geringe Menge an INT32-Berechnungen nachzuschieben.Novasun schrieb:Es gab ja Gerüchte das Ampere bei dem ein oder anderen Game nicht so gut aussieht. Das INT Problem erklärt das nun.
Wenn ich mir aktuell die meisten Shader von der UE4 und ebenso von Unity usw. dann ist die neue Struktur nicht unbedingt schlecht, auch wenn sie etwas starr auf die 64 + 64 fixiert ist. Wenn ein Shader seine FP-Berechnung durchführt, dann eine Anfrage an die RT-cores setzt und auf deren Ergebnis wartet, kann locker ein Shader mit seinen INT32-Berechnungen auf die ALUs zwischen geschoben werden.
NVIDIA betont ja aktuell nicht umsonst, dass nun RT, ALU + TC zur gleichen Zeit belastet werden können. Für die einzelnen Shader ist das irrelevant, die laufen in der Regel seriell ab und gehen in Warteposition, aber für mehre Shader auf einer SM ist das durchaus relevant.
NVIDIA versucht - ebenso wie AMD - die Leerlaufzeiten der Hardware zu minimieren, da man einzelne Rechenwerke nur schwer wirklich vom Rest der SM trennen kann. Man kann zwar den Energiebedarf etwas einbremsen, aber eben nicht ganz. Aktuell ist es also so, dass sowohl die 64 INT32-ALUs als auch die TC immer einen Grundbedarf an Energie mit bringen, auch wenn sie eigentlich nicht benötigt werden.
Und kommt jetzt nicht mit PowerGating usw. das so fein granular zu implementieren ist aufwendig und bläht einen Chip gewaltig auf. PowerGating implementiert man da lieber auf "GPC"-Ebene für einzelne SM.
Nicht nur DLSS. NVIDIA hat ja nicht umsonst letzten ihr RTX Voice? vorgestellt.Novasun schrieb:Was ich auch kritisch sehe - das maximum an Mehrperformance kommt nur zum Tragen wenn eben Raytracing und DSSL genutzt wird. Und die Kombination ist halt im Moment absolute Nische.
Zumal die TC mit ihrer MADD-Matrix durchaus sogar in Engines eingesetzt werden könnten und da einige Matrix-Transformationen schnell berechnen könnten. Frage ist nur, ob solche Matrix-Operationen ggf. mal in DX Einzug halten.
Heschel
Lt. Commander
- Registriert
- Feb. 2017
- Beiträge
- 1.158
tochan01 schrieb:Auch wenn es kaum noch einer nutzt aber sli nur für die 3090 ist doch kacke. Es darf wohl keiner sehen, dass 2 kleine gpus die dicke in die Tasche stecken..
SLI ist tot........
Zu einem war es bei SLI immer so, dass nur die stärkste Karte genutzt wird und das ist wohl hier die 3090. Zum anderem müssen Games dies auch unterstützen, ansonsten ist eine einzige stärkere Karte, den beiden schwächeren im SLI überlegen.
Man fährt mit der 3090 besser, als mit 2 3080 im Großem und Ganzem.
T
Teralios
Gast
Und wieder wird geblubbert. …Eusterw schrieb:Wenn du als (mehr oder weniger) reiner Anwendungsbereich-Nutzer mit AMD besser fährst, dann ist das in deinem Fall so. Aber es gibt genauso andere Anwender, die auch mal spielen...
Zen 2 als auch "SkyLake" geben sich in Spielen nicht mehr wirklich viel und die primäre Leistung bei Intel kommt noch durch den Takt, nur ist der Vorsprung in der Regel bei den heute verwendeten Auflösungen marginal.
Wer spielt, macht mit Zen2 aktuell genauso wenig etwas falsch wie mit Intel. Gleiches gilt im übrigen auch für Anwendungen. Aktuell kann man bedenkenlos zu beiden Herstellern greifen, egal welches Anwendungsgebiet man hat und es sollte hier eher der persönliche Geschmack entscheiden und auf so gehaltlose Aussagen wie die von mir zitierte, sollte man nicht hören, da sie nicht der aktuellen Situation entsprechen.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.630
Was sollte die Fachpresse gegen diese Tricksereien haben, wenn sie einen großen Leistungsschub bieten und dazu noch besser aussehen?canada schrieb:Ich wünsche mir die Zeit zurück als solche Trickser Reihen noch in der Fachpresse und in den Foren mit der Heugabel vom Hof gejagt wurde, heute freut mich sich darüber, verrückte Welt.
Du legst ja schon den Finger auf die Wunde. nvidia war über die Jahre konstant stark darin, eben genau die Auslastung gut im Griff zu haben.Auch interessant, früher ging ATi/AMD den Weg der brachialen Power und scheiterte daran, das man die Auslastung nicht hin bekam und der Verbrauch etc. in die höhe ging.
Sie trimmen alles auf Hybrid RTRT. Und da haben sie mit Verdoppelung der FP32 Einheiten einen genialen Schachzug hingelegt, weil sie mit relativ wenig Aufwand Ressourcen für die RT- Softwareshader schaffen, ohne an der Rasterleistung zu knabbern.Jetzt setzt AMD auf weniger und dafür Packt nV die Knübbel aus. Mal sehen wie das in naher Zukunft ausgeht.
Ohoh- Da ist aber einer ganz schön stehengeblieben. Das (KI) wirst Du in Zukunft zu Recht öfter zu hören bekommen, als Dir lieb ist. Deal with it.Aber bitte ohne so Blödsinn wie Künstliche Intelligenz, Marketing Gebrabbel ins reinst Form.
Zuletzt bearbeitet:
Zentorno
Lt. Junior Grade
- Registriert
- Mai 2020
- Beiträge
- 481
Danke für den Artikel und die technischen Einblicke, immer wieder sehr interessant.
Demnach 'nur' Optimierungen im Detail wobei diese noch mehr auf die aktuellen Software-/Spieleanforderungen zugeschnitten sind. Naja, ist ja auch ein ziemlich kurzlebiges Geschäft.
Enttäuscht hat mich laut Tabelle die 3070 vs. die 2080ti. Der GA104 (3070) hat nur rund die Hälfte der (Chip-)Fläche des TU102 (2080ti) und kaum mehr Transistoren, trotzdem verbraucht er kaum weniger Energie, trotz shrink von 12nm auf 8nm. Die Grafikleistung beider wird ja ähnlich erwartet, dafür schluckt die 3070 einfach zu viel. Das war wohl auch NV klar weshalb der Preis doch relativ 'günstig' gesetzt ist. Auch die Modelle mit GA102 (3080/90) Chip verbrauchen zuviel Energie im Vergleich zur 2080ti (TU102), welche etwas mehr Chipfläche hat und trotzdem fast ein Drittel weniger Strom verbraucht (bei nur geringfügig tieferem Takt). Der 8nm Prozess bei Samsung scheint mir nicht das Gelbe vom Ei zu sein, TSMC hätte das vermutlich besser hinbekommen. Aber die waren dem guten Jensen wohl zu teuer ... (den Mehrverbrauch von GDDR6 einmal vernachlässigt)
Das entschärft das Problem der Kühlung leider gar nicht. Schauen wir was die 3060/3050(ti) etc. bringen werden, die sind ohnehin eher meine Kategorie ...
Demnach 'nur' Optimierungen im Detail wobei diese noch mehr auf die aktuellen Software-/Spieleanforderungen zugeschnitten sind. Naja, ist ja auch ein ziemlich kurzlebiges Geschäft.
Enttäuscht hat mich laut Tabelle die 3070 vs. die 2080ti. Der GA104 (3070) hat nur rund die Hälfte der (Chip-)Fläche des TU102 (2080ti) und kaum mehr Transistoren, trotzdem verbraucht er kaum weniger Energie, trotz shrink von 12nm auf 8nm. Die Grafikleistung beider wird ja ähnlich erwartet, dafür schluckt die 3070 einfach zu viel. Das war wohl auch NV klar weshalb der Preis doch relativ 'günstig' gesetzt ist. Auch die Modelle mit GA102 (3080/90) Chip verbrauchen zuviel Energie im Vergleich zur 2080ti (TU102), welche etwas mehr Chipfläche hat und trotzdem fast ein Drittel weniger Strom verbraucht (bei nur geringfügig tieferem Takt). Der 8nm Prozess bei Samsung scheint mir nicht das Gelbe vom Ei zu sein, TSMC hätte das vermutlich besser hinbekommen. Aber die waren dem guten Jensen wohl zu teuer ... (den Mehrverbrauch von GDDR6 einmal vernachlässigt)
Das entschärft das Problem der Kühlung leider gar nicht. Schauen wir was die 3060/3050(ti) etc. bringen werden, die sind ohnehin eher meine Kategorie ...
dustydelta
Ensign
- Registriert
- Feb. 2020
- Beiträge
- 198
Was mich bei der Frage "AMD oder Nvidia" aktuell am meisten interessiert ist weniger die Leistung oder der Speicher: Wird AMD dieses mal eine brauchbare KI-Alternative zu Raytracing oder DLSS haben. Leistungstechnisch wirds bei beiden Herstellern wohl schnell genug sein, aber ohne alternative Features kann zumindest ich keine AMD mehr kaufen.
Die Zeit in der Grafikkarten einfach nur schnell sein müssen ist meiner Meinung nach vorbei.
Die Zeit in der Grafikkarten einfach nur schnell sein müssen ist meiner Meinung nach vorbei.
TNM
Captain
- Registriert
- Mai 2010
- Beiträge
- 3.655
Hm, das liest sich allerdings schon etwas gemischt. Wenn ich das nicht völlig falsch verstanden habe, hängt die Leistungssteigerung diesmal stark von der Software ab bzw. dem genutzten Szenario.
Im worst case zieht nur die 3080 mit einer 2080ti gleich, best case schafft das die 3070 bereits. Im Moment sieht es für mich so aus, dass jene recht behalten, die meinen, die 3070 wird mal vorn, mal zurück liegen. Laut diesen Daten ist das das wahrscheinlichste Szenario.
Trotzdem, bei 500€ vs. 1200€ immer noch "ok".
Wer also eine gesetzte Leistungssteigerung will greift wohl doch zur 3080.
Im worst case zieht nur die 3080 mit einer 2080ti gleich, best case schafft das die 3070 bereits. Im Moment sieht es für mich so aus, dass jene recht behalten, die meinen, die 3070 wird mal vorn, mal zurück liegen. Laut diesen Daten ist das das wahrscheinlichste Szenario.
Trotzdem, bei 500€ vs. 1200€ immer noch "ok".
Wer also eine gesetzte Leistungssteigerung will greift wohl doch zur 3080.
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.662
Warum sollte man die 3080 mit der 2080Ti vergleichen?canada schrieb:Was ich interessant finde, das man da zum vergleich nur die normale GTX2080 heran genommen wurde und nicht die Ti Version, denn dann wäre der Balken Abstand bedeutend kleiner wenn man zum CB Chart schaut zwischen 2080 (Ti) und 3080. Aber so sieht der Balken Abstand ja viel größer aus.
Wenn man das tun würde, klar, dann wäre der Abstand kleiner aber dann muss man auch über die 700 vs 1200 Dollar sprechen.
Der Vergleich 2080 700 Dollar vs 3080 700 Dollar ist hier passender.
Überall und zu 100% immer besser? Ich hab da schon anderes gesehen..Sentinel. schrieb:Was sollte die Fachpresse gegen diese Tricksereien haben, wenn sie einen großen Leistungsschub bieten und dazu noch besser aussehen?
Ich zitiere mal aus einem Test: "Ursächlich dafür ist Nvidias Entscheidung, DLSS als Entlastungsmaßnahme zu bewerben, die bei vergleichbarer Qualität die Leistung erhöht. Dahinter steckt keine Zauberei, sondern ein uralter Trick: Die interne Render-Auflösung fällt bei aktivem DLSS geringer aus als die im Spiel eingestellte. Es liegt in der Natur der Sache, dass eine reduzierte Auflösung zu entsprechend geringerer Qualität und stärkerem Aliasing führt. Hier setzt das Herzstück von DLSS an: Die Software weiß aus den Trainingssessions, welche Informationen verlorengehen, und versucht diese nach bestem Wissen spatial (räumlich) und temporal (zeitlich) aufzuwerten."
Nix anderes haben die früher gemacht, da wurde es nur nicht als AI, Deep Learning und schieß mich tot bezeichnet.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.630
Guter Punkt und trifft den Nagel auf den Kopf. Das wird eben genau die Frage sein, wie es nvidia schafft, das effektiv zu verteilen.Teralios schrieb:Na ja, ein Problem würde ich es nicht nennen. Bei den aktuell gängigen Workloads der Engines, kann es durchaus sinnvoll sein, dass man erst versucht "128"-FP32-Berechnungen abzuknuspern und dann die geringe Menge an INT32-Berechnungen nachzuschieben.
Ob sie sich da z.B. spezielle Pfade in Sachen Treiber/Threads/Blocks/Warps geschaffen haben bzw. entsprechende Kontrollinstanzen.
Zuletzt bearbeitet:
Pixelhomie
Ensign
- Registriert
- Okt. 2007
- Beiträge
- 233
Die spannende Frage ist ob Nvidia auch zum Weihnachtsgeschäft genug Karten liefern kann. Vor allem die 3070 dürfte denen aus den Händen gerissen werden. Bei AMD ist es so wie immer, die RDNA2 Karten kommen zu spät. Aktuell besitze ich noch eine 5700XT hätte aber für meine UWQHD Monitor gerne etwas schnelleres. Wenn AMD bis Ende November nichts abliefert wird es wohl die 3070.
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.662
Wäre schön, wenn du den Test auch verlinken würdest, damit man weiß, ob dort über DLSS 1.0 oder DLSS 2.0 geredet wird, es liest sich eher nach DLSS 1.0 und ist damit irrelevant für das Thema hier.canada schrieb:Ich zitiere mal aus einem Test:
T
Teralios
Gast
Die Frage ist, wie die zusätzlichen FP32-Einheiten angesprochen werden müssen. Über einen zweiten Thread, dann könnte zumindest ein Teil der Leistung stecken bleiben, sofern die Engine als auch der Treiber damit nicht umgehen können..Sentinel. schrieb:Sie trimmen alles auf Hybrid RTRT. Und da haben sie mit Verdoppelung der FP32 Einheiten einen genialen Schachzug hingelegt, weil sie mit relativ wenig Aufwand die RT- Softwareshader erheblich beschleunigen können, ohne an der Rasterleistung zu knabbern.
Dafür spricht aktuell sehr viel. Die Frage ist, ob NVIDIA es schafft diese "Auslastungsbremse" zu lösen, wobei NVIDIA selbst mit 2 Threads pro SM dann noch gut dasteht. AMD hat ja pro CU nicht umsonst auch auf eine 2 * 32-Aufteilung zurückgegriffen, da das einfacher auszulasten ist, als die bisherige 4 * 16-Aufteilung.
Was beim Aufbau von NVIDIA auch kein Problem war, da NVIDIA zwar auf Hardware-Ebene eine etwas feinere Gliederung hat, nach außen jedoch die 128 bei Pascal als auch die 64 bei Turing als "ganzes" angesprochen wurde und man so wirklich "bis zu 128/64FP" Werte berechnen konnte..Sentinel. schrieb:Du legst ja schon den Finger auf die Wunde. nvidia war über die Jahre konstant stark darin, eben genau die Auslastung gut im Griff zu haben.
Die große Frage aktuell: Sind es wie bei Pascal dann "bis zu 128 Werte" oder eben 2 * "bis zu 64 Werte", so wie aktuell halt auch bei Turing. Für letzteres spricht aktuell, dass NVIDIA wirklich alles dafür tut, dass man alle Bereiche der SM auslasten kann zur gleichen Zeit und so möglichst viele Shader mit unterschiedlichem Workload auf der SM laufen können.
Nur diese Auslastung ist massiv vom Treiber als auch der Software abhängig. NVIDIA könnte hier ähnlich auf die Fresse fliegen wie AMD bei GCN. Vor allem könnte ein Überladen der SM mit Shadern (Programm!) am Ende sich auch negativ auswirken.
NVIDIA könnte sich hier ein Monster in Sachen Treiber ans bein gebunden haben und ähnlich abhängig von Softwareoptimierungen werden, wie es GCN war. Nur im Gegensatzu zu AMD, traue ich NVIDIA es zu, dass sie entsprechende Ressourcen sowohl in die Treiber als auch Engines stecken können.
Ach, ich sag es ganz ehrlich: Ich mag Ampere jetzt schon. Ach, so spannend war es echt lange nicht mehr!
D
David_B
Gast
Monstranz schrieb:Warum auch, kaufen doch eh die meisten GRUEN. Warum sollte AMD was guenstigeres fast gleichwertiges bringen. Die machen ihr Portfolio wo anders. Brauchen die Recoucen fuer Gewinnbrigenderes als Grakas.
Konsolen bringen halt auch nicht das Geld rein welches man durch dezidierte GPUs einnimmt. AMD hätte die Sparte wohl schon abgestoßen wenn sie deiner Meinung wären. Stimmt schon bei einer 80/20 Marktaufteilung sind sie in ner ganz miesen Position.
Und durch ihr Schweigen machen sie's nur schlimmer.