Aber vielleicht doch eher ein anderer Typ Brechstange. Der GA102 ist sehr breit und taktet gar nicht mal soo hoch und verbrät insgesamt viel. Ein schmaleres Design, welches über den Takt dorthin geprügelt wird, ist vielleicht noch weiter außerhalb des Sweetspot und wird ineffizienter.Taxxor schrieb:Naja was anderes als Brechstange ist so eine 3080 mit 320W auch nicht, das sind schließlich 95W mehr als der Vorgänger
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling
- Ersteller Wolfgang
- Erstellt am
- Zum Bericht: RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling
monitorhero
Lt. Junior Grade
- Registriert
- Apr. 2017
- Beiträge
- 295
Ich habe hier in dem Thread öfter von 20GB Versionen gelesen. Ist das mehr als nur ein Gerücht oder kann man damit in 2021 rechnen? Und werden das dann gleich die Super Varianten?
- Registriert
- Mai 2011
- Beiträge
- 21.120
z.B. dass die Perf/Watt von 1080 auf 2080 ohne Node Shrink um 10% gestiegen ist und die Perf/Watt von 3080 auf 2080 um die gleichen 10% gestiegen ist(wenn wir von 65% Mehrleistung im Schnitt ausgehen), trotz Node Shrink und in den Folien gezeigter "1.9x Perf/Watt", weil man bei der 3080 eben sogut wie alles an Effizienzgewinnen über Board geworfen hat um die Leistung noch ein Stück weiter zu pushen und noch mehr Shader draufzusetzen.xexex schrieb:Es ist aber effizienter also worüber reden wir?
Und zu "Es zählt nur, dass sie effizienter ist": Würde sie 450W verbrauchen und 120% schneller sein als die 2080, wäre sie auch etwas effizienter als die 2080. 450W wären trotzdem nicht gut
Zuletzt bearbeitet:
Verstehe ich das richtig?
DLSS funktioniert nur, wenn Nvidia für jedes Spiel seine Server anschmeißt und ein Trainig macht und das Ergebniss dann im Grafiktreiber hinterlegt?
D.h. wenn Nvidia bei Erscheinen einer neuen Generation für die allte kein DLSS-Training mehr macht und dementsprechend für neue Spiele nichts im Grafiktreiber für die alten Karten hinterlegt, dann ist die alte Karte des Features für neue Spiele quasie beraubt? D.h. dann, wenn man die DLSS-Beschleunigung am dringsten braucht, nämlich wenn die nackte Performance der "alten" Karte nicht mehr reicht, kann man Sie für neue Games mit alter Grafikkarte gar nicht mehr anwenden?
DLSS funktioniert nur, wenn Nvidia für jedes Spiel seine Server anschmeißt und ein Trainig macht und das Ergebniss dann im Grafiktreiber hinterlegt?
D.h. wenn Nvidia bei Erscheinen einer neuen Generation für die allte kein DLSS-Training mehr macht und dementsprechend für neue Spiele nichts im Grafiktreiber für die alten Karten hinterlegt, dann ist die alte Karte des Features für neue Spiele quasie beraubt? D.h. dann, wenn man die DLSS-Beschleunigung am dringsten braucht, nämlich wenn die nackte Performance der "alten" Karte nicht mehr reicht, kann man Sie für neue Games mit alter Grafikkarte gar nicht mehr anwenden?
monitorhero
Lt. Junior Grade
- Registriert
- Apr. 2017
- Beiträge
- 295
Convert schrieb:Verstehe ich das richtig?
DLSS funktioniert nur, wenn Nvidia für jedes Spiel seine Server anschmeißt und ein Trainig macht und das Ergebnss dann im Grafiktreiber hinterlegt?
D.h. wenn Nvidia bei erscheinen einer neuen Generation für die allte kein DLSS-Training mehr macht und dementsprechend für neue Spiele nichts im Grafiktreiber für die neuen Spiele hinterlegt, dann ist die alte Karte des Features für neue Spiele quasie beraubt? D.h. dann, wenn man die DLSS-Beschleunigung am dringsten braucht, nämlich wenn die nackte Performance nicht mehr reicht, kann man Sie für neue Games mit alter Grafikkarte gar nicht mehr anwenden?
Die gleiche Frage wollte ich auch gerade stellen. Man ist also immer auf neuste Treiber angewiesen die das Training updaten?
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.435
Die erste Frage ist, in welchen Games schafft Ampere mit der doppelten Anzahl an FP Units am Ende auch die Doppelte Performance im Vergleich zu Turning. Skaliert das 1 zu 1 ?xexex schrieb:AMD hat ja angekündigt RT Berechnungen über die normalen Shader durchführen zu lassen, was möglicherweise dazu führen wird, dass diese Karten in RT Spielen abstinken, aber in Spielen die nur klassische Shader nutzen mit Nvidia mithalten können.
Bei Anwendungen scheint es ja so zu sein, war bei Vega aber auch der Fall. In Games dann aber nicht mehr so.
Betrachtet man AMD RDNA hat AMD genau den anderen Schritt gemacht. aus 40 CUs wurden 20 Dual CUs, wenn auch das Marketing weiterhin CU bzw Shader Anzahl wie NV 1zu1 zur Vorgängergeneration angibt.
RDNA arbeitet jetzt aber wie AMD SMX mit 32 Threads, wenn auch die Dual CUs per se auch GCN 64 thread Code unterstützt und das jedes mal "übersetzen" muss.
Interessant ist auch der Größenvergleich bezüglich SMX mit RT und dual CUs.
Ich habe keine Vergleichswerte. Nehmen wir aber an, zwei CUs sind so groß wie ein SMX (mit RTX) Cores, hätten wir am Ende dann auch zwei dualCUs mit jeweils 64 Shader sprich 128 Shader vs ein SMX mit RTX Cores und auch 128 Shader. Die CUs könnten aber am Ende ähnlich wie NV Integer, FP Berechnungen machen. Nur müssen sie eben auch zwischen RT und Texture wählen (ehrlich gesagt was RT angeht bin ich nicht so belesen, kann also keinen Unterschied festmachen).
Also für mich sind da noch zu viel unbekannte um jetzt wirklich einen Vergleich machen zu können. Shader und TFLOPs Angaben sind eben nicht alles.
Es wird ja auch immer wieder gemunkelt, dass Big Navi gar nicht so Big ist, sondern nur 470 mm^2 groß und dass der 505 Chip am ende sogar CDNA ist. Von der Chipgröße also auch unterhalb der kommenden Flaggschiff von NV ist.
Das Problem dürfte sein, dass Boardpartner wohl selbst kaum Infos haben und bisherige Gerüchte eher von Leuten kommen, die indirekt mit TSMC zu tun haben. Deshalb ist es auch zwecks Gerüchte und AMD so still. Da dürfte Anfangs nur Referenzkühler kommen. Bleibt zu hoffen, dass AMD sich da passenden Partner gesucht hat, die dann mit Sapphire diese Karten produziert. AMD hatte auch mit CoolerMaster zwecks AIO in Vergangenheit gearbeitet. Wer das Design der Radeon VII entworfen hat, müsste ich nachlesen (ob es auch mit Partner war).
Bei Vega20 muss man aber auch sagen, dass das komplette Design selber, nie auf Gaming ausgelegt war. Ist zwar keine Rechtfertigung aber irgendwie unerwähnt sollte es nicht bleiben.
Am Ende weiß man einfach nichts und muss sich überraschen lassen, außer Sony und MS geben Benchmarks raus.
Was ich bei Ampere sehr spannend finde ist die getrennte Spannungsversorgung. Da könnte AMD sich eine Scheibe abschneiden. Wobei Fraglich ob sich da bei AMD nicht eh auch was tut, den Vega von Renoir hat ja auch einiges an Performance/Watt gewonnen.
Zuletzt bearbeitet:
L
Lübke82
Gast
Wadenbeisser schrieb:Faule Ausrede, um den Verbrauch zu senken hätte man nur die Taktfrequenz entsprechend senken müssen aber genau das wurde nicht gemacht sondern auf den Verbrauch gepfiffen um die Taktfrequenz hochzuschrauben und Leistung rauszuquetschen. Ob 2 GHz oder nicht ist dafür unerheblich.
Aber wer meint die Karten verbraten zu viel Strom, kann doch die Stromaufnahme auch begrenzen bei Bedarf und selbst abwägen was für ihn der beste Kompromiss aus Stromaufnahme und Leistung ist...oder er bleibt halt bei Turing.^^
G
gr1nd
Gast
Nein! Nvidias neuronales Netz trainiert "am laufenden Band" mit zigtausenden hochauflösenden Bildern. Und die Ergebnisse kommen dann der AI zu gute, die jede DLSS fähige Grafikkarte mit den Tensor Cores benutzen kann.Convert schrieb:Verstehe ich das richtig?
DLSS funktioniert nur, wenn Nvidia für jedes Spiel seine Server anschmeißt und ein Trainig macht und das Ergebniss dann im Grafiktreiber hinterlegt?
Supermax2004
Lt. Commander
- Registriert
- Aug. 2004
- Beiträge
- 1.643
Hoffentlich liegt die 3080 bei quasi jedem Spiel en Stück über der 2080 Ti.
Ab hier noch nicht weitergelesen: aber du hast Recht. Jetzt Stelle mal (anhand der NV Benchmarks) 2 3080 für 1600€ einer 3090 gegenüber....tochan01 schrieb:Auch wenn es kaum noch einer nutzt aber sli nur für die 3090 ist doch kacke. Es darf wohl keiner sehen, dass 2 kleine gpus die dicke in die Tasche stecken..
T
Teralios
Gast
Ja, heute gibt es soviele tolle Möglichkeiten. Ich bremse meine GPU auch auf 72 FPS ein und komme bei den meisten Spielen kaum mehr über 50 Watt Verbrauch auf der GPU.Lübke82 schrieb:Aber wer meint die Karten verbraten zu viel Strom, kann doch die Stromaufnahme auch begrenzen bei Bedarf und selbst abwägen was für ihn der beste Kompromiss aus Stromaufnahme und Leistung ist...oder er bleibt halt bei Turing.^^
Man hat heute wirklich viele Möglichkeiten auch so ein Monster zu zügeln und trotzdem die Leistung zu haben, wenn man sie braucht.
Phneom
Lt. Commander
- Registriert
- Apr. 2013
- Beiträge
- 2.036
Bin mir ziemlich sicher das AMD ab jetzt nicht mehr wirklich gegenhalten kann.
Mag ja sein das RDNA bzw dann jetzt RDNA2 Hardware mäßig mehr könnte aber wenn ich mir die Software bei AMD ansehe sehe ich da absolut kein Licht mehr für AMD.
Die 5000er Karten waren halt ein Griff ins Klo (Software).
Das RDNA1 Debakel war jetzt nicht wirklich gutes Marketing und die Leute werden imho RDNA2 meiden.
Da AMD bis heute OpenGL unter Windows nicht so gut kann und die Ampere Karten mir zusagen werde ich dann zu 90% ins Team Grün wechseln bei der GPU. Die OpenCL Probleme sollten wir auch nicht unterschlagen und noch dabei erwähnen das Nvidia CUDA hat.
Aber wer weiß vielleicht überrascht AMD uns ja. Nvidia scheint ja irgendwie Angst zu haben und haben einfach mal eben mit der Brechstange geliefert was sie können Entweder haben sie AMD damit jetzt unangespitzt in den Boden gestampft oder halten normal mit.
Mag ja sein das RDNA bzw dann jetzt RDNA2 Hardware mäßig mehr könnte aber wenn ich mir die Software bei AMD ansehe sehe ich da absolut kein Licht mehr für AMD.
Die 5000er Karten waren halt ein Griff ins Klo (Software).
Das RDNA1 Debakel war jetzt nicht wirklich gutes Marketing und die Leute werden imho RDNA2 meiden.
Da AMD bis heute OpenGL unter Windows nicht so gut kann und die Ampere Karten mir zusagen werde ich dann zu 90% ins Team Grün wechseln bei der GPU. Die OpenCL Probleme sollten wir auch nicht unterschlagen und noch dabei erwähnen das Nvidia CUDA hat.
Aber wer weiß vielleicht überrascht AMD uns ja. Nvidia scheint ja irgendwie Angst zu haben und haben einfach mal eben mit der Brechstange geliefert was sie können Entweder haben sie AMD damit jetzt unangespitzt in den Boden gestampft oder halten normal mit.
W
Wadenbeisser
Gast
Dann ist die Lösung also das der Käufer der Karte auf bezahlte Eigenschaften verzichten soll um den Verbrauch zu zügeln anstatt darauf zu pfeiffen und den Verbrauch per OC hochzutreiben? 🤔Lübke82 schrieb:Aber wer meint die Karten verbraten zu viel Strom, kann doch die Stromaufnahme auch begrenzen bei Bedarf und selbst abwägen was für ihn der beste Kompromiss aus Stromaufnahme und Leistung ist...oder er bleibt halt bei Turing.^^
Ich finde diese Diskussion so witzig weil ich mich noch verdammt gut an die Diskussionen erinnern kann bei denen AMD für seine 250-300W Monster verteufelt wurde und das nicht primär wegen der Effizienz sondern vielmehr wegen der Abwärme und der damit verbundenen Probleme an sich. Auch wurde bei Custom Designs mit tripple Slot Kühlern (wegen der hohen Verlußtleistung) Gift und Galle gespuckt....jetzt wird beides in den Himmel gelobt.
Was wohl für die Sinneswandlung verantwortlich ist?
Phneom
Lt. Commander
- Registriert
- Apr. 2013
- Beiträge
- 2.036
Der PreisWadenbeisser schrieb:Was wohl für die Sinneswandlung verantwortlich ist?
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.638
Wadenbeisser schrieb:Beim Supersampling werden eher viele Samples aus den angrenzenden bereichen Bereichen genutzt um dessen Eigenschaften so zu verändern damit es so an die umgebung angepasst wird das fehler durch zu harte Kanten gemindert werden.
Das ist Supersampling in Beziehung zu reinem Antialias. Bei DLSS passiert das Full- Screen.
Du bist ganz nah dran.Würde deine Theorie zutreffen dann gäbe es seitens der Framerate keine Vorteile weil alle Pixel des ausgegebenen Bildes den Renderablauf durchlaufen hätten, siehe SSAA welches unmengen an Rechenleistung frißt.
Ich zitiere aus dem 3D Center:
Was am Ende auch kein Wunder ist wenn man sich mal ansieht wie DLSS funktioniert, das Rendert nämlich Quasi mit 4x4SSAA. Also selbst mit der Quality-Einstellung die im Verhältnis zur eingestellten Auflösung jede Achse halbiert wird effektiv immer noch ein Bild mit 2x2SSAA berechnet.
Auch hier empfehle ich nochmal ein wenig Lektüre. Die macht das Ganze klarer:
http://behindthepixels.io/assets/files/DLSS2.0.pdf
G
gr1nd
Gast
Naja, das lag aber eben auch daran, dass es die Konkurrenz bei mind. gleicher Leistungsabgabe mit deutlich weniger Leistungsaufnahme geschafft hat. Wenn das mit Big Navi dann auch so sein sollte, darf zurecht gewettert wrdenWadenbeisser schrieb:Ich finde diese Diskussion so witzig weil ich mich noch verdammt gut an die Diskussionen erinnern kann bei denen AMD für seine 250-300W Monster verteufelt wurde und das nicht primär wegen der Effizienz sondern vielmehr wegen der Abwärme und der damit verbundenen Probleme an sich.
Darkscream
Fleet Admiral
- Registriert
- Feb. 2010
- Beiträge
- 17.542
Finde den Vergleich aber relativ unfair, weil die 3080 diesmal auch den großen Chip hat. War bei der GTX 780 das letzte mal so.Taxxor schrieb:Ob man die Leistung nun mit übertrieben hohem Takt oder übertrieben hoher Anzahl an Schaltungen soweit erhöht, es bleibt für mich eine Brechstange wenn man die TDP dabei um 100W anhebt.
Was man am besten vergleichen kann ist die "T-REX" mit 280W zur 3090 mit 350W (gleicher Vram und großer Chip), hier komme ich auf +25% TDP.
Bleibt noch ab zu warten wo sich Big Navi einsortiert, dass sie die 3090 schlagen können glaub ich jetzt nicht, ich hoffe aber das es für eine 3080 reicht, weil da sicher noch eine TI mit 20GB und ein paar Shadern mehr kommt.
G
gr1nd
Gast
War nicht der 14.9. genannt worden? Sicher bin ich mir aber nicht.th3o schrieb:Gibt es schon Informationen wann die NDA fällt und die ganzen unabhängigen Reviewer ihre Ergebnisse der RTX 3080 präsentieren können? Sollte ja eigentlich irgendwann kommende woche so langsam passieren.
Edit: https://www.pcgameshardware.de/Graf...X-3080-Founders-Edition-14-September-1357565/
Ist aber nichts offizielles.
- Registriert
- Mai 2011
- Beiträge
- 21.120
Was aber ja auch eine bewusste Entscheidung von Nvidia war, den 2080 Nachfolger nicht mehr auf dem 104er Chip zu bringen, was dann passiert sieht man ja an der 3070, die zwar effizienter ist, aber auch sehr viel besser von Big Navi schlagbar.Darkscream schrieb:Finde den Vergleich aber relativ unfair, weil die 3080 diesmal auch den großen Chip hat.
Man ist also ganz bewusst auf einen sehr viel höheren Verbrauch gegangen, wobei einem ein 30-40% Plus zur 2080 auch hätte reichen können zum gleichen Preis bzw durch den kleineren Chip sogar eher noch für $599.