Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtRTX-3000-Technik im Detail: Floating Point ist Amperes Liebling
Hinzu kommt auch, dass es vermutlich auch keine Alternative zu DLSS geben wird, welches natürlich noch nicht weit verbreitet ist, aber dennoch eine gute Technik ist - zumindest seit 2.0.
"huge price" bezieht sich bestimmt auf die 3090.
Warum soll er damit die 3080 gemeint haben, die alle als relativ günstig ansehen von der Leistung her.
Wenn GA102 "einen hohen Preis bezahlt", um Big Navi zu schlagen, dann redet man hier nicht über den Verkaufsaufpreis.
Ich denke es ist realistischer, dass hiermit der Verbrauch gemeint ist, indem man den hohen Preis von 320W TDP zahlen muss, um Big Navi mit 275W zu schlagen. Weswegen Igor in seinem Video ja auch davon gesprochen hat, dass es auch eine Big Navi Version mit 300W geben könnte um näher an die 3080 ranzukommen.
Das ist für dich um 4 Ecken gedacht? Die Redewendung "einen hohen Preis zahlen" steht nun mal dafür, dass man in irgendeiner Form schwere Einschnitte machen muss um etwas zu erreichen.
Wenn im Krieg gesagt wird man hat für einen Sieg einen hohen Preis bezhalt, sind damit meist die hohen Verluste auf der eigenen Seite gemeint.
Wenn man bei Grafikkarten einen hohen Preis für die Führung über eine andere Grafikkarte bezahlt, was fällt dir denn da außer hohem Verbrauch noch ein?
Ergänzung ()
sifusanders schrieb:
Hinzu kommt auch, dass es vermutlich auch keine Alternative zu DLSS geben wird, welches natürlich noch nicht weit verbreitet ist, aber dennoch eine gute Technik ist - zumindest seit 2.0.
@matty2580 Er redet nur von den Chipnamen GA 104 (3070) und GA 102 (3080, 3090). Er erwaehnt explizit keine Karten. Das interpretierst du rein.
@Taxxor Man kann es auch etwas freier in Richtung Federn lassen uebersetzen. Am meisten Sinn wird es wohl machen, wenn man davon ausgeht, dass GA 102 nicht so lockerflockig ueberall ueberfluegelt.
@Taxxor Man kann es auch etwas freier in Richtung Federn lassen uebersetzen. Am meisten Sinn wird es wohl machen, wenn man davon ausgeht, dass GA 102 nicht so lockerflockig ueberall ueberfluegelt.
In der Bedeutung ist mir der Ausdruck so noch nicht untergekommen.
Es ging ja vorher um das "schlagen", und dass GA102 dafür einen hohen Preis bezahlen soll.
Wenn man jetzt in manchen spielen hinten liegt, dann hat das damit ja eigentlich nichts zu tun.
Wenn man aber irgendwas macht, um auch in diesen "manchen" Spielen nicht hinten zu liegen, wie eben den Verbrauch extrem hoch schrauben, dann ist dass der Preis den man für die Leistungskrone zahlt.
matty2580 schrieb:
Mein Deutschleistungskurs, also beim Abi, ist 7 Jahre her.
Ich schätze sogar, dass NVIDIA über BigNavi wirklich mehr wusste - deutete ja sogar Igor mal an - und man hier dann erkannte, dass BigNavi über alles hinweg etwas zu nah an GA102 herangekommen ist und in gewissen Szenarion sogar schlagen kann und man deswegen dann die 64 INT32-Alus auch für FP geöffnet hat, denn ich glaube kaum, dass NVIDIA hier wirklich hoch spezialisierte "INT32"-Alus entwickelt hat bei Turing, denn INT32 konnte ja auch Pascal. Sondern dass man einfach die 128 Alus von Pascal zu Turing in 2 Blöcke geteilt hat, die entsprechend an den Scheduler klatscht3e und separat anspricht und halt eine künstliche Beschränkung auf INT32 aufsetzte, damit beides nebeneinander geht.
Um hier dann wider Sicherheit zu bekommen, hat man sich nun dazu entschieden die INT32 auch für FP zu öffnen, was ja dann auch nicht "so" schwer ist, wenn man vorher halt einfach eine weiche Schranke einbaute bei Turing.
In der Bedeutung ist mir der Ausdruck so noch nicht untergekommen.
Es ging ja vorher um das "schlagen", und dass GA102 dafür einen hohen Preis bezahlen soll.
Wie gesagt, freier uebersetzt, aber im Endeffekt kommt was aehnliches raus. Geht auch eher darum, dass es mit "leiden" verbunden ist und hohem Schaden. Ob jetzt gewonnen wird ist eine andere Frage.
@Teralios Das klingt nicht komplett daneben. Wuerde auch erklaeren warum der professionelle Chip es nicht hat, zumindest nach meinem Kenntnisstand. Beim Gaming ist eine Variable FP32 Leistung jetzt nicht so schlimm, bei professionellen Anwendungen schon eher wenn man sich darauf verlassen muss. Mal schauen ob es da noch Analysen gibt.
Also die letzten CUDA-Teste die ich mal machen durfte - ganz simples MADD, ADD sowie MUL mit "Vektoren" und passende Anzahl an Threads auf die GPU, das kann jeder programmieren - hat jede SM genau ein "CUDA Vector" mit 64 FP32 und eben einen mit INT32 geschluckt. Ein dritter mit 32 FP64 und über sowie entsprechend die 4 Tensor-Matrizen. Natürlich alles über 4 Threads aufgebläht für die A100.
Ich müsste mal meinen Bekannten Fragen, ob er mir mal ne halbe Stunde, Stunde auf dem Cluster mit einer A100 einrichten kann, nur ist der Cluster bei den halt jetzt voll im Beschlag, seit er diesen eingerichtet hatte und es den Wissenschaftler übergeben hat.
Es ist ja kein Problem den INT-Vektor durch nen FP-Vektor zu ersetzen, einfach umschreiben und ob es nicht doch möglich ist. Als ich spielte, hab ich nur das angekündigt was war. Man müsste dann auch testen, ob man über 2 Threads (ich vereinfache es hier, bitte nicht hauen) reinmuss um die 128 FP-Werte zu berechnen oder ob er über einen Thread 128 frisst und ausführt.
Irgendwie, will jemand meine linke Niere? 3090 als Zahlung wird akzeptiert!
"Der ID-Tech Engine Chef BillyKhan meint 8GB wäre das mindeste was man haben sollte am besten mehr und zwar hilft eine niedrige Auflösung aber auch nicht so viel. Ray_Tracing wird viel Speicher abverlangen usw."
@legenddiaz:
Preislich wird die 3070ti und die 3080ti sowieso deutlich über den ersten GPUs ohne "ti" sein.
Und niemand weiß wann die Versionen mit mehr VRAM kommen werden.
Die 8 bzw 10GB werden für 99% der Spiele auch ausreichen.
Aber es gibt Games wo heute selbst 10GB knapp werden, wie z.B. Horizon Zero Down in 4k.
Daran würde ich den GPU-Kauf an deiner Stelle nicht fest machen, da es wirklich aktuell Ausnahmen sind.
Brauchst du die GPU schnell, dann jetzt kaufen, sonst warten und mit Big Navi vergleichen, oder auf die 3070/3080 mit mehr VRAM warten.
" And GA102 will also pay a huge price. Wait for November. "
imho geht es hier nicht um den tatsächlichen Geld-Preis sondern, dass GA102 es auch schwer hat. 3080 ist realistisch und die 3090 ist schneller muss aber hohe TDP (350W) fahren. Aber wie gesagt ist natürlich Spekulation.
Noch haben wir weder mehr Infos zu Big Navi, noch haben wir Benchmarks zu den Ampere Karten
Ich schätze hiermit ist auch der Verbrauch gemeint? Oder unvorhersehbar schlechte Leistung in Rasterization. Das schreibt er ja auch " Calm down, and focus on the performance of traditional rasterization. "
Ergänzung ()
matty2580 schrieb:
Mein Deutschleistungskurs, also beim Abi, ist 7 Jahre her.
Und auf solche Interpretationen habe ich keine Lust....
Twitter ist eine offene Plattform.
Schreibt Kopite7kimi selbst an, und fragt noch einmal nach.
Du kannst eben schlecht über die bessere Lastverteilung des Nvidiatreibers sprechen, wenn das eigentliche Thema die CPU Performance ist. Das hat ja mit der absoluten CPU Leistung die AMD momentan noch fehlt nichts zu tun, denn eingesetzt wird da es momentan sowieso nur die schnellere Nvidia GPU gibt.
Nö hatte ich nicht, nur das die Teile im richtigen CPU Limit (alle Kerne auf 100%) stärker einbrechen weil der zusätzliche Overhead für den Multicore Workaround ganz einfach mehr leistung wegfrißt und nein, genau das wird bei den "CPU Limit" Tests nicht getestet sondern nur wieviel CPU Leistung von Spiel und Treiber genutzt wird denn für die CPU Auslastung selbst interessiert sich dabei niemand.
Ursache -> Wirkung eben.
Ist das Spiel nicht fähig die CPU auszulasten gewinnt im Software CPU Limit derjenige der für seine Hardware mehr von der brach liegenden Rechenleistung nutzbar macht. Den dafür nötige Overhead interessiert dann niemanden.
Ich Sprach also nicht schlecht über den Treiber sonder über die ineffiziente Hardware Nutzung der Spiele selbst.
Es ist ziemlich egal ob was shaderlastig ist oder nicht ist ziemlich egal wenn es nicht hinreichend mt Daten zur Bearbeitung versorgt werden kann und das ist nunmal der fall wenn die Framerate kaum bis garnicht mit schnelleren Grafikkarten skaliert.
Die Framerate skaliert im CB Test bei 4k ziemlich sauber über die GPUs. Der Unterschied von einer 2070 Super zur 2080ti ist mit 32% sogar noch über den 31% Unterschied der GPU Rangliste. Die Aussage, dass die Framerate nicht mit schnelleren Grafikkarten skaliert, ist damit einfach falsch.
Logo, bei UHD rauschen die wenigsten Spiele mit den Karten in das CPU Limit aber wie man dort ebenfalls sieht rauscht die GPU Testsequenz bei ca. 55 FPS avg und 37 FPS min das harte CPU Limit. Schaut man sich dann noch die Werte des CPU Tests an sieht es gleich richtig traurig aus. Das hat selbst auf high kaum noch was mit spielbaren Frameraten zu tuen und das nur wegen dem CPU Limit des Spiels selbst.