Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Kacha schrieb:
Dann sollte man aber einfach nicht spekulieren und es erstmal etwas kritisch sehen. Dass man magisch zwei FP32 in einer Einheit berechnen kann macht einfach wenig Sinn.
Wieso magisch, wenn Du entsprechende Einheiten einfach verdoppelst? Die sind in Hardware vorhanden und können dediziert angesprochen werden.

Hingegen INT32 und FP32 flexibel zu berechnen macht Sinn. Das hat nichts mit Informationslage zu tun, sondern schlichtweg mit ein bisschen den Verstand zu nutzen.
Auch die Möglichkeit eines Mixes innerhalb der verschiedenen Cluster.

Naja, wenn gerade mit RT wieder vermehrt INT benoetigt wird, dann sagt das erstmal gar nicht so viel aus wie man meint.
Das erledigen aber die RT- Cores (wie Teralios schon schön erwähnt hat - Suchalgorithmen)
Die Shaderstages erfolgen wieder überwiegend FP32.

Zum anderen wurde schon oft genug erwaehnt, dass es sich von Engine zu Engine und Spiel zu Spiel unterscheidet.
Genau- Wobei zu beachten ist, dass Du keinen Titel finden wirst, wo die Int- Last überwiegt.

Nein, weiss ich nicht und du genauso wenig. Es macht aber logisch wenig Sinn, dass der Aufwand geringer ist, wenn man das was man schedulen muss komplexer macht. Und Nvidia macht heute schon extrem viel in ihrem Treiber.
Genau- Deswegen sicherheitshalber gleich mal alles verneinen und den Teufel an die Wand malen?

Deswegen muss man noch lange nicht allem nachreden was Nvidia von sich gibt. Alles was von einem Hersteller kommt ist erst einmal Marketing und dient dazu das Produkt so gut wie moeglich dastehen zu lassen.
Du kannst aber ein Produkt auch nicht zu gut dastehen lassen, da einen die Realtität innerhalb kurzer Zeit einholt und das dann einen Image- und Glaubwürdigkeitsschaden nach sich zieht.

Du kannst im Vorfeld nicht machen, was Du willst, oder Du wirst virtuell gesteinigt. Siehe Ubisoft Watchdog- Downgrade & co.

Dass das nur mit einer Menge Sternchen und kleingedrucktem zu verstehen ist sollte klar sein. Aber genau das wird es nicht, sondern es wird fuer bare Muenze genommen. Das hat schlicht und ergreifend nichts mit der Informationslage zu tun, sondern damit ob man dieses runde zwischen den Ohren nutzen kann oder nicht.
Das ist schon klar. Nur ist auch klar, dass wenn Du in den heutigen Zeiten nicht ganz genau prüfst, was Du da schreibst, die Sammelklage in den USA inkl. Schadensersatz nicht lange auf sich warten lassen.

Und das ist noch das Geringste. Stellst Du das Produkt in deutlich besserem Licht dar, als es dann tatsächlich liefert, hast Du die netten Herren von der Börsenaufsicht auf dem Parkett. Und die fackeln nicht lange, wenn der Verdacht auf Kursmanipulation im Raum steht.

Was wenn doch? Es ist Marketing verdammt nochmal. Die einzig sinnvolle Antwort auf so ein Video ist "ok" und dann bei unabhaengigen Tests schauen.
Das sowieso. Da bin ich zu 100% bei Dir.

Was mich interessieren wuerde, verteidigst du so beinhart eigentlich auch AMD, oder sind es doch nur Nvidia und Intel?
Nachdem mir im Radeon VII Thread mehrfach unterstellt wurde, dass ich von den Roten gekauft sei, denke ich, dass wir das Verschieben dieser Diskussion auf ein Niveau welches uns beiden nicht gefällt, getrost lassen können. Bei Markenkriegsdiskussionen ist mein Geduldsfaden inzwischen extrem kurz.

Zum einen, weil du dir die Welt machst wie sie dir gefaellt und allen die nicht deiner Meinung sind unterstellst, dass sie alles als "voellig scheisse" sehen.
Nein- Aber einige Beiträge sind so fast schon "langweilig" tendenziös verfasst, dass ich mir beim Lesen immer wieder die Frage stelle, was der Urheber damit eigentlich bezwecken will.

Zum anderen gibt es noch interessierte, die dann auch gerne die Technik auseinander nehmen um mehr zu lernen. Das ist natuerlich auch negativ, weil moegliche Probleme auftauchen. Moeglicherweise sind aber nicht nur die anderen das Problem?
Das sind mir die liebste Gruppe. Und wenn man mit dieser einen angeregten Diskurs führt, kommt immer ein Sammelsurium an interessanter Information raus. - Daraus erwächst ja meistens auch eher ein Miteinander als ein Gegeneinander. Eben weil man eben weiß, dass man das Produkt noch nicht in den Händen hält, kann man herrlich innerhalb der bekannten Parameter spekulieren.

Macht doch nicht immer gleich so eine persönliche und pathetische Sache draus. Es geht um ne neue Grafikkarte. Ein nettes Hobby für die meisten, sonst nix.

Peace
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und Laphonso
aldaric schrieb:
Teamspeak Beta-Builds hatten schon vor Jahren ähnliche Filter-Funktionen

Hast du mal die Filter benutzt? Hast du RTX Voice im Vergleich dazu genutzt? Anscheinend nicht, sonst würdest du so einen Unsinn nicht behaupten.

"Ähnliche" Funktionen haben diverse Programme schon seit Jahren, da gebe ich dir recht. Allerdings waren diese Funktionen billige Passfilter die entweder gar nicht funktioniert hatten oder dazu geführt haben, dass man selbst oder die anderen gar nicht mehr verstand.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Shoryuken94, Trinoo und 2 andere
xexex schrieb:
Allerdings waren diese Funktionen billige Passfilter die entweder gar nicht funktioniert hatten oder dazu geführt haben, dass man selbst oder die anderen gar nicht mehr verstand.
Ja- Da spielt RTX Voice in einer anderen Liga...

Dennoch hat Aldaric recht, dass es mal mehr und mal weniger erfolgreiche Versuche in dieser Richtung schon gab und ein par Sachen auch zumindest spürbare Verbesserungen brachten.
 
xexex schrieb:
Hast du mal die Filter benutzt? Hast du RTX Voice im Vergleich dazu genutzt? Anscheinend nicht, sonst würdest du so einen Unsinn nicht behaupten.

"Ähnliche" Funktionen haben diverse Programme schon seit Jahren, da gebe ich dir recht. Allerdings waren diese Funktionen billige Passfilter die entweder gar nicht funktioniert hatten oder dazu geführt haben, dass man selbst oder die anderen gar nicht mehr verstand.

Meine Erfahrung mit RTX Voice war sehr durchwachsen (jedoch auf einer 1080 Ti). Es klang sehr roboterhaft, wie so oft mit AI. Und wenn man nicht gesprochen hat, hörte man ein Background Noise bestehend aus tausenden Stimmen. Das war schon etwas creepy :D. So als ob man die AI beim verarbeiten von Stimmsamples hören könnte.
 
Also zu RTX Voice hab ich mir das hier angesehen und das ist schon sehr beeindruckend
 
  • Gefällt mir
Reaktionen: Schokolade und xexex
xexex schrieb:
Hast du mal die Filter benutzt? Hast du RTX Voice im Vergleich dazu genutzt? Anscheinend nicht, sonst würdest du so einen Unsinn nicht behaupten.

Ja, sonst wären sie mir ja auch eher nicht bekannt. Habe diese jahrelang während meinen MMO Zeiten benutzt.

xexex schrieb:
"Ähnliche" Funktionen haben diverse Programme schon seit Jahren, da gebe ich dir recht. Allerdings waren diese Funktionen billige Passfilter die entweder gar nicht funktioniert hatten oder dazu geführt haben, dass man selbst oder die anderen gar nicht mehr verstand.

Ob RTX am Ende nicht auch nur ein billiger Passfilter ist? nVidia hat ja bei der Vorstellung steif und fest behauptet das die Tensor Cores dafür benutzt werden und das ganze über Deep Learning läuft.

Die Frage dürfte wohl eher sein, warum läuft der Filter über Umwegen auch auf 1000er Karten, die keine Tensor-Cores besitzen ?
 
  • Gefällt mir
Reaktionen: Benji18
Shoryuken94 schrieb:
Offizielles gibt es dazu keine Aussage. Man könnte theoretisch Controller für beides verbauen, dass wäre aber ziemliche Platzverschwendung, oder AMD könnte Controller mit beiden Interfaces entwickeln. Wer weiß. Ich halte HBM2 aber für eher ausgeschlossen.

Der Platz dürfte weniger das Problem sein denn ich glaube kaum dass das HBM Speicherinterface größer wäre als die zusätzlichen 128 Bit GDDR6 Interface. Auch dürfte ein 512 Bit GDDR6 Speicherinterface ein ziemlich teures PCB Design benötigen und vom Strombedarf des Speichers fangen wir lieber nicht an und wird GDDR6 Speicher eingesetzt dürfte auch kein Interposer erforderlich sein. ;)
Das was man dann beim Strombedarf für den Speicher spart könnte man wiederum der GPU selbst gönnen.

Ich sage es mal so, ausschließen würde ich es nicht.
 
Kann man davon ausgehen, dass die Custom Modelle nochmals paar % schneller sein werden?
Anscheinend ist der Kühler der Founders Edition ziemlich gut und somit dürfte sie auch ziemlich leise sein.

Gibt es ab 14 September Tests zu den Custom Modelle?
 
Shoryuken94 schrieb:
Gibt es seitens Nvidia eigentlich eine Erklärung für die Abbildung der 3080 auf deren seite? Dort hat das PCB nämlich 12 Speicherchips dargestellt und nicht wie es sein müsste nur 10.

In den neuen Pressebildern z.B. hier im Artikel sind es dann die richtigen 10... Vielleicht hatte man die 12 wirklich mal geplant und darauf basierend die ersten Renderings gemacht und in letzter Minute umentscheiden.
Entweder wurde ein altes Bild wiederverwertet oder es könnten für die Auflagesymetrie Dummys verbaut sein.
Was ich viel spannender finde, es ist so groß das ich das erste mal die Krümmung der Lüfterschaufeln für den unteren Lüfter sehen kann. Die würde durchaus für einen saugenden Lüfter sprechen. 🤔
 
Mich hat eher die deutlich geschrumpfte Große des PCB beeindruckt.
Das ermöglicht neue Kühlkonzepte, und so einen Schritt hat Nvidia seit Fermi nicht mehr gemacht.

D.h. die Kühlung selbst, war hier im Fokus von Nvidia, in einer Intensität wie schon im lange nicht mehr.

Bei Nvidia hat man das aber auch nicht freiwillig gemacht.
Zum 2. mal in Folge hat AMD die viel bessere Fertigung als Nvidia, mit TSMCs 7nm.

Und bei Nvidia hat man das im Reddit-Interview auch ganz offen zugegeben.
8nm bei Samsung, was ja TSMCs 10nm entspricht, war nicht die technisch beste Entscheidung, sondern die wirtschaftlich beste Entscheidung.

Die Vorteile durch die günstigere Fertigung bei Samsung wurden teilweise auch an den Endkunden weiter gegeben. Und man kann bei Nvidia so die fetten Margen halten, was die Shareholder erfreut. ^^
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Eusterw
xexex schrieb:
Eigentlich scheint es sogar genau umgekehrt zu sein, wenn man dem glaubt was Nvidia zur Nutzung von integer gesagt hat
Direkt an den RT Berechnungen wird das aber wohl nicht liegen, da die ja auf den RT Cores durchgeführt werden und nicht auf den Shadern.
Es wird eine Folge dessen sein, dass man jetzt RT Features einsetzt und man daher nicht mehr so viel Wert auf einzelne Renderpasses wie Ambient Occlusion, Dynamic Shadows, Global Illumination und so weiter legen muss.
Dank RT kann man vieles davon vereinfachen und man kommt mit einer ganzheitlichen Lösung aus, die in einem Schritt sofort die korrekte Beleuchtung und Schatten liefert. Das spart sicherlich FP Berechnungen.
Andererseits muss man garantiert auch wieder mehr Berechnungen dafür aufbringen, dass man jetzt auch Dinge rendern muss, die sich außerhalb des Viewports befinden.
Der Integer Bedarf könnte auf der anderen Seite deutlich ansteigen, wenn man RT für Physik, Audio oder KI (z.B.: Wegfindung) Berechnungen einsetzt.
In sofern ist das alles sicherlich nicht all zu leicht und allgemein zu beantworten.


Wadenbeisser schrieb:
Wo ist dort von den Bildkacheln die Rede die du hier versuchst mit deinem Beispiel unterzujubeln?

Edit:
Weil du dich ja weigerst anzuerkennen das DLSS das gerenderte Bild nur aufbläst, frissch aus der von dir geposteten Dokumentation:
Anhang anzeigen 963099

Dann guck und vor allen Dingen höre dir doch jetzt bitte auch mal den entsprechenden Talk dazu an, bevor du noch weiter solches Zeug erzählst. Ab Minute 45 wird auf deine Aussage eingegangen.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., KlaraElfer, KenshiHH und eine weitere Person
eXtra schrieb:
Wäre interessant zu wissen ob die CPU dadurch wärmer wird als bei einem herkömmlichen Kühlsystem
Das macht jede Custom zu 100%, juckt aber kaum eine CPU wesentlich. Und da getestet man es auch nicht wirklich.

Wichtig ist dass man einfach realistische Bedingungen in einem typischen Gehäuse schafft und gegen das Best Case (Benchtable) vergleicht.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Wadenbeisser schrieb:
Design benötigen und vom Strombedarf des Speichers fangen wir lieber nicht an und wird GDDR6 Speicher eingesetzt dürfte auch kein Interposer erforderlich sein. ;)

Natürlich nicht. Würde aber bedeuten wenn man beides baut, dass man GDDR6 und HBM2 Version in verschiedenen Fertigungsschritten herstellen müsste. Beide hätten ein komplett anderes Gesamtpackage. Ob sichd er Aufwand für eine Enthusiastenkarte lohnt, hängt ganz vom Preis ab. Aber sollte AMD nicht wesentlich schneller als Nvidia sein, dann dürften die wenigsten bereit sein das Mehr an Geld zu bezahlen.

HBM hat hier halt den Nachteil, dass wirtschaftlich eigentlich nur ein 4096 Bit Interface wie auf der VII Sinn macht, zumindest wenn man günstigen HBM Speicher nutzen möchte. Mit HBM2E würden zwei Stacks an 2048 Bit ausreichen, dann ist der Speicher aber extrem teuer und wahrscheinlich wieder schlecht verfügbar.

Wadenbeisser schrieb:
Das was man dann beim Strombedarf für den Speicher spart könnte man wiederum der GPU selbst gönnen.

Die Vorteile von HBM sind bekannt. ^Man erkauft sich die paar Watt aber auch teuer mit einigem Aufwand. Sollte AMD nur normalen GDDR6 Speicher nutzen und keinen X, dann ist die Ersparnis auch nicht so riesig. esonders wenn Sie nur 12GB nutzen sollten.

Wadenbeisser schrieb:
Ich sage es mal so, ausschließen würde ich es nicht.

Ausschließen kann man nichts, super realistisch wäre es aber auch nicht. Realistisch sehe ich bei Big Navi ein 384 Bit Speicherinterface mit GDDR6 16 Gbps. Das ist ein guter Kompromiss aus Kosten und Energieaufwand. Damit würde man 744GB/s erreichen, wäre damit also in etwa gleichauf mit der RTX 3080, dabei aber etwas günstiger.

512 Bit wären auch möglich, wenn AMD unbedingt die 16GB haben möchte. Dann würden sie bestimmt aber auch eher auf den relativ günstigen 14 Gbps Speicher zurückgreifen. Dann wäre man bei 896GB/s. Mit 16 gbps bei 992GB/s

Auch möglich, dass Sie eine HBM und GDDR Variante planen, aber das würde mich ehrlich gesagt wundern. Ist auch fraglich, ob das am Ende dann wirklich so viel günstiger wäre, wenn man verschiedene Packages in der Fertigung hat. zudem braucht man dann auch gleich zwei Referenzplatinen für einen einzigen Chip und wahrscheinlich verschiedene Kühler.

Daher sehe ich sehr realistisch eher 384 Bit, wenn AMD richtig auf dicke Hose machen möchte 512 Bit und als Mini Chance die GDDR und HBM Version in einem Chip. Würde ich aber von allen Möglichkeiten am wenigsten wahrscheinlich sehen. Aber ja möglich ist noch alles und nichts kann ausgeschlossen werden. ist am ende auch eine Frage des Geldes. 384 Bit dürften für die voraussichtliche Leistungsklasse von Big Navi ausreichend sein und hätten den vorteil, dass man relativ günstig wäre. Alle anderen Alternativen kosten mehr Geld, was entweder der Kunde zahlt oder von der Marge abgeht. Da AMD die letzten Generationen beim Speicher viel Lehrgeld zahlen musste, kann ich mir vorstellen, dass man bei Big Navi dieses jahr auf ein sicheres Pferd setzt und eher versucht profitabeler zu sein, ohne die Preise zu hoch anzusetzen. AMD weiß, dass sie bei ähnlicher Leistung und ähnlichem Preis es am Markt schwerer haben. Hier schlummert ein nicht unerheblicher Kostenfaktor.

Eine 6900XT die deutlich schneller als eine 3070, etwas langsamer oder etwas gleich auf zur 3080 ist, dabei 12GB GDDR6 Speicher hat und 599€ kostet dürfte am markt besser ankommen, als eine 6900XT die so schnell wie eine 3080 ist 16GB HBM2E hat und 799€ kostet. Den vorteil beim 7nm Prozess erkauft sich AMD ja auch nicht gerade günstig bei TSMC. Bei gemunkelten 505mm² für Big Navi wird der Chip selbst wohl ein gutes Stück teurer als der GA102 sein. Wenn man dann auch beim Speicher in die vollen geht, dann bewegt man sich schnell in Preislich schwierigen Gefilden, wenn man auch etwas an der Karte verdienen möchte und nicht wie bei der VII ein Prestigeopbekt zum Selbstkostenpreis anbieten möchte.
 
  • Gefällt mir
Reaktionen: KlaraElfer und tidus1979
  • Gefällt mir
Reaktionen: Shoryuken94
@Shoryuken94

Ich sehe da jetzt nicht so den Mehraufwand denn in dem Fall wäre der große Unterschied lediglich das Package.
Würde man dabei auch noch auf HBM2E setzen würden sogar 2 Stacks reichen um auf die Bandbreite einer RTX3080 zu kommen. Da würde sich also lediglich fragen was im Gesammtpaket günstiger wäre um auf 16 GB zu kommen.
2 Stacks HBM2E, 4 Stacks HBM2 oder 16 Speicherchips und ein entsprechend komplexes PCB für ein 512 Bit GDDR6 Speicherinterface.
Ergänzung ()

@Taxxor

Da wäre ich vorsichtig denn in der Grafik heißt es 15% weniger Energie pro tranzferierten Bit aber 50% mehr Bandbreite. Im Umkehrschluß bedettet es das die Chips dennoch mehr Strom fressen aber bei gleicher Bandbreite etwas Energieeffizienter arbeiten.
 
monitorhero schrieb:
Meine Erfahrung mit RTX Voice war sehr durchwachsen (jedoch auf einer 1080 Ti). Es klang sehr roboterhaft, wie so oft mit AI. Und wenn man nicht gesprochen hat, hörte man ein Background Noise bestehend aus tausenden Stimmen.
Mit ner RTX 2080 Ti keinerlei solche Probleme. Mein Mic Setup kriegt sowieso keine Nebengeräusche mit, deshalb verwende ich es nur bei anderen und da hab ich Leute die nebenher nen Ventilator laufen haben oder die nen Standmikrofon direkt vor ihrer lauten mecha Tastatur haben und gar eine die während ner Queue mit ihrem wireless Headset (das sowieso schon kein tolles Mic hat) dann in die Küche geht und anfängt Geschirr zu waschen, etc...

All die Störgeräusche sind mit RTX Voice einfach weg, ohne (merkbare) Einbüße in der Stimmqualität. Nur die 2080 Ti bricht immer etwas ein wenn mal viel berechnet werden muss - da gehen auch mal 10-15% an FPS flöten.
 
  • Gefällt mir
Reaktionen: xexex
Wadenbeisser schrieb:
Da wäre ich vorsichtig denn in der Grafik heißt es 15% weniger Energie pro tranzferierten Bit aber 50% mehr Bandbreite. Im Umkehrschluß bedettet es das die Chips dennoch mehr Strom fressen aber bei gleicher Bandbreite etwas Energieeffizienter arbeiten.
Könnte sein, im Artikel heißt es halt
Dennoch sollen die Chips bei 50 Prozent mehr Bandbreite weniger Energie verbrauchen.

Aber ja da steht per bit, also wenn ein standard 14Gb Modul 2.5W verbraucht, wie es bei Igor mal erwähnt wurde, dann würde ein 19.5Gb GDDR6X Modul 2.5 / 14 * 19.5 * 0.85 = 2.96W verbrauchen, bei den 24GB der 3090 sind das 72W alleine für den Speicher ohne Controller
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
@Taxxor

Die Grafik ist leider auch "etwas" unglücklich gestaltet aber die Beschriftung "15% less power per transferred bit" ist dann doch recht eindeutig
 
bensen schrieb:
Denn Touring hat bei weitem keine +30% auf Pascal aufgeholt durch die INT32 Einheiten. Das waren im Schnitt imho nicht mehr als 10%.
Tatsächlich hatte Turing einen IPC-Sprung von +50%. Siehe Nvidia-Whitepaper.
pipip schrieb:
AMD von der Chipgröße also auch unterhalb der kommenden Flaggschiff von NV ist.
Nach all den Infos von heute denke ich, dass es die beste Strategie von AMD wäre, beim nächsten Shrink in 5nm die Chipgröße massiv aufzubohren und ohne Ende Shader draufzuhauen. Vor allem, wenn die Skalierung bei RDNA2 gut funktioniert. Dann könnte man ohne Architekturänderungen Nvidia in die Tasche hauen.
Wadenbeisser schrieb:
Doch, denn bei deinem Beispiel setzt du das Bild aus Bildkacheln zusammen um am Ende das gleiche Bild rauszubekommen und nicht vergessen das Edit des Postings zu lesen. ;)
Wenn ich zu der Diskussion noch etwas sagen darf, dann denke ich du hast sein Beispiel fundamental missverstanden. Er meint nicht, dass man Steppermäßig das gesamte Bild aus kleineren Teilbildern wie Kacheln zusammensetzt, sondern dass man die ganze Fläche mit niedriger Auflösung aufnimmt und dann minimal versetzt erneut und so weiter. Das entspricht dem Jittering, das bei DLSS 2.0 verwendet wird.
thepusher90 schrieb:
In der neuen Marbles Demo sind zum Beispiel Artefakte zu erkennen um die Murmeln herum,
Hast du dafür einen Zeitstempel, damit ich das nachvollziehen kann? Mir ist bei der Nvidia-Präsentation nichts aufgefallen.
matty2580 schrieb:
Das sieht man gut daran, dass AMD bei den dGPUs weltweit gleich 9% an Nvidia abgegeben hat, und man jetzt bei 20% steht.
Dir ist schon klar, dass der Verlust an Marktanteilen fast ausschließlich auf Laptops zurückzuführen ist? Das wird noch dauern, bis AMD in dem Sektor umfassend angreifen kann...
cypeak schrieb:
die einzig entscheidende frage dabei ist wie_schnell etwas in den vram nachgeladen wird - deshalb bliebt die messlate die gleiche: kommen genügend fps mit annehmbaren frametimes raus oder nicht?
Da sind wir wieder einer Meinung.
.Sentinel. schrieb:
Wieso magisch, wenn Du entsprechende Einheiten einfach verdoppelst?
Da hast du seinen Text nicht richtig gelesen: Er sagte doppelte Berechnungen in einer Einheit. Das geht so natürlich nicht. Ich habe die Formulierung von Wolfgang aber auch nicht mehr im Kopf.
.Sentinel. schrieb:
Das erledigen aber die RT- Cores (wie Teralios schon schön erwähnt hat - Suchalgorithmen)
Du vergisst hier, dass der Zuwachs an INT-Berechnungen durch die Erstellung und Aktualisierung der BVH-Struktur kommt. Das machen nicht die RT-Cores.
matty2580 schrieb:
Die Vorteile durch die günstigere Fertigung bei Samsung wurden teilweise auch an den Endkunden weiter gegeben.
Haha, der war ein schöner Lacher am Abend. Vor allem da dein nächster Satz bezüglich Nvidia-Marge dem sofort widerspricht!
 
  • Gefällt mir
Reaktionen: Benji18
Zurück
Oben