Supermax2004
Lt. Commander
- Registriert
- Aug. 2004
- Beiträge
- 1.631
Nvidia stellt die Mühle vor und es gibt wieder wochenlange Spekulationen. Das nervt vielleicht....die hätten das viel näher zusammenbringen sollen.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Wadenbeisser schrieb:Gab es nicht mal Aussagen das die GPUs mit GDDR6 und HBM2 umgehen könnten? In dem Fall würde ich bei den 16 GB sogar mit HBM2 rechnen und die kleineren Modelle könnten "nur" GDDR6 bekommen, dann reicht auch ein 384 Bit GDDR6 Speicherinterface und würde dennoch 12 GB unterbekommen.
Da wäre ein direkter Vergleich mal spannend. ^^
Das ist mit das Hauptproblem, dass viele nicht verstehen..Sentinel. schrieb:Du musst Dinge nicht interpretieren, die bereits berechnet sind. Die sind ganz real schon da.
DerHechtangler schrieb:Was mir sehr schleierhaft ist, warum einige schon ein scheitern von RDNA2 vorhersagen. Sony und Microsoft werden sich nicht ohne Grund dafür entschieden haben...
Am NVENC wurde im Vergleich zu 2000er Generation nichts verändert.rambo0185 schrieb:Vielleicht wurde da ja auch was erwähnt was NVENC weiter nach vorne bringt?
Nagut dann grübel ich mal weiter wie ich das angehe, danke 😅xexex schrieb:Am NVENC wurde im Vergleich zu 2000er Generation nichts verändert.
Die Bilder werden schon richtig sein.Shoryuken94 schrieb:Auf der 3080 dürften aber nur 10 Stück vorhanden sein.
Gibt es dazu irgendwelche Erklärungen? Kommt mir etwas komisch vor, dass Nvidia auf der eigenen Seite und in den Pressebildern falsche Renderings verbreitet...
rambo0185 schrieb:Nagut dann grübel ich mal weiter wie ich das angehe, danke
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ja hab ich gesehen dankexexex schrieb:aber ich gehe davon aus du hast die RTX Ampere Vorstellung gesehen.
Teralios schrieb:-Zitat gekürzt-
Wie es richtig geht, ist hier nachzulesen.
AMD hat mit GCN eine relativ flexible CU gestaltet.
.Sentinel. schrieb:So etwas ist immer der Informationslage geschuldet. In Nachrichten hast Du nunmal nicht den Luxus auf Informationen zuzugreifen, die die nächsten Tage noch so reintröpfeln.
Zudem kannst Du theoretisch genau das tun, was Du hier verneinst, wenn Du nämlich nur auf FP32 gehst.
.Sentinel. schrieb:Wie gesagt, wurde ja hier schon eine Grafik verlinkt, die die Verhältnismäßigkeit eines normalen Spieleworkloads in Sachen Int und FP darstellt. Die ist recht eindeutig.
.Sentinel. schrieb:In anbetracht der zukünftigen Herausforderungen an die GPU (Hybrid RTRT) haben sie das eben schon.
Du weisst nicht, wie der Warp Scheduler bei Ampere verteilt.
Es kann auch sein, dass garkein Treiber- Eingriff notwendig ist. Aber das werden wir in Kürze in der Praxis und in der Tiefe analysieren können.
.Sentinel. schrieb:Auch das ist der Informationslage geschuldet, die bis zum Erscheinen unabhängiger Tests einseitig gesteuert wird.
Übertreibt man es allerdings mit dem Schönzeichnen, hat man einen negativen Marketing Effekt und einen Imageschaden. Ob man es für nötig empfindet das zu riskieren?
.Sentinel. schrieb:Ich traue mich fast wetten, dass man mit Ampere genau diese Messchriebe unter dieser Software genau so nachvollziehen können wird.
Es wird hier einseitig unterstellt, dass nvidia nur Best- Case Szenarien dargestellt hat. Was wenn nicht?
.Sentinel. schrieb:Wohingegen andere Gruppen zu beobachten sind, welchen man liefern kann, was man will. Es wird nie geglaubt, man ist latent pessimistisch und gewillt immer irgendwo ein Haar in der Suppe finden zu wollen und dies dann zu einem Elefanten aufzublasen.
.Sentinel. schrieb:Warum sind denn hier einige Forenmitglieder gleich immer so extrem? Entweder ist alles unkritisch geil oder gleich völlig scheisse...
SKu schrieb:Wenn ich den Artikel richtig verstanden habe, kann Turing 64 FP32 UND 64 INT32-Berechnungen gleichzeitig durchführen, während Ampere hier entweder 128FP32 ODER 64FP32 UND 64 INT32-Berechnungen durchführen kann.
Da sich also theoretisch die Anzahl der ALUs für FP verdoppelt hat, spricht Nvidia hier auch von den doppelten CUDA-Cores bei Ampere.
Darkscream schrieb:Schau bei HisN in den Thread rein dann weißt du es:
https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/
Übrigens entsprechen die 10GB mindestens 12GB wenn sie das auf die Reihe kriegen:
Anhang anzeigen 963132
xexex schrieb:Soll ja nicht bedeuten man hätte gar nichts gezeigt, aber ich gehe davon aus du hast die RTX Ampere Vorstellung gesehen.
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Hast du Teams jemals benutzt? Ich muss es täglich nutzen und das ist in keiner Weise mit dem hier gezeigten vergleichbar. Setze doch einfach mal einen anderen BG in Teams, setze dir Kopfhörer auf und schau dir die Bereiche zwischen Kopfhörerbügel und Kopf an. Man sieht in einem Bruchteil einer Sekunde, dass der BG fake ist. Das ist bei dem Nvidia Teil hier nicht so. Dass das keine Rocket Science, steht außer Frage, aber ausgerechnet Teams damit zu vergleichen?Kacha schrieb:Das Beispiel war irgendwie komisch. Nichts davon ist irgendwie neu oder spannend, sondern nur in eine nette App verpackt. "Kann die Person erkennen und auschneiden!" Ok, das koennen Microsoft Teams und dergleichen jetzt schon wie lange? Noise Filter, ok. Person folgen, ok. Das kann, ohne abwertend zu wirken, der Studentenjobber mit Hintergrund Machine Learning in den Sommerferien aufbauen.
ich verstehe es durchaus; und trotzdem lasse ich meine aussage genau so stehen.Colindo schrieb:Erklärst du mir mal bitte, wie diese beiden Bedingungen gleichzeitig erfüllt sein sollen? Mir scheint, du verstehst nicht, was ein zu kleiner VRAM bewirkt.
matty2580 schrieb:Das sieht man gut daran, dass AMD bei den dGPUs weltweit gleich 9% an Nvidia abgegeben hat, und man jetzt bei 20% steht.
Kacha schrieb:Das kann, ohne abwertend zu wirken, der Studentenjobber mit Hintergrund Machine Learning in den Sommerferien aufbauen.
Kacha schrieb:Nichts davon ist irgendwie neu oder spannend, sondern nur in eine nette App verpackt.
xexex schrieb:Dann sollte AMD mal ganz schnell diesen Jobber einstellen! RTX Voice ist so mit das Interessanteste was in den letzten Jahren in diesem Bereich vorgestellt wurde und wenn ich da an meine aktive MMO Zeit zurückdenke absolut goldwert!