Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Wurde eigentlich irgendwas über diesen Zusatzchip gesagt der fürs NVENC streaming genutzt wird?
Weiß eigentlich auch nicht so recht was ich mir da erhoffe, ich höre nur immer wieder NVENC ist super klasse und dann von der anderen seite das man auf x264 setzen sollte weil das besser aussieht. Vielleicht wurde da ja auch was erwähnt was NVENC weiter nach vorne bringt? idk
 
@Supermax2004:
In ca. 9 Tagen gibt es die ersten Tests zu den Gamingamperes.

Ich kenne dich zwar nicht, aber wirst du aber schon schaffen diesen Zeitraum abzuwarten. ^^
 
  • Gefällt mir
Reaktionen: Shoryuken94
Wadenbeisser schrieb:
Gab es nicht mal Aussagen das die GPUs mit GDDR6 und HBM2 umgehen könnten? In dem Fall würde ich bei den 16 GB sogar mit HBM2 rechnen und die kleineren Modelle könnten "nur" GDDR6 bekommen, dann reicht auch ein 384 Bit GDDR6 Speicherinterface und würde dennoch 12 GB unterbekommen.
Da wäre ein direkter Vergleich mal spannend. ^^


Offizielles gibt es dazu keine Aussage. Man könnte theoretisch Controller für beides verbauen, dass wäre aber ziemliche Platzverschwendung, oder AMD könnte Controller mit beiden Interfaces entwickeln. Wer weiß. Ich halte HBM2 aber für eher ausgeschlossen.

AMD möchte sich den Kostentreiber im Consumerbereich sicherlich nicht ans Bein hängen, da man zudem mindestens ein teures 3072 oder 4096 Bit Interface benötigt, damit man gegenüber normalem GDDR6 / GDDR6X wirklich Vorteile hat. Das hat die Radeon VII schon ziemlich teuer gemacht und wenn nun noch ein großer Chip dazu kommt... Schwer vorstellbar. Da halte ich eine reine GDDR6 Karte für realistischer. Die 512 Bit entstammen ja bislang auch nur Gerüchten, weil man mit 80Cus Navi 10 im Gunde verdoppelt. Deshalb nehmen ja viele eine Verdopplung des Speicherinterfaces an. Wirkliche Belege dazu gibts bislang nicht. Die Gerüchteküche ist sich da ja momentan noch sehr uneinig. Möglich ist durchaus beides.
 
.Sentinel. schrieb:
Du musst Dinge nicht interpretieren, die bereits berechnet sind. Die sind ganz real schon da.
Das ist mit das Hauptproblem, dass viele nicht verstehen.

Genau so ist ja im Bild, das man hoch skalieren möchte, bereits so einiges an zusätzlichen Informationen versteckt, die wir als Menschen nicht sehen, wenn man aber gewisse Filter auf das Bild anwendet plötzlich sichtbar werden. Das ist ja zum Beispiel das Geheimnis des Schärfefilters bei AMD.

DLSS nimmt ja eben nicht nur "vorherige" Frames für eine Abtastung, sondern ebenso das fertige Bild, wendet darauf gewisse Filter an um an weitere Information zu bekommen. Es nimmt Bewegungsvektoren und noch einige weitere Einzelschritte der Bilder, aus den man entsprechende Informationen gewinnt, mit denen man dann mit dem niedrig aufgelösten Bild am Ende ein höher aufgelöstes Bild möglichst akkurat nachbilden kann.

DLSS2.0 ist weit mehr als "DeepLearning", NVIDIA verbindet da ja konventionelle jedoch aufwendige Konzepte mit der KI, sodass die Algorithmen schneller arbeiten.
 
  • Gefällt mir
Reaktionen: McFritte, Colindo, .Sentinel. und eine weitere Person
Gibt es seitens Nvidia eigentlich eine Erklärung für die Abbildung der 3080 auf deren seite? Dort hat das PCB nämlich 12 Speicherchips dargestellt und nicht wie es sein müsste nur 10.

In den neuen Pressebildern z.B. hier im Artikel sind es dann die richtigen 10... Vielleicht hatte man die 12 wirklich mal geplant und darauf basierend die ersten Renderings gemacht und in letzter Minute umentscheiden.

1599328097938.png
 
Zuletzt bearbeitet:
DerHechtangler schrieb:
Was mir sehr schleierhaft ist, warum einige schon ein scheitern von RDNA2 vorhersagen. Sony und Microsoft werden sich nicht ohne Grund dafür entschieden haben...

Die einen wissen schon das es nichts wird, die anderen dass es der neue heiße Scheiss ist. Klarheit gibt es erst wenn die Tests da sind. Alles andere ist bis hier hin reine Spekulation und Milchmädchenrechnerei.

Sony und MS haben sich in erster Linie für AMD entschieden weil weder Intel noch Nvidia CPU und GPU in einer APU liefern können. Ob eine Grafiklösung von Nvidia eventuell Performanter gewesen wäre spielt bei der Entscheidung keine Rolle.
 
  • Gefällt mir
Reaktionen: monitorhero und xexex
Shoryuken94 schrieb:
Auf der 3080 dürften aber nur 10 Stück vorhanden sein.

Gibt es dazu irgendwelche Erklärungen? Kommt mir etwas komisch vor, dass Nvidia auf der eigenen Seite und in den Pressebildern falsche Renderings verbreitet...
Die Bilder werden schon richtig sein.
Das PCB war auch erst Anfang August fertig.
Vermutlich waren ursprünglich 12GB geplant, und bei Nvidia hat man dass kurzfristig geändert.

Und Nvidia wurde beim Interview von Reddit auch gefragt, warum man sich für 10GB VRAM entschieden hat.

Der Mitarbeiter von Nvidia hat auch ganz ehrlich geantwortet, dass man einen günstigen Preis anbieten wollte.
Das war also eine rein wirtschaftliche Entscheidung.
 
  • Gefällt mir
Reaktionen: Shoryuken94
rambo0185 schrieb:
Nagut dann grübel ich mal weiter wie ich das angehe, danke

Soll ja nicht bedeuten man hätte gar nichts gezeigt, aber ich gehe davon aus du hast die RTX Ampere Vorstellung gesehen.
 
@matty2580 Das stimmt schon. Nur sehr komisch, dass man in teilen der Pressebilder 10 dargestellt hat und in einigen 12. Hab mein Kommentar berichtigt, hatte die Bilder hier in der News falsch gesehen.
 
Teralios schrieb:
-Zitat gekürzt-
Wie es richtig geht, ist hier nachzulesen.
AMD hat mit GCN eine relativ flexible CU gestaltet.

Das war das was ich im Kopf hatte. AMD hatte in Hardware die weitaus komplexere und dynamischere Aufteilung, die eben schwerer voll auslastbar ist. Nvidia hatte bisher immer den anderen Ansatz mit in Hardware so einfach wie moeglich, aber dann eben in Software die Komplexitaet. Jetzt geht das ganze halt noch weiter. Denke aber auch, dass die genug Geld haben um das Softwaretechnisch zu stemmen. AMD wird hingegen etwas einfacher in Hardware mit RDNA2, was zum einen die Auslastung verbessert und zum anderen auch den Energieverbrauch. Allerdings sieht man ja auch bei RT, dass sie trotzdem noch sehr an ihrem dynamischen Aufbau festhalten und lieber komplexere Einheiten haben, als Spezialeinheiten. Einfacher skalierbar ist es auf jeden Fall.

.Sentinel. schrieb:
So etwas ist immer der Informationslage geschuldet. In Nachrichten hast Du nunmal nicht den Luxus auf Informationen zuzugreifen, die die nächsten Tage noch so reintröpfeln.
Zudem kannst Du theoretisch genau das tun, was Du hier verneinst, wenn Du nämlich nur auf FP32 gehst.

Dann sollte man aber einfach nicht spekulieren und es erstmal etwas kritisch sehen. Dass man magisch zwei FP32 in einer Einheit berechnen kann macht einfach wenig Sinn. Hingegen INT32 und FP32 flexibel zu berechnen macht Sinn. Das hat nichts mit Informationslage zu tun, sondern schlichtweg mit ein bisschen den Verstand zu nutzen.

.Sentinel. schrieb:
Wie gesagt, wurde ja hier schon eine Grafik verlinkt, die die Verhältnismäßigkeit eines normalen Spieleworkloads in Sachen Int und FP darstellt. Die ist recht eindeutig.

Naja, wenn gerade mit RT wieder vermehrt INT benoetigt wird, dann sagt das erstmal gar nicht so viel aus wie man meint. Zum anderen wurde schon oft genug erwaehnt, dass es sich von Engine zu Engine und Spiel zu Spiel unterscheidet.

.Sentinel. schrieb:
In anbetracht der zukünftigen Herausforderungen an die GPU (Hybrid RTRT) haben sie das eben schon.
Du weisst nicht, wie der Warp Scheduler bei Ampere verteilt.
Es kann auch sein, dass garkein Treiber- Eingriff notwendig ist. Aber das werden wir in Kürze in der Praxis und in der Tiefe analysieren können.

Nein, weiss ich nicht und du genauso wenig. Es macht aber logisch wenig Sinn, dass der Aufwand geringer ist, wenn man das was man schedulen muss komplexer macht. Und Nvidia macht heute schon extrem viel in ihrem Treiber.

.Sentinel. schrieb:
Auch das ist der Informationslage geschuldet, die bis zum Erscheinen unabhängiger Tests einseitig gesteuert wird.
Übertreibt man es allerdings mit dem Schönzeichnen, hat man einen negativen Marketing Effekt und einen Imageschaden. Ob man es für nötig empfindet das zu riskieren?

Deswegen muss man noch lange nicht allem nachreden was Nvidia von sich gibt. Alles was von einem Hersteller kommt ist erst einmal Marketing und dient dazu das Produkt so gut wie moeglich dastehen zu lassen. Dass das nur mit einer Menge Sternchen und kleingedrucktem zu verstehen ist sollte klar sein. Aber genau das wird es nicht, sondern es wird fuer bare Muenze genommen. Das hat schlicht und ergreifend nichts mit der Informationslage zu tun, sondern damit ob man dieses runde zwischen den Ohren nutzen kann oder nicht.

.Sentinel. schrieb:
Ich traue mich fast wetten, dass man mit Ampere genau diese Messchriebe unter dieser Software genau so nachvollziehen können wird.
Es wird hier einseitig unterstellt, dass nvidia nur Best- Case Szenarien dargestellt hat. Was wenn nicht?

Was wenn doch? Es ist Marketing verdammt nochmal. Die einzig sinnvolle Antwort auf so ein Video ist "ok" und dann bei unabhaengigen Tests schauen. Wie die 1.9x Perf/Watt zu Stande kamen hat man ja auch schon gesehen. Von dem her, Marketing, kann man anerkennen, aber bloss nicht glauben ohne, dass es unabhaengig getestet wurde.

.Sentinel. schrieb:
Wohingegen andere Gruppen zu beobachten sind, welchen man liefern kann, was man will. Es wird nie geglaubt, man ist latent pessimistisch und gewillt immer irgendwo ein Haar in der Suppe finden zu wollen und dies dann zu einem Elefanten aufzublasen.

Oh nein, man will Marketing nicht glauben, Frevel! Aber du sprichst es ja selber an, liefern, bis jetzt wurde eben nicht geliefert, sondern behauptet. Geliefert wurde, wenn es ueberprueft wurde.

Was mich interessieren wuerde, verteidigst du so beinhart eigentlich auch AMD, oder sind es doch nur Nvidia und Intel?

.Sentinel. schrieb:
Warum sind denn hier einige Forenmitglieder gleich immer so extrem? Entweder ist alles unkritisch geil oder gleich völlig scheisse...

Zum einen, weil du dir die Welt machst wie sie dir gefaellt und allen die nicht deiner Meinung sind unterstellst, dass sie alles als "voellig scheisse" sehen. Zum anderen gibt es noch interessierte, die dann auch gerne die Technik auseinander nehmen um mehr zu lernen. Das ist natuerlich auch negativ, weil moegliche Probleme auftauchen. Moeglicherweise sind aber nicht nur die anderen das Problem?

SKu schrieb:
Wenn ich den Artikel richtig verstanden habe, kann Turing 64 FP32 UND 64 INT32-Berechnungen gleichzeitig durchführen, während Ampere hier entweder 128FP32 ODER 64FP32 UND 64 INT32-Berechnungen durchführen kann.
Da sich also theoretisch die Anzahl der ALUs für FP verdoppelt hat, spricht Nvidia hier auch von den doppelten CUDA-Cores bei Ampere.

Kurz und knackig, ja. Die Frage ist jetzt halt wie gut das ausgelastet wird und wie sehr die Performance davon abhaengt. Ob es wirklich die doppelten CUDA Cores sind kann man so sehen, Nvidia tut das, oder eben nicht. Denn eigentlich sind es nur im Peak die doppelten CUDA Cores, was etwas komisch klingt da Hardware sich ja nicht ploetzlich aendern kann. Aber hoehere Zahlen hoeren sich natuerlich besser an. Prinzipiell waere es wahrscheinlich zutreffender wenn man nur die Haelfte der CUDA Cores angibt und dann eine Range der FP32 Leistung mit garantiert und Peak. Rein technisch gesehen, vom Marketing kommt da halt was anderes.

Darkscream schrieb:
Schau bei HisN in den Thread rein dann weißt du es:
https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/
Übrigens entsprechen die 10GB mindestens 12GB wenn sie das auf die Reihe kriegen:
Anhang anzeigen 963132

Naja, in 10GB passt im Idealfall mehr rein, dass es 12GB entspricht heisst das noch nicht. Denn dafuer muesste die Kompression immer funktionieren. Und es gibt eben Abseits vom Gaming noch weitere Faelle bei denen das eher weniger klappen wird. TensorFlow wird einem was husten wenn man dem was am Speicher rumfummeln will. Und genau dafuer sind halt 10GB eher ein Witz. Aus genau dem Grund werde ich auch garantiert kein Downgrade im Speicher machen. Denn will ich die Leistung ausnutzen, benoetige ich den Speicher.

xexex schrieb:
Soll ja nicht bedeuten man hätte gar nichts gezeigt, aber ich gehe davon aus du hast die RTX Ampere Vorstellung gesehen.

Das Beispiel war irgendwie komisch. Nichts davon ist irgendwie neu oder spannend, sondern nur in eine nette App verpackt. "Kann die Person erkennen und auschneiden!" Ok, das koennen Microsoft Teams und dergleichen jetzt schon wie lange? Noise Filter, ok. Person folgen, ok. Das kann, ohne abwertend zu wirken, der Studentenjobber mit Hintergrund Machine Learning in den Sommerferien aufbauen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Teralios
Kacha schrieb:
Das Beispiel war irgendwie komisch. Nichts davon ist irgendwie neu oder spannend, sondern nur in eine nette App verpackt. "Kann die Person erkennen und auschneiden!" Ok, das koennen Microsoft Teams und dergleichen jetzt schon wie lange? Noise Filter, ok. Person folgen, ok. Das kann, ohne abwertend zu wirken, der Studentenjobber mit Hintergrund Machine Learning in den Sommerferien aufbauen.
Hast du Teams jemals benutzt? Ich muss es täglich nutzen und das ist in keiner Weise mit dem hier gezeigten vergleichbar. Setze doch einfach mal einen anderen BG in Teams, setze dir Kopfhörer auf und schau dir die Bereiche zwischen Kopfhörerbügel und Kopf an. Man sieht in einem Bruchteil einer Sekunde, dass der BG fake ist. Das ist bei dem Nvidia Teil hier nicht so. Dass das keine Rocket Science, steht außer Frage, aber ausgerechnet Teams damit zu vergleichen?
 
Colindo schrieb:
Erklärst du mir mal bitte, wie diese beiden Bedingungen gleichzeitig erfüllt sein sollen? Mir scheint, du verstehst nicht, was ein zu kleiner VRAM bewirkt.
ich verstehe es durchaus; und trotzdem lasse ich meine aussage genau so stehen.
die einzig entscheidende frage dabei ist wie_schnell etwas in den vram nachgeladen wird - deshalb bliebt die messlate die gleiche: kommen genügend fps mit annehmbaren frametimes raus oder nicht?
 
  • Gefällt mir
Reaktionen: Colindo
matty2580 schrieb:
Das sieht man gut daran, dass AMD bei den dGPUs weltweit gleich 9% an Nvidia abgegeben hat, und man jetzt bei 20% steht.

sas liegt daran das man sich beim release von RDNa 1.0 bei der 5700/XT die blöse gegeb hat, kaum verfügbare customs, probleme mit dem Treiber. Das hat viele Käufer und potentielle Käufer zu Nvidia getrieben.
 
Kacha schrieb:
Das kann, ohne abwertend zu wirken, der Studentenjobber mit Hintergrund Machine Learning in den Sommerferien aufbauen.

Dann sollte AMD mal ganz schnell diesen Jobber einstellen! RTX Voice ist so mit das Interessanteste was in den letzten Jahren in diesem Bereich vorgestellt wurde und wenn ich da an meine aktive MMO Zeit zurückdenke absolut goldwert!

Kacha schrieb:
Nichts davon ist irgendwie neu oder spannend, sondern nur in eine nette App verpackt.

Dazu sage ich nur, nichts was WhatsApp kann ist neu oder irgendwie spannend. Alles was man damit machen kann, konnte man schon vorher mit SMS, Mail oder Skype. Seltsam wie diese App trotzdem auf Milliarden von Smartphones gelandet ist oder?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, Laphonso und gr1nd
Was AMD betrifft, sehe ich nicht Schwarz.
Gut man hat 9% des weltweiten dGPU-Markes an Nvidia abgegeben.
D.h. aber nicht, dass man sich die verloren gegangenen Marktanteile nicht zurück erobern kann.

Ja Ampere ist sehr stark geworden, und eine heftige Konkurrenz für AMD.

Über den Preis, oder Features wie mehr VRAM, kann man bei AMD aber gegensteuern.

Jetzt ist der Ball in der Spielhälfte von AMD, und es liegt allein an AMD wie sie ihn zurück schießen werden.
Oder anders geschrieben, dass Marketing der RTG ist am Zug.

Ich weiß, sie haben hier oft versagt.
Aber dieses Mal dürfen sie ebend nicht versagen......

Abgesehen davon liegt der Schwerpunkt der RTG nicht im Desktop-PC-Bereich, sondern bei den Semi-Custom-Chips für die neuen Konsolen.

Hier entsteht ein massives Volumen, zwar mit weniger Marge, aber sehr extrem.
Und das fließt in den Erfolg der RTG natürlich mit ein......
 
Zuletzt bearbeitet von einem Moderator:
xexex schrieb:
Dann sollte AMD mal ganz schnell diesen Jobber einstellen! RTX Voice ist so mit das Interessanteste was in den letzten Jahren in diesem Bereich vorgestellt wurde und wenn ich da an meine aktive MMO Zeit zurückdenke absolut goldwert!

Also da gab es schon vorher Filter die man nutzen konnte, die ähnlich gute Ergebnisse erzielten, aber eben keine RTX Karte vorausgesetzt haben. Das man das Teil dann RTX Voice nennt ist schon eigentlich ziemlich ironisch, da es nachweislich auch auf den älteren Karten läuft.

Teamspeak Beta-Builds hatten schon vor Jahren ähnliche Filter-Funktionen, Discord hat die Krisp-Funktion. Da ist RTX Voice jetzt nichts was grundsätzlich revolutionär wäre. (Mumble hatte damals übrigens auch soetwas in den Custom-Builds drin)
 
  • Gefällt mir
Reaktionen: Benji18
Zurück
Oben