Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Zuletzt bearbeitet: (Rechtschreibfehler korrigiert)
  • Gefällt mir
Reaktionen: CableGuy82 und Laphonso
canada schrieb:
Überall und zu 100% immer besser? Ich hab da schon anderes gesehen.
Du musst es halt von vornherein richtig implementieren. DLSS kann nichts für die Fehler, die man in den Titeln so sehen kann. Der Fehler liegt dort immer am mangelnden Input.

DLSS funktioniert halt eher nach dem Shit in -> Noch größerer Shit out Prinzip.
Es wird halt wirklich alles "verstärkt". Auch die problematischen Bereiche.
 
  • Gefällt mir
Reaktionen: Unnu, MrNejo, Lübke82 und eine weitere Person
canada schrieb:
Genau auf diese Aussage habe ich gehofft, liegt bei nV Problem vor ist es immer der User (ich bin zu blöd), liegt bei AMD ein Problem ist es immer AMD aber nie User, System Problem oder etwas anderes. Ist das denken nicht sehr einseitig?

Solltest dich mal fragen, wieso du diese Antwort schon erwartest. Weil alle, die dir diese Antwort geben, sich gegen AMD verschworen haben, oder ob vielleicht doch ein Fünkchen Wahrheit dran ist. Ich jedenfalls zieh meine Schlüsse aus 25 Jahren privater und 15 Jahren beruflicher IT Erfahrung.
Es wird schon Gründe haben, wieso in jedem Board die AMD Sparte voll vom Threads mit Treiberproblemen ist. Kommt alles nicht von ungefähr.



canada schrieb:
Überall und zu 100% immer besser? Ich hab da schon anderes gesehen.

Was hast du denn gesehen? Zeig doch mal Bespiele. Bevor du jetzt groß suchst, achte bitte darauf, dass es auch um DLSS 2.0 geht und nicht 1.0.



canada schrieb:
Nix anderes haben die früher gemacht, da wurde es nur nicht als AI, Deep Learning und schieß mich tot bezeichnet.

Na da hättest du dir das besser mal patentieren lassen, wenn du das alles vor Jahren schon gemacht hast. Oder verwechselt da jemand die Technik von DLSS mit einem stinknormalen Filter?
Die furchtbare "Trickserei" die hier betrieben wird, wird dir in kommenden Spielen schärfere Bilder, als bei nativer Auflösung, liefern - bei viel besserer Performance.
Wie man sich so gegen etwas wehren kann und mit aller Gewalt versucht zu verteufeln. Aber die Gründe liegen ja auf der Hand. NVIDIA ist halt der Teufel himself. Jedenfalls für einige Kunden hier.
 
  • Gefällt mir
Reaktionen: BGnom, squadric, MrNejo und 2 andere
Monstranz schrieb:
Warum auch, kaufen doch eh die meisten GRUEN. Warum sollte AMD was guenstigeres fast gleichwertiges bringen. Die machen ihr Portfolio wo anders. Brauchen die Recoucen fuer Gewinnbrigenderes als Grakas.
Ja das ist traurig aber war, selbst als die AMD Karten mal besser waren (7970, R9 290X etc) wurde nur grün gekauft, wie damals bei den CPUs Pentium 4 statt Athlon. Gibt ja auhh genug, die hier und in anderen Foren schreiben "hoffentlich bringt AMD mal was gutes, damit die nvidia Karten günstiger werden" wie soll bei dieser Logik AMD mal durchstarten? Wenn die Leute sie bewusst nicht kaufen, selbst wenn sie besser sind, bekommt AMD kekn Geld und ohne Geld keine Entwicklung etc. Pp
 
Taxxor schrieb:
Naja das ist eigentlich genau der gleiche Marketing Gag wie die 1,9x Perf/Watt, die nur gelten, wenn man beide Karten auf 60fps limitiert, die Ampere Karte also dann nur zu 60-70% ausgelastet ist, wo Turing auf 100% läuft.
Nicht wirklich denn die Framerate zu limitieren hat zumindest irgendeinen praktischen Sinn, der Kühler Vergleich ist aber so oder so an den Haaren herbei gezogen denn die 3080 wird in beiden Fällen übervorteilt. Entweder weil das Kühlsystem des Vorgängers auf Überlast fährt und so erheblich lauter als @ Standard ist oder weil das Kühlsystem des Nachfolgers erheblich unterfordert wird und deshalb leiser ist als es normalerweise wäre.
Der einzige sinnvolle Vergleich ist beide @ Standard zu testen aber genau den Vergleich scheut man.
 
Gerithos schrieb:
Ja das ist traurig aber war, selbst als die AMD Karten mal besser waren (7970, R9 290X etc) wurde nur grün gekauft, wie damals bei den CPUs Pentium 4 statt Athlon.

Das ist so nicht richtig. Hatte AMD / ATI gute Produkte am Start, dann ist auch jeweils immer deren Absatz bzw. Marktanteil gestiegen.

Gibt ja auhh genug, die hier und in anderen Foren schreiben "hoffentlich bringt AMD mal was gutes, damit die nvidia Karten günstiger werden" wie soll bei dieser Logik AMD mal durchstarten?
Das sind einfach Unverbesserliche, bzw. einfach Leute, welchen die Marke über alles geht.
Ist ja in modernen Zeiten kein unbekanntes Phänomen.

Wenn die Leute sie bewusst nicht kaufen, selbst wenn sie besser sind, bekommt AMD kekn Geld und ohne Geld keine Entwicklung etc. Pp
Dewegen immer wieder mein Appell- Kauft das für Euch passende Produkt und hört auf Firmen zu Götzen hochzustilisieren.
Das gilt für alle "Lager" <- Bei diesem Ausdruck allein verkrampfen sich schon meine Finger beim Tippen, gerade weil wir hier von Konzernen reden, welchen hier versucht wird, "menschliche Eigenschaften" anzudichten...
 
  • Gefällt mir
Reaktionen: CableGuy82, monitorhero und Lübke82
Heschel schrieb:
SLI ist tot........

weis ich aber es ist meiner meinung nach "gewollt" tot. Man verdient mehrt mit einer teuren karte wie mit 2 kleinen die das selbe kosten und mehr leistung bringen. Mit DX12 würden sogar AMD und NV ohne zusammen laufen aber es ist einfach nicht gewünscht.

zudem werden wird in 1-2 Gens das Chiplet design bei GPUS's haben. Das ist von NV und AMD schon angekündigt.

Heschel schrieb:
Man fährt mit der 3090 besser, als mit 2 3080 im Großem und Ganzem.

ich bin mir recht sicher, das bei einer ordentlichen implementierung 2x3070 die eine 3090 stehen lassen.... für 500€ weniger.

MADman_One schrieb:
Dieser seltsamen Logik kann ich überhaupt nicht folgen. Wieso sollte es irgendwen überraschen das zwei kleine Karten eine große in die Tasche stecken können? Zwei gegen einen und so, das entlockt den meisten nur ein müdes Gähnen, warum sollte nVidia also davor Angst haben ?

kein angst aber wenn sie sich mühe bei der Implemtierung geben würden, würden sie der 3090 selber das wasser abgraben, spätestens mit den 20GB versionen die folgen sollen.

MADman_One schrieb:
Zudem hat die 3080 und 3070 meiner Meinung nach viel zu wenig Speicher für SLI, weil bei SLI meines Wissens nach wie vor immer noch alle Daten doppelt vorgehalten werden müssen....

korrekt. Bei SLI verdoppelt sich nicht der speicher. Zumindest nicht bei den Brot und butter anwendern. Es gibt im Pro bereich die möglichkeit von Ram Sharing durch 2 SLI briges, was "uns" auch wieder vorenthalten wird. Ich bin mir sehr sicher wenn sie "wollten" wären die SLI probleme schon schlängst verschwunden.
 
Zuletzt bearbeitet:
Botcruscher schrieb:
Weswegen die Karte im Extremfall nur eine 32bit Speicheranbindung hat. Das die Presse sich nur auf die 3,5GB gestürzt hat erinnert dann schon massiv an die Kollegen von der Tagesschau oder vom Spiegel...
Ganz so schlimm ist es nun auch wieder nicht denn daran hingen nur die restlichen 512 MB Grafikspeicher und der Treiber versuchte dort nur ein paar weniger wichtige Daten hin auszulagern oder ihn garnicht erst zu nutzen.
Der Bereich war also nahezu tot, obwohl man das in den technischen Daten der Karte nie eingestand.
 
  • Gefällt mir
Reaktionen: .Sentinel.
DerKonfigurator schrieb:
Aber nicht wirklich nennenswert viel nur ein paar MB

https://helgeklein.com/blog/2014/12/impact-gpu-acceleration-browser-cpu-usage/

Ja, nur ein paar MB. Und bei drei Browsern gleichzeitig dann mal eben 0.5GB
Wenn man sich über den wenigen VRAM aufregt braucht man halt nicht so einen Screenshot, als "Beweis" posten.
Wenn man sowas sieht, ist es kein Wunder, dass einige meinen 10GB VRAM würden ja auf keinen Fall ausreichen.

Und wenn ich den Screen richtig deute, der hier als Beispiel kam, sind es da sogar mal eben 1,3 GB VRAM die von der GPU genommen werden, da mehrere Firefox-Instanzen offen sind.
 
MiaSanMiaaa schrieb:
Es wird schon Gründe haben, wieso in jedem Board die AMD Sparte voll vom Threads mit Treiberproblemen ist. Kommt alles nicht von ungefähr.
Na ja, wenn ich mir in den gängigen Boards die Sparten zu NVIDIA als auch AMD ansehe, dann nehmen sich die Fehlermeldungen nicht wirklich was.

Beide Foren haben aktuell knapp 40 Seiten an Fehlermeldungen und Problemmeldungen hier. In vielen Foren sieht es nicht anders aus.

Beide Hersteller greifen seit Jahren regelmäßig immer wieder mal in die Scheiße, was einzelne Treiber angeht. Beide Hersteller sind mal mehr oder mal weniger von instabilen Builds ihrer "Custom-Partner" geplagt und beide Hersteller haben damit zu kämpfen, dass sich Probleme in der Regel als erstes am Bildschirm zeigen und man vermutet, dass es an der Grafikkarte oder am Treiber liegt.

Ich habe aktuell eine 5700 XT und ich gebe es sogar zu: Ich hatte sogar vor 3 Wochen eine Woche lang Blackscreens. Aber dafür konnte am Ende weder die Grafikkarte etwas noch wirklich der Treiber, sondern das Problem saß vor dem Monitor. Statt aber wie einige, sofort eine neue Grafikkarte zu kaufen, natürlich NVIDIA, weil AMD ja Mist wäre, habe ich mir meine Registry angesehen, hab mir mal in den Kopf gerufen, was ich für Probleme hatte und stellte fest:

Irgendwas hat ganz gewaltig die Registry zerschossen und damit auch den Treiber. Also mir meinen USB-Stick genommen und Windows sammt Treiber neu aufgesetzt und siehe da: Die Probleme sind alle weg.

Richtig ist, dass AMD mit RDNA beim Start wirklich Probleme hatte, einer der Gründe, warum man als EarlyAdopter immer aufpassen sollte, denn das kann nun auch mit Ampere passieren (nicht muss!). Wer ein wirklich "stabiles" System will, der muss sich halt auch mal in Geduld üben. ;)

MiaSanMiaaa schrieb:
Was hast du denn gesehen? Zeig doch mal Bespiele. Bevor du jetzt groß suchst, achte bitte darauf, dass es auch um DLSS 2.0 geht und nicht 1.0.
Naja, auch DLSS2.0 ist nicht das "Allheilmittel". Die Bildqualität bei DLSS2.0 ist auch schwankend. Das grundsätzliche Ergebnis ist besser als von DLSS1.0, es ist aber eben weiterhin eine Spanne, nun von: Leicht schlechter bis leicht besser.

Ich muss aber wieder sagen: DLSS ist in meinen Augen, wenn auch nicht unbedingt ab 4K, spätestens jedoch ab 8K eine Notwendigkeit um die auch AMD nicht herumkommen wird. Ich hoffe aktuell - naiverweise als FOSS-Verfechter - dass NVIDIA ein Einsehen hat und sowohl AMD, NIVIDIA als auch Microsoft hier an einem generellem DLSS arbeiten, der von den Spieleentwicklern Hersteller unabhängig eingepflegt wird.
 
  • Gefällt mir
Reaktionen: Unnu, CableGuy82, monitorhero und 3 andere
MiaSanMiaaa schrieb:
Wenn man sowas sieht, ist es kein Wunder, dass einige meinen 10GB VRAM würden ja auf keinen Fall ausreichen.
Auf der anderen Seite möchte man aber vielleicht auch nicht jedesmal, bevor man ein Spiel startet eine Routine durchlaufen, wo man alle Browser und andere anwendungen, die VRAM reservieren, erstmal schließen muss.

Daher finde ich VRAM Tests auch auf cleanen Testsystemen reht nichtssagend.
Wenn hier z.b. bei einem Spiel gesagt wird, dass es in 4K bei einer 8GB Karte Probleme gibt, aber die 11GB Karte flüssig ist, gilt das dann auch für die Privatnutzer, die sich die 11GB Karte holen und im gegensatz zum Testsystem noch 1GB VRAM zusätzlich durch andere Dinge belegt haben?
 
  • Gefällt mir
Reaktionen: Unnu und CableGuy82
firejohn schrieb:
Bezüglich RTX I/O. Ich denke da hat AMD schon dran gearbeitet wegen der Kooperation mit Microsoft (Konsole) - DirectStorage.

Das ist anzunehmen. Könnten sie als Feature von RDNA2 herausarbeiten.
 
  • Gefällt mir
Reaktionen: Lübke82
firejohn schrieb:
Bezüglich RTX I/O. Ich denke da hat AMD schon dran gearbeitet wegen der Kooperation mit Microsoft (Konsole) - DirectStorage.
Auch hier hilft es, wenn man mal die News von CB ließt: RTX I/O greift auf eine Funktion in DX12.2 aka DX 12 Ultimate zurück und damit wird AMD mit sehr hoher Wahrscheinlichkeit eine entsprechende Alternative bieten, denn sonst wäre die Grafikkarte nicht DX12.2 kompatibel.

Aber genau das ist halt auch der Punkt: Die Leute lesen nur die Hälfte, dann wird rum schwadroniert - nicht du, nicht auf dich beziehen, nein du bist nicht gemeint - und die Leute, die wirklich die News als ganzes Lesen stellen halt fest: Joar, da wird halt ne nötige DX12.2 Funktion umgesetzt und mit einem tollen Namen wegen des Marketings versehen, thats all!
 
  • Gefällt mir
Reaktionen: Unnu, Suteki, CableGuy82 und 3 andere
DarkerThanBlack schrieb:
Leider wegen Speichermangel absolut nicht mein Fall. Sorry...
Ich kann es nicht mehr hören... was, wenn die nVidia trotz überquellendem Speicher IMMER NOCH SCHNELLER als der Mitbewerber ist?!
 
Was ich mich immer frage: Müsste man nicht eigentlich beim Verbrauch der Grafikkarten auch den Verbrauch des Hochleistungsrechenzentrum (oder der Cloud) mit einrechnen, welches Nvidia nutzt um ihre Modelle für das Upsampling via DLSS zu trainieren? Und könnte das nicht jeder Nutzer im Prinzip zu Hause machen, für Spiele die DLSS noch nicht unterstützen? Koppeln mit ner Onlinedatenbank und fertig - alle profitieren!
Danke übrigens für den schönen Artikel mit etwas Hintergrundwissen! Mich würde noch interessieren, was denn typische Integer-Berechnungen sind... Bei den meisten Berechnungen die ich auf Arbeit durchführe (Quantenmechanik), verwende ich gar keine Integer Variablen, außer als Index bei Schleifen...
 
  • Gefällt mir
Reaktionen: Unnu und CableGuy82
Eine Frage an DLSS, bzw an jene die sich damit auskennen.

bisher war maximal Faktor 4? Möglich jetzt 8?

sollten die Ergebnisse wirklich sehr gut sein, kann man sich dann ernsthaft 2160p anzeigen lassen und das Ganze mit 270p berechnen?
Sofern das eine Software unterstützt? Oder gibts da auch eine untere Grenze von vielleicht 720p?
 
Teralios schrieb:
Naja, auch DLSS2.0 ist nicht das "Allheilmittel". Die Bildqualität bei DLSS2.0 ist auch schwankend. Das grundsätzliche Ergebnis ist besser als von DLSS1.0, es ist aber eben weiterhin eine Spanne, nun von: Leicht schlechter bis leicht besser.

Mir geht es auch gar nicht darum, dass es ein Allheilmittel ist. Der Sprung von 1.0 auf 2.0 wird immens sein. Auch wenn es um Qualität und Kinderkrankheiten geht. Es zeigt aber einfach auf, wohin die Reise gehen wird und das ist auch gut so.
Das alles einfach als "Trickserei" abzutun und zu verteufeln, ist aber keine Art und Weise. Das zeigt nur, dass man sich entweder nicht damit auseinandergesetzt hat, oder aber um allen Preis was zu kacken haben will. Und danach sehen mir die Posts, auf die ich mich da bezogen habe, auch aus.



Taxxor schrieb:
Auf der anderen Seite möchte man aber vielleicht auch nicht jedesmal, bevor man ein Spiel startet eine Routine durchlaufen, wo man alle Browser und andere anwendungen, die VRAM reservieren, erstmal schließen muss.

Schon richtig. Aber ich finde es trotzdem suspekt, mangelnden VRAM mit so einem Screenshot belegen zu wollen.
Wenn ich aktuelle Titel mit den höchsten Einstellungen und 4k etc laufen lassen will, was die aktuellen Systeme eh schon ans Limit bringt, muss ich halt Abstriche machen und schauen, dass alles auch vernünftig läuft. Da braucht man sich doch über Microruckler nicht wundern.
 
  • Gefällt mir
Reaktionen: Lübke82 und Ziggystardust
Zurück
Oben