Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Ratterkiste schrieb:
Angaben über Lautstärke kann getrost in die Tonne kloppen. Dazu reicht es schon, dass der eine das Mikrofon in 25cm, der andere in einem Meter Abstand an die Grafikkarte hält. Zack misst der eine 10 dB mehr als der andere.
Für einen relativen Unterschied reicht es aber, sofern man davon ausgeht, dass Nvidia das Mikro nicht bei ihrem eigenen Vergleich je Modell unterschiedlich platziert hat.

Demnach hatte die 3080 2dB weniger als die 2080 und das kann man nun auf andere Messungen anwenden.
 
  • Gefällt mir
Reaktionen: BGnom
evilhunter schrieb:
@Psychodelik
Und nein AMD hat zu DLSS 2.0 nichts gleichwertiges anzubieten.

Du und ich wissen doch noch gar nicht was die BIG-Navi bzw. die RDNA-2 Architektur so anbieten wird. Meinst du AMD wird schlafen und die RIS Technologie die sie gegenüber der DLSS 1.0 entwickelt haben einfach links liegen lassen und nicht verbessern bzw. anpassen gegenüber der DLSS 2.0 Technologie seitens nVidia oder was !

Ihr stellt mit euren Antworten AMD so dar, als würden die den ganzen Tag nur schlafen und nichts tun bzw. nichts anbieten und nicht forschen, aber die Realität sieht ganz anders aus, als würde AMD ein Saftladen sein aus eurer Sicht. Das stimmt aber nicht.

Ein Beispiel schau mal die Ryzen AMD Prozessoren an, die schlagen die Intels bei weitem, Intel ist zur Zeit mit ihrem sch.. neuen Logo beschäftigt, AMD geht schon Richtung 5 nm Fertigung und experimentiert jetzt schon mit 3 nm in Ihren Labors.

Nicht nur nVidia arbeitet, AMD tut das auch, aber manch einer stellt AMD so dar, als würden die nichts anbieten, nichts tun, nicht arbeiten, nicht an die Zukunft denken, nicht forschen, etc. pp..

Was soll der Mist !

Gruß PSYCHO
 
  • Gefällt mir
Reaktionen: Iscaran, CableGuy82, hurcos und 4 andere
Rockstar85 schrieb:
[...]

@S.Kara
Die Karten haben zu wenig VRAM und das ist Fakt.. Meine 1080Ti hat mehr VRAM und selbst den krieg ich voll.
[...]

S.Kara schrieb:
Achja? In welchen Spielen reichen die 8 GB denn nicht?
Ich spiele in 4k und hatte noch nie Probleme mit den 8 GB meiner 2080. Genauso wird es 98 % aller User gehen.

Was bringt es mehr VRAM zu haben wenn er nicht von Vorteil ist?

Pass auf. Gleich antwortet er dir, dass er mit dem MSI Afterburner ausgelesen hat, dass der VRAM seiner 1080Ti "voll" ist. Andere Belege in Form von unabhängigen Tests mit Frametime-Messungen wird er vermutlich wieder nicht liefern können.
 
Psychodelik schrieb:
Ein Beispiel schau mal die Ryzen AMD Prozessoren an, die schlagen die Intels bei weitem
Im Gaming eben nicht, und da es hier um GPUs geht, darf man sich auf AMDs Fähigkeiten im Gaming beschränken.
Compute konnten die AMD Karten auch vorher schon sehr gut.

Was Gaming angeht, sind die letzten Jahre der RTG aber geprägt von leeren Versprechnungen und Features, die alles so viel besser machen sollten, aber entweder nie funktionsfähig in die Karten gekommen sind, oder nie wirklich genutzt wurden.
 
  • Gefällt mir
Reaktionen: Unnu, squadric, MrNejo und 7 andere
Marcel55 schrieb:
Funktioniert das ganze eigentlich auch mit Videos bzw. Filmen?
Das wäre noch ein Traum, eine 1080p Bluray könnte so einer UHD-Bluray Konkurrenz machen, einfach per Upscaling. nVidia würde da mit den besten Bildprozessoren die der TV-Markt zu bieten hat eiskalt den Fußboden wischen.
Oder auch Streams von Netflix etc., könnte ja grundsätzlich funktionieren.

So ähnlich arbeitet doch die neue Shield von Nvidia mit ihrem KI Upscaling.
Das Ergebnis ist sehr gut. Gerade bei 480p und 720p Material. 1080 p auf 4k hochskaliert sieht ebenfalls sehr gut aus.
Ich will das nicht mehr missen.
Nvidia nutzt auch hier ihre Rechenzentren.
Das Ganze wird auch immer besser mit jedem Update.

Gerade manche ältere Filme auf Amazon Prime profitieren davon stark.
Je nach Video, sieht die KI Skalierung mal mehr, mal weniger gut aus.

So als Beispiel. Persönliches Empfinden:
Die Serie The Expanse, getestet von Prime einmal als 4k Stream und einmal als Fullhd Stream mit Nvidias Skalierung.
Viel Unterschied ist da nicht mehr.
Das ganze ohne die Skalierung sieht schon schlechter aus.

Vor kurzem gab's ein großes Update und jetzt funktioniert es auch mit 60 fps Videos auch.
Ich war bei dem Film "Jagd auf roter Oktober " sehr beeindruckt von der Technik.
Gerade bei 4k Beamern bringt das viel, weil dort die Upscaler schlechter sind, wie bei neusten TVs.

Da bin ich auch sehr gespannt, wie die ps5 es machen wird. Die hat dafür ja viel mehr Rechenleistung.
Andererseits nutzt Nvidia ihre eigenen Supercomputer dafür, wie bei DLSS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LipsiaV, Toni_himbeere und evilhunter
@Psychodelik

Ja genau was soll der Mist?
Du legst und Wörter und Aussagen in den Mund.
Das einzige was @Taxxor und ich sagen ist, dass zum jetzigen Zeitpunkt AMD nichts gleichwertiges hat. Und das stimmt auch so. Da können wir gerne einmal quer durch die Fachpresse gehen.

KEINER hier behauptet, dass AMD nichts auf die Beine stellen wird oder sogar schläft.
Ich persönlich glaube auch, dass mit RDNA2 eine ähnliche Technologie die auf DirectML basiert vorgestellt wird.
Aber darum ging es nicht.
Du hast alte Artikel herausgekramt und versucht damit zu argumentieren. Entspricht halt nicht mehr dem heutigen Stand.
Ach und zu AMD, in meiner Kiste ist ein AMD CPU drin. Also bitte, unterlass Unterstellungen, dass wir nicht anerkennen was AMD auf die Beine gestellt hat.
Man kann über die Technologien aber sachlich argumentieren und natürlich auch kritisieren.


Grüße
evil
 
  • Gefällt mir
Reaktionen: Alex1966, Tock, BGnom und 12 andere
Psychodelik schrieb:
Ihr stellt mit euren Antworten AMD so dar, als würden die den ganzen Tag nur schlafen und nichts tun bzw. nichts anbieten und nicht forschen, aber die Realität sieht ganz anders aus, als würde AMD ein Saftladen sein aus eurer Sicht. Das stimmt aber nicht.

Also wenn du inhaltlich komplett widerlegt wirst, unterstellst du anderen, sie würden AMD als Saftladen darstellen und redest von RIS 2.0? RIS ist ein Schärfefilter nichts weiter.
Wie es mit DirectML und einen Counterpart zu DLSS aussieht, ist bisher nicht bekannt.

Psychodelik schrieb:
Ein Beispiel schau mal die Ryzen AMD Prozessoren an, die schlagen die Intels bei weitem...

In Spielen sind sie bis heute langsamer und ich weiß nicht was das mit dem Thema zu tun hat.

Psychodelik schrieb:
Intel ist zur Zeit mit ihrem sch.. neuen Logo beschäftigt, AMD geht schon Richtung 5 nm Fertigung und experimentiert jetzt schon mit 3 nm in Ihren Labors.

Während du anderen unterstellst AMD als Saftladen darzustellen (was keiner getan hat) machst du es gleichzeitig bei Intel und unterstellst, sie würden nur an ihrem Logo arbeiten. Sehr sachlich.^^

Psychodelik schrieb:
Nicht nur nVidia arbeitet, AMD tut das auch, aber manch einer stellt AMD so dar, als würden die nichts anbieten,

Im Moment haben sie nichts gleichwertiges zu DLSS 2.0, bei weitem nicht, schau bitte Vergleichsvideos und Screenshots an. RIS ist dagegen ein Witz und ein reiner Schärfefilter, was Nvidia auch bietet.
Das bedeutet aber nicht, dass AMD nicht in Bälde auch etwas anbieten könnte.
 
  • Gefällt mir
Reaktionen: Tock, BGnom, scryed und 18 andere
DarkerThanBlack schrieb:
Ich muss überhaupt nichts. Die Karten bis zur 3090 haben zu wenig Speicher, das ist Fakt und die 3090 ist maßlos überteuert. Da kannst du noch so hanebüchend argumentieren wie du willst.



Doch, dass kann ich und werde ich auch. 😊
Um endlich eine brauchbare Speichermenge zu erhalten soll man also tief in die Tasche greifen und Titanpreise bezahlen? Oder wie du es sagst, in den sauren Apfel beißen? Das ist also deine Logik? Dann gute Nacht mein Freund.

Dann erkläre ich einmal die Logik dahinter.
Die 3070 und die 3080 sind mangels VRAM ein NOGO!
Die 3090 ist halsabschneiderei und ebenso ein NOGO. Soweit nun die Logik verstanden?
Dann warte doch auf AMDs neue Karten und/oder was Nvidia nächstes Jahr noch raus bringt.
Oder kauf dir eine gebrauchte 2080ti oder eine Readon 7 mit 16 gb Speicher.
 
  • Gefällt mir
Reaktionen: pietcux und Lübke82
Ich weiß gar nicht was die Leute haben mit "8 GB reichen" bei Total War WARHAMMER II werden zum Teil deutlich mehr als 8 GB benutzt. Wenn man dort in der kampagne übersichtkarte ist hat man mit 16 GB VRAM zwei zoomstufen mehr als gegenüber 8 GB. So das bei 4k Auflösung die komplette Karte auf den Monitor past.

Und windows frist auch immer mehr speicher

1599290186190.png
 
  • Gefällt mir
Reaktionen: Renegade334
Teralios schrieb:
Für mich wird dieses Jahr echt spannend, denn NVIDIA geht mit Ampere interessante Wege. Ich bin gespannt was bei RDNA2 kommt.
AMD wird auch den ein oder anderen spannenden Weg gehen. Gerüchte bezüglich Raytracing legen das nahe.
Ja manche haben anscheinend technisch nicht verstanden was der Artikel hier sagt. Es gab ja Gerüchte das Ampere bei dem ein oder anderen Game nicht so gut aussieht. Das INT Problem erklärt das nun.
Was ich auch kritisch sehe - das maximum an Mehrperformance kommt nur zum Tragen wenn eben Raytracing und DSSL genutzt wird. Und die Kombination ist halt im Moment absolute Nische.
 
@wern001 Das, was dir da im Taskmanager angezeigt wird ist das, was an Speicher für die anwendung reserviert ist, das bedeutet nicht, dass das auch aktiv genutzt wird.
dwm.exe wird nicht konstant auf 800MB VRAM angewiesen sein, belegt ihn aber schon mal für sich, weil da noch viele alte Daten drin liegen, die man nicht rauswerfen musste, weil ja noch genug VRAM frei ist.
Wenn du jetzt für ein Spiel mehr VRAM wirklich benötigen würdest, würde hier Platz frei gemacht werden, was mit der deutlich höheren Bandbreite von GDDR6X nochmal effizienter geht und durch die verbesserte Kompression durch die Tensor Kerne wirst du wenns gut läuft sowieso bis zu 20% weniger Platz im VRAM brauchen als bei Turing.
Die 10GB GDDR6X 3080 dürfte dann vergleichbar mit einer 12GB GDDR6 Karte von AMD sein.
 
  • Gefällt mir
Reaktionen: LipsiaV, Lübke82, McFritte und eine weitere Person
Das ist mir schon klar dass das wieder freigegeben wird. Aber es zeigt dir die Richtung wo es hingeht. Selbst Browser fressen mehrere 100 MB.
 
Taxxor schrieb:
Für einen relativen Unterschied reicht es aber, sofern man davon ausgeht, dass Nvidia das Mikro nicht bei ihrem eigenen Vergleich je Modell unterschiedlich platziert hat.
Demnach hatte die 3080 2dB weniger als die 2080 und das kann man nun auf andere Messungen anwenden.

Das ist schon klar. Mir ging es um die Vergleichbarkeit mit den Werten aus den Tests hier auf CB, wo ~10dB mehr gemessen wurden (was etwa der doppelten Empfundene Lautstärke entspricht). Bei gewissen Firmen gehen die Emotionen bei manchen Diskutanten durch die Decke, da wird dann schnell ein angeblicher Beschiss nVidias konstruiert nach dem Motto "jetzt werden auch noch die Lautstärkeangaben gefälscht, böse böse Lederjacke", obwohl die Abweichung allein durch Unterschiede im Messaufbau erklärbar ist.
 
Ratterkiste schrieb:
Das ist schon klar. Mir ging es um die Vergleichbarkeit mit den Werten aus den Tests hier auf CB, wo ~10dB mehr gemessen wurden (was etwa der doppelten Empfundene Lautstärke entspricht).
6dB war doch ca das doppelte wenn ich mich recht entsinne. 10dB wären da also schon eher das 3fache.

Also im CB Test hat die 2080 FE 39dB, runtergerechnet würde die 3080 FE bei CB also irgewndwo bei 37dB landen, und in dem Bereich liegt auch meine GPU und die höre ich nicht aus dem Gehäuse raus, sofern ich nicht ohne Ton spiele^^
 
Psychodelik schrieb:
Du und ich wissen doch noch gar nicht was die BIG-Navi bzw. die RDNA-2 Architektur so anbieten wird.

Du tust so, als ob du wüsstest, was RDNA2 bieten wird. Merkst du selbst, oder?



Psychodelik schrieb:
Ihr stellt mit euren Antworten AMD so dar, als würden die den ganzen Tag nur schlafen und nichts tun bzw. nichts anbieten und nicht forschen, aber die Realität sieht ganz anders aus, als würde AMD ein Saftladen sein aus eurer Sicht. Das stimmt aber nicht.

AMD war in den letzten Jahren ein Saftladen, wenn es um Software und Features geht. Alleine der bloße Treiber spricht seit Jahren Bände.



Psychodelik schrieb:
Ein Beispiel schau mal die Ryzen AMD Prozessoren an, die schlagen die Intels bei weitem, Intel ist zur Zeit mit ihrem sch.. neuen Logo beschäftigt, AMD geht schon Richtung 5 nm Fertigung und experimentiert jetzt schon mit 3 nm in Ihren Labors.

CPU ≠ GPU
Gleiches kann man AMD übrigens auch unterstellen. Das Treiber-GUI sieht zwar mega super duper bling bling aus im Vergleich zum altbackenen NVIDIA XP-Design. Und? Was hab ich davon, wenn die eigentliche Funktion einfach nur schlecht ist? AMD ist da kein Deut besser.
 
  • Gefällt mir
Reaktionen: LipsiaV und Lübke82
Taxxor schrieb:
und die höre ich nicht aus dem Gehäuse raus, sofern ich nicht ohne Ton spiele
Eine 60dB Karte mit Radiallüfter würde man auch nicht mehr hören wenn man mit ANC-Kopfhörern spielt 😝

Novasun schrieb:
Es gab ja Gerüchte das Ampere bei dem ein oder anderen Game nicht so gut aussieht.
Joa, im schlechtesten Fall sind die Karten nicht wirklich schneller als ihre Vorgänger. Steht ja auch im Artikel.
Hängt eben auch vom Spiel ab. Kannst die beste Karte im Rechner haben, aber wenn die Architektur nicht damit klarkommt wie ein Spiel programmiert wurde, können die Framerates schlechter sein als bei deutlich schwächeren Grafikkarten.
Das Problem habe ich ja aktuell z.B. son bisschen mit meiner Vega 64 in Spielen wie Horizon Zero Dawn.
 
  • Gefällt mir
Reaktionen: Unnu
Taxxor schrieb:
6dB war doch ca das doppelte wenn ich mich recht entsinne. 10dB wären da also schon eher das 3fache.
Das kommt drauf an. Die wahrgenommene Lautstärke verdoppelt sich alle 10dB, der Schalldruck bei 6dB.
 
  • Gefällt mir
Reaktionen: CableGuy82, Colindo und Taxxor
@Taxxor
6dB ist die Verdopplung des Schalldrucks.
Die empfundene Lautstärke ist dagegen ja keine harte physikalische, sondern psychoakustische Größe. Da geht man als Faustregel von einer Verdopplung bei 10dB aus. Das hängt aber natürlich vom Individuum und anderen Umständen ab.
Bei Sengpiel gibt es für den Interessierten mehr zu lesen.
 
  • Gefällt mir
Reaktionen: CableGuy82 und Taxxor
wern001 schrieb:
Und windows frist auch immer mehr speicher

Anhang anzeigen 962922

Ja, wer zockt auch nicht, während 3 verschiedene Webbrowser laufen. Was soll das bitte für ein sinnfreier Screenshot sein?!
99% der Leute die wegen VRAM rumnöhlen haben die Funktionsweise dahinter nicht wirklich verstanden. Die anderen 1% sind Leute, die wissen wovon sie reden und dann mit irgendwelchen mega super 4k Texturmods um die Ecke kommen, für ein 10 Jahre altes Spiel.
 
  • Gefällt mir
Reaktionen: Kenjiii, squadric, LipsiaV und 3 andere
noxon schrieb:
Und DLSS 2.0 ist sowieso ne fantastische Sache. Mit all diesen Dingen und ... in Spielen jetzt tatsächlich nichts mehr im Wege. Da freu ich mich doch schon auf die Zukunft.
Ich wünsche mir die Zeit zurück als solche Trickser Reihen noch in der Fachpresse und in den Foren mit der Heugabel vom Hof gejagt wurde, heute freut mich sich darüber, verrückte Welt.

Auch interessant, früher ging ATi/AMD den Weg der brachialen Power und scheiterte daran, das man die Auslastung nicht hin bekam und der Verbrauch etc. in die höhe ging. Jetzt setzt AMD auf weniger und dafür Packt nV die Knübbel aus. Mal sehen wie das in naher Zukunft ausgeht. Irgendwie haben beide da in ihrem Ansatz auf jeden Fall mal die Rollen getauscht. Es bleibt spannen, möge der bessere Gewinnen. Aber bitte ohne so Blödsinn wie Künstliche Intelligenz, Marketing Gebrabbel ins reinst Form.

MiaSanMiaaa schrieb:
AMD war in den letzten Jahren ein Saftladen, wenn es um Software und Features geht. Alleine der bloße Treiber spricht seit Jahren Bände.
Wenn ich mir auf Bildern so den AMD Treiber mal anschaue bietet der mehr als der nV Treiber bei mir. Also was da an Feature fehlt, keine Ahnung, davon könnte nV mal was übernehmen.

Ach, zwecks deinem "Saftladen", wäre froh wenn nV endlich mal den Treiber fixt das mein nV Treiber nicht alle 1 Stunde abschmiert aber nur AMD macht Fehler ;-) Aber Hauptsache man wirft mir Wörtern wie Saftladen um sich.
 
  • Gefällt mir
Reaktionen: Colindo und SchorschSepp
Zurück
Oben