Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

stefan@x700pro schrieb:
Denke nach wie vor, dass Amd mit ca. 26 milliarden designt hat, jetzt hat NV 28.... Schade, hoffentlich liege ich falsch.
Bedenkt bitte, dass diese Angaben nur für den vollen Chip gelten.

Wo Eine 5700XT mit 10,3Mrd angegeben ist, hat sie auch 10,3Mrd, weil es der Vollausbau von Navi10 ist.
Bei Ampere hat aber nicht mal die 3090 diese 28Mrd, da der GA102 hier bereits beschnitten ist, die 3080 dürfte runtergerechnet auf ihre aktiven SM irgendwo bei 23Mrd liegen, die tatsächlich genutzt werden
 
  • Gefällt mir
Reaktionen: CableGuy82, evilhunter und Rock Lee
Vom Spulenfiepen hat bisher noch keiner gesprochen? ob das Thema mit der neuen Gen Vorbei sein sollte:rolleyes:
 
Wadenbeisser schrieb:
Die Lautstärke Grafik ist wohl ein schlechter Marketin Gag, oder?
Seit wann läuft die 2080 auf 320W? Kühler @ Überlast vs. Kühler @ Standard?

Naja das ist eigentlich genau der gleiche Marketing Gag wie die 1,9x Perf/Watt, die nur gelten, wenn man beide Karten auf 60fps limitiert, die Ampere Karte also dann nur zu 60-70% ausgelastet ist, wo Turing auf 100% läuft.

Wobei es beim Vergleich der Kühler wenigstens noch einigermaßen Sinn macht, mit gleichem Verbrauch zu vergleichen, hier wird eben nur der Kühler für sich alleine getestet und nicht geanau in Verbindung mit der jeweiligen Karte. Auch wenn der Kühler der 2080 FE nie für 320W designt wurde und es ehrlicher gewesen wäre, hier wenigstens beide Kühler mit 225W zu testen, wenn man schon mit gleicher Leistung gehen will.

Ein kleinerer Unterschied soll aber wie im Artikel erwähnt auch bei Stock Settings bestehen.
Wird die GeForce RTX 2080 FE mit den Werkseinstellungen von 225 Watt betrieben, fallen die Unterschiede geringer aus, bleiben aber immer noch vorhanden: 78°C bei 30 dB auf der RTX 3080 stehen 81°C bei 32 dB auf der RTX 2080 gegenüber.

Wo ich mich frage, wo die dB gemessen werden. 30dB unterschreitet ja jeden Wert den man auf CB zu GPU Tests sieht.
Aber wenn man es prozentual umrechnet(eine 2080 FE kam im Test auf 39,0dB), dann würde die 3080 bei 320W auf 36,5dB kommen, was 1dB unter meiner 5700XT Nitro+ entspricht und sehr gut ist.
Sollte ich mir ne 3080 holen, wird sowieso das Power Limit erstmal auf 90% gesetzt(betreibe meine 5700XT auch im alternativ BIOS), damit vielleich 2-3% Leistung verloren und das Ding wird ziemlich leise sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: evilhunter
eXtra schrieb:
Frage an CB:
Wenn ihr die Founders Edition der RTX 3080 testet, könnt ihr dann mal schauen welchen Einfluss das neue Kühlsystem der Karte auf die Temperatur der CPU hat? Ein Teil des Kühlers pustet ja scheinbar warme Luft nach oben in Richtung der CPU. Wäre interessant zu wissen ob die CPU dadurch wärmer wird als bei einem herkömmlichen Kühlsystem.

Anhang anzeigen 962877

Klar wird die wäremer. Ob der CPU-Kühler mit 20 °C oder 30 °C warmer Luft versorgt wird ist schon ein unterschied.
Da sind doch 3 Lüfter mit eingezeichnet. Da schreibt aber keiner ob die 900 rpm oder 3500 rmp haben.
 
Klingt für mich hart nach einer AMD GPU- auf dem Papier massiv Rohleistung die dann entweder gar nicht oder nur bei einigen Anwendungen abgerufen werden kann. Aber NV hat ja im Gegensatz zu AMD genug Kohle um die Entwickler zu "überzeugen".

Wadenbeisser schrieb:
Gab es bei der GTX970 nicht die Probleme weil der L2 beschnitten wurde, die ROPs an den Abschnitten des L2 hingen und deshalb ein Teil der ROPs auf einen anderen Cache Abschnitt "umgeklemmt" werden mussten?
Weswegen die Karte im Extremfall nur eine 32bit Speicheranbindung hat. Das die Presse sich nur auf die 3,5GB gestürzt hat erinnert dann schon massiv an die Kollegen von der Tagesschau oder vom Spiegel...
 
tochan01 schrieb:
Auch wenn es kaum noch einer nutzt aber sli nur für die 3090 ist doch kacke. Es darf wohl keiner sehen, dass 2 kleine gpus die dicke in die Tasche stecken..
SLI ist schon seit Jahren tot und wenn man nicht völlig blind ist und Mikro-Ruckler nicht sieht, dann haben 2 kleine GPUs eine dicke GPU auch noch nie "in die Tasche gesteckt".
 
  • Gefällt mir
Reaktionen: sven.ghostrider, Celinna, stevefrogs und eine weitere Person
Bin mal gespannt was das Ding an mining Rechenleistung raushaut. Ob das eine Grafikkarte wird wo man sagt ach da bestell ich gleich mal 10 stück
 
Spawn schrieb:
Vom Spulenfiepen hat bisher noch keiner gesprochen? ob das Thema mit der neuen Gen Vorbei sein sollte:rolleyes:

Zurzeit architektonisch nicht möglich, da Spulen nun mal schwingen und das kann man mit heutigen mitteln auch nicht verhindern. Man kann es verbessern um so weniger die Grafikkarte an Leistung verbraucht und mit besseren ummantelungen aber grundsätzlich kann man es nicht verhindern.
Jedes Elektronische Bauteil was eine Verlustleistung hat ist am fiepen weil Spulen ein wichtiges Element sind.
Einfach mal zb. dein Ohr an einem Handy Lade Gerät halten oder Router, Fernseher, etc.

Um so mehr eine Grafikkarte verbraucht desto stärker Schwingen die Spulen und um so Lauter wirds.
Man kann auch nicht größere Spulen verbauen weil man auf einer Grafikkarte dafür keinen Platz hat.

wern001 schrieb:
Ob das eine Grafikkarte wird wo man sagt ach da bestell ich gleich mal 10 stück

Und nach 10 Jahren Dauer hashen hast du das Geld für die Grafikkarten wieder raus und nach weiteren 10 Jahren das Geld für die Stromkosten, wenn nicht zwischendurch der Bitcoin extrem dropt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ITX17x17 und CableGuy82
Nen echt großer Wirf ist ihnen hier gelungen. Fühlt sich an wie damals bei Pascal.
 
  • Gefällt mir
Reaktionen: CrustiCroc und Lübke82
Häschen schrieb:
Und nach 10 Jahren Dauer hashen hast du das Geld für die Grafikkarten wieder raus und nach weiteren 10 Jahren das Geld für die Stromkosten, wenn nicht zwischendurch der Bitcoin extrem dropt.

lol eine Radeon VII wirft aktuell ca 3-5€/Tag ohne Stromkosten ab.
 
Zuletzt bearbeitet:
Komisch jeder der nVidia Fanboys ist total scharf und geil auf die DLSS Features und behaupten in vielen nVidia threads, das AMD nichts vergleichbares bietet, aber wenn man ein kleines bisschen recherchiert dann findet man das AMD´s Ansatz mit der RIS Technologie gegenüber der DLSS von nVidia in nichts nachsteht, im Gegenteil es ist sogar open source und besser zu handhaben aus Sicht eines Programmierers.

Igor´s Labs hat es sogar schon bestätigt und das soll was heißen.

https://www.igorslab.de/ultimativer-visueller-vergleich-zwischen-amd-ris-nvidia-dlss-und-freestyle/

Warum die Leute total geil auf diese geschlossenen propritären Programmteile sind verstehe ich nicht.

Geschlossene bzw. propritäre Software kommt nicht der Allgemeinheit zu Gute, im Gegenteil, der jeweilige Konzern will seinen eigenen Mist in den Markt dadurch drücken mit diesem Schritt und die Konkurrenz ein Schnäppchen schlagen, aber Allgemeinheit bzw. der Konsument hat keine Vorteile durch diesen Schritt finde ich.

Lieber Open Source unterstützen, so das jeder davon was hat und die Programmierer besser und effizienter damit umgehen, so das die allgemeine community dadurch profitiert, statt diese geschlossenen und propritären Sachen und Dinge, wo nur der jeweilige Fanboy profitiert und die andere Mehrheit schaut dumm aus der Röhre.

Und wenn man solche extrem teuren Grafikkarten von nVidia kauft, dann unterstützt ihr diese geschlossenen bzw. propritäre Software.

Aus Sicht eines Konsumenten und Programmierers wäre es definitiv von Vorteil wenn man verstärkt in allen Belangen auf open source setzt und die jeweiligen Programmteile beispielsweise über GitHub veröffentlicht.

Dadurch kann ein Interessent es ausprobieren, verbessern, effizienter gestalten, Verbesserungen einbauen, Performance der Software steigern und dann kann die Allgemeinheit es in sein eigenes System per update implementieren - aber bei einem geschlossenen bzw. propritärem System ist man dann wiederum von dem jeweiligen Konzern abhängig, leider.

Gruß PSYCHO
 
  • Gefällt mir
Reaktionen: Connsen27, Unnu, ThePlayer und 12 andere
Ampere ist schon ein sehr interessantes Stück Hardware.
Für mich zeigt diese Generation wie schwammig es eigentlich ist bei GPUs sowas wie "IPC" zu definieren. Bei CPUs ist das noch relativ einfach. Aber bei Ampere? Grade über mehrere GPU-Generationen? Wenn ich nur die SMs nehme (3080 und 2080ti haben beide 68), dürfte Ampere taktnormiert bei gut über 20% IPC herauskommen.
Würde man jedoch bei gleicher Shader-Anzahl messen (d.h. eine Turing 60SM gegen Ampere 30SM), hätte Ampere natürlich deutlich verloren. Und das kann eigentlich nicht im Sinne des Betrachters sein. Deshalb vergleiche ich für mich weiter die Anzahl der SMs (oder CUs bei Radeon) und ignoriere diese abartig hohen TFlops-Zahlen. Wichtig ist am Ende eh nur wie lang die Balken sind ;)

Blutschlumpf schrieb:
Wirds eigentlich auch nen "Volks-Ampere" a la GTX 1880/2660 oder irgendwas ähnlich blöd klingendes geben?
Bei mehr als 200 Euro sinkt mein Investitionswille irgendwie rasant,
Ja, die GA106 und Ga107 Chips kommen aber später. War bei Turing auch schon so.
Eine 3060 mit 30SMs dürfte ne 2070 Super locker schlagen. Wird aber auch bestimmt 300 Euro kosten. 200 Euro Klasse bekommst du dann eben nur ne 3050ti (oder wie auch immer man die nennen wird).
 
Zuletzt bearbeitet:
Mal ganz in Ruhe die Tests abwarten und über breite Palette das Performanceplus sehen.
Mindestens mit ebenso viel Ruhe die 16GB bzw. 20GB VRAM Karten abwarten.
Dann schauen ob es sich bei aktuellen Games wirklich lohnt.....irgendwie denke ich das sich bei nächster Generation einiges mehr tun wird in Sachen Features (sieht hier aus wie ausprobieren, was geht wie am besten).

Ampere ist echt nett, aber es liest sich mehr wie eine Vorbereitung auf was "Großes", was "Neues".
 
  • Gefällt mir
Reaktionen: Psychodelik
Vllt. hat AMD einen Vorteil durch TSMC. Der Samsung 8nm ist vergleichbar mit TSMCs 10nm soweit ich weiß. Weiß nicht wie es mit TSMCs 5nm aussieht, das ist ja mit Apple schon im Gange (?).

Bei Kepler war doch die Compute (ich kenn mich mit der Materie noch nocht so aus, interessiert mich aber) Leistung irgendwie künstlich treiberseitig halbiert. Damit die Profikarten einen Vorteil haben. Ist das immer noch so? Und wo wird sowas im Speziellen gebraucht? Deep Learning, KI etc.

Und von diesem neuralem Netzwerk, wird damit die Berechnung innerhalb der Graka gemeint. Dachte Nvidia hatte sozusagen Dinge vorberechnet, bestimmte Spiele trainiert (?). Kommt das dann per Treiber?
 
@Psychodelik
Du weißt aber schon, dass der Artikel den du verlinkt hast nur Spiele enthält die DLSS 1.0 unterstützen?
Man sollte schon den jetzigen Stand testen.
DLSS 2.0 spielt in eine anderen Liga.

Ich finde es fragwürdig, dass du jeden Fanboy nennst nur weil er eine Technologie gut und interessant findet. Wenn du recherchiert hättest, übrigens auch ein guter Vorwurf deinerseits, würdest du feststellen, dass Nvidia stark für DLSS 1.0 kritisiert wurde auch hier in der Community.
Und nein AMD hat zu DLSS 2.0 nichts gleichwertiges anzubieten.
 
  • Gefällt mir
Reaktionen: Acedia23, BGnom, Celinna und 17 andere
Sind die RTX 3000 Karten eigentlich gut für Mining geeignet?
Wenn ja, wird es dann nicht wieder eine Konkurrenzsituation zwischen Consumer und Miner geben?
 
Ich bin ganz Hibbelig!!!! 😉
Ergänzung ()

murdock_cc schrieb:
Sind die RTX 3000 Karten eigentlich gut für Mining geeignet?
Wenn ja, wird es dann nicht wieder eine Konkurrenzsituation zwischen Consumer und Miner geben?

Hoffentlich nicht! Falls ja die GPUs nur neu kaufen da kommt man nicht dran vorbei. 👍🏼
 
Psychodelik schrieb:
Komisch jeder der nVidia Fanboys ist total scharf und geil auf die DLSS Features und behaupten in vielen nVidia threads, das AMD nichts vergleichbares bietet, aber wenn man ein kleines bisschen recherchiert dann findet man das AMD´s Ansatz mit der RIS Technologie gegenüber der DLSS von nVidia in nichts nachsteht, im Gegenteil es ist sogar open source und besser zu handhaben aus Sicht eines Programmierers.

Igor´s Labs hat es sogar schon bestätigt und das soll was heißen.

https://www.igorslab.de/ultimativer-visueller-vergleich-zwischen-amd-ris-nvidia-dlss-und-freestyle/
Dass es da um DLSS 1.0 geht, ignorieren wir?

RIS hat überhaupt nichts mit DLSS2.0 zu tun und kann auch rein technisch überhaupt nicht gleichwertige Ergebnisse leifern, da es wirklich einfach nur ein Schärfefilter ist, der auf ein niedriger aufgelöstes Bild gelegt wird, während bei DLSS 2.0 der Bildinhalt in der eingestellten Auflösung rekonstruiert wird.

Hier man ein rangezoomter Vergleich in Death Stranding zwischen RIS CAS und DLSS in 1080p

CAS
TAA-FidelityFX-Upscaling_Death-Stranding-PC_cr-pcgh.png


DLSS2.0
DLSS-Performance_Death-Stranding-PC_cr-pcgh.png
 
  • Gefällt mir
Reaktionen: Unnu, Acedia23, BGnom und 15 andere
Angaben über Lautstärke kann getrost in die Tonne kloppen. Dazu reicht es schon, dass der eine das Mikrofon in 25cm, der andere in einem Meter Abstand an die Grafikkarte hält. Zack misst der eine 10 dB mehr als der andere.
 
  • Gefällt mir
Reaktionen: Lübke82 und Warlock-Gaming
Zurück
Oben