Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU
- Ersteller nlr
- Erstellt am
- Zum Bericht: Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU
PHuV
Banned
- Registriert
- März 2005
- Beiträge
- 14.219
Ich hab bei uns für unsere DL Truppe schon beim Vorgesetzten nach dem Kauf eines A100 nachgefragt
, wurde leider abgelehnt.
Gut, wir würden das Ding auch nur teilweise ausnutzen können.
Weil hier immer erwähnt wurde, daß RT bei dem Ding nicht onboard ist. Turing wurde doch damals auch als große Renderplattform beworben, was nun schneller und kostensparender gehen soll. Warum sollte Ampere das nicht können?


Weil hier immer erwähnt wurde, daß RT bei dem Ding nicht onboard ist. Turing wurde doch damals auch als große Renderplattform beworben, was nun schneller und kostensparender gehen soll. Warum sollte Ampere das nicht können?

DarkerThanBlack
Commander
- Registriert
- Juli 2016
- Beiträge
- 2.077
pipip schrieb:Aber neben Ampere und Volta wäre auch Ohm denkbar. Marketingtech. fraglich, ob man aber Karten echt so benennen will.
Nach Ampere und Volta kommt Farad. Weiß doch jeder. 🤪
Aber wäre schon ein Ding, wenn NVIDIA mit der RTX3060 nur 6GB verbaut. Empfehlen kann man dies ja dann nicht mehr, besonder, wenn die RTX2060 Super schon 8GB hat.
Zuletzt bearbeitet:
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.650
Leider nicht so wirklich. Du hast zusätzlich zum üblichen Tamtam noch Beschleunigungsstruktur und deutlich umfassendere Szenendaten im VRAM. Schaust Du in nen Spiegel brauchst Du nämlich nicht nur die Viewportdaten, sondern auch die des zu spiegelnden Bereichs inkl. Texturen und allem drumrum.Mustis schrieb:RT ist weitgehend Ram neutral.
Das macht zudem einige neue wirklich schöne und effektive Culling- Techniken zunichte.
Bingo- Es kann was heissen, muss es aber nicht.Und nur weil die Demo auf der größten Quadro gerendert wurde bedeutet das nicht, dass der Ram nötig war. Das ist blanker Unfug. Man hat die größte Quadro genommen, weil man im allgemeinen mit dem Spitzen Modell Marketing macht...
Sowie virtual texturing, tiled textures etc.? Hmmmmmm...dampflokfreund schrieb:Zwar nicht Kompression aber ein Feature was gehörig VRAM einspart wenn es genutzt wird, gibt es ja mit DX12 Ultimate. Sampler Feedback erlaubt eine wesentlich effizientere Nutzung des VRAMs, Microsoft spricht von Faktoren von 2-3x erhöhtem effektiven VRAM.

Man kann auch außerhalb fertiger Engines damit experimentieren. Aber Du hast es richtig erfasst - Ich glaub noch nicht so wirklich dran...Ja ich weiß du konntest das mit deinen Tests noch nicht feststellen, aber wie wir bereits besprochen haben, die Features sind noch nicht mal in den Engines implementiert und wir können das erst sehen, wenn die Implementation vollständig ist.
Der PC zieht zu viel "alte Hardware" in der Kompatibilitätsnotwendigkeit hinterher. Wirst sehen wie groß der "Aufschrei" wäre, allein wenn man eine SSD voraussetzen würde.
Diesbezüglich setzen Konsolen gerade wirklich Maßstäbe, in welchen der PC eine ganze Zeit lang hinterherhinken wird. Die Spreizung zwischen Low- und High- End am PC ist einfach zu hoch bzw. die Ausstattung des durchschnitts- PC erheblich niedriger.
Das gabs auch schon lange nicht mehr.
Direct Storage ergibt für mich nur in einer hardwaregestützten Implementation Sinn, die alle Flaschenhälse aufmacht, also so, wie es die Konsolen machen und es scheinbar von der PS5 vorbildlich umgesetzt wurde.Und eine wichtige Komponente für SFS fehlt ja noch, nämlich die Direct Storage API. Ich glaube da erstmal MS und es macht ja auch Sinn, wenn das wirklich so funktioniert wie MS es beschreibt, dann sollten wir es definitiv im Auge behalten.![]()
LG
Zero
M
Mustis
Gast
und über wieviel mehr Ram sprechen wir bei RTX ON/OFF?
tochan01
Rear Admiral
- Registriert
- Mai 2007
- Beiträge
- 5.157
Mustis schrieb:RT ist weitgehend Ram neutral.
Das richtet sich an dem ansatz der Berechnung aber aus der Nummer bin ich raus... Hab keine ahnung davon aber ich persönlich hätte gern viel Ram (für Deeplearning).
Beschleunigungsstrukturen für echtzeitfähiges Ray-Tracing auf aktueller Hardware-Infrastruktur
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.650
Derzeit so im Schnitt 20%-30%. Will man diverse Vorteile von mesh shadern nutzen, kanns dann auch mal deutlich mehr werden.Mustis schrieb:und über wieviel mehr Ram sprechen wir bei RTX ON/OFF?
Dampflokfreund hat schon Recht damit, dass Techniken in den Startlöchern stehen, die dem ganzen entgegenwirken sollten...
Wenn man aber sieht, wie so die Adaptionsgeschwindigkeit der Entwickler aussieht, was Engine- Stuff anbelangt, glaube ich nicht wirklich dran, dass das so schnell genutzt wird.
Da wir uns aber im Umbruch bezüglich der neuen Konsolengeneration befinden, die dem PC da einiges vormachen wird, kann das aber auch ganz anders laufen, nämlich dass die Entwickler massiv darauf drängen, dass sich die PCs da schnellstmöglich angleichen.
Damit würden dann alte Zöpfe abgeschnitten werden und es wird viel "Geplärr" von PC- Usern kommen, die mit vermeintlicher Mid- Upper- Range- Hardware dann plötzlich nicht mehr mitspielen können.
Dann heissts wieder inneffektiv, schlecht optimiert und all die anderen Dinge die man dann so hört, wenn ein Titel mal die Latte etwas höher legt.
Ich bin gespannt. Freu mich aber darüber, dass wirklich wieder an allen Ecken und Enden Bewegung am Markt ist.
Ryzen, Turing, DX12 Ultimate, VULKAN RT etc. da ist die letzten Jahre so viel passiert, wie ein ganzes Jahrzehnt zusammengenommen zuvor nicht mehr.
LG
Zero
M
Mustis
Gast
Sicher? Ich habe nur ein RTX Game (Metro) aber da konnte ich das so nicht dokumentieren. Aber gut, war auch nur RTX ON/OFF und bei Afterburner auf die VRAM Auslastung geschautZeroZerp schrieb:Derzeit so im Schnitt 20%-30%.
Beim Launch-Test der RTX 2060 wurde das Ruckeln mangels Speicher besonders im RTX-Test festgestellt. Also etwas zusätzlichen Speicherverbrauch hat es garantiert. Ist eben die Frage, wieviel.
DXR Ultra benötigt mehr Speicher
Damit ist die GeForce RTX 2060 mit Raytracing kaum langsamer als die GeForce RTX 2070, zumindest was das Niedrig-Preset betrifft – dann ist das größere Modell nur 6 Prozent schneller. Mit Ultra wächst der Abstand dagegen auf 13 Prozent bei der Framerate und gar 17 Prozent bei den Frametimes an. Der Grund dafür ist einfach: Raytracing benötigt deutlich mehr Speicher als klassische Screenspace-Schatten und die 6.144 MB reichen für das Ultra-Preset selbst in Full HD nicht mehr für die volle Performance aus.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 9.104
Allgough schrieb:Nur 10gb VRam für eine GTX 3080?
Also innerhalb 4 Jahren von 8gb auf 10? ( gtx 1080 / gtx 3080 )
Schon wenig hätte ca 16gb erwartet.
Das weiß keiner und es ist nur ein Gerücht. Gleichzeitig tauchen in Gerüchten aber auch neue Techniken wie eine Speicherkompression mittels Tensorcores und eine Technik namens NVCache auf, welche wie HBCC und die neuen Konsolen einen Speicherpool aus Hauptspeicher und SSD Speicher generieren kann. Also einfach mal abwarten, was da wirklich kommt und wie es funktioniert.
hurga_gonzales
Captain
- Registriert
- Aug. 2004
- Beiträge
- 3.295
Wird wohl 4k in Spielen immer noch nicht zufriedenstellend stemmen, wie die 2xxx.
Nur so als Ausblick auf die Gaming-Varianten.
Nur so als Ausblick auf die Gaming-Varianten.
M
M1ximili1n
Gast
Der A102 Vollausbau (3090)soll laut neusten Gerüchten angeblich +40% mehrperfomance zur 2080Ti liefern, bei 5376 shadern. Das wäre eine sehr realistische Größe (23,5% mehr shader + 2,0 bis 2,2 GHz Takt) die 70% bis zu 100% aus älteren Gerüchten beziehen sich mit hoher Wahrscheinlichkeit auf die Raytracing-Leistung, was RTX unter UHD bei guter Optimierung seitens der Hersteller denkbar gestalten würde.
etwas weniger Preis (1000€) sowie TDP und Nvidia hätte ein sehr gutes Produkt. Die 3080Ti mit 5120 könnte dann etwa die 2080 super preislich beerben und eine 3080 würde das Portfolio für etwa 400 bis 500€ bei 2080ti „Standardleistung“ und +25% RTX Leistung komplettieren.....
bitte🙏 zusammen mit ryzen 4000 veröffentlichen 🤓
etwas weniger Preis (1000€) sowie TDP und Nvidia hätte ein sehr gutes Produkt. Die 3080Ti mit 5120 könnte dann etwa die 2080 super preislich beerben und eine 3080 würde das Portfolio für etwa 400 bis 500€ bei 2080ti „Standardleistung“ und +25% RTX Leistung komplettieren.....
bitte🙏 zusammen mit ryzen 4000 veröffentlichen 🤓
M
M1ximili1n
Gast
Wie die letzen Jahre schon. Moores law existiert nicht mehr, der CPU Markt ist da die positive Überraschung gewesen, aber das wird sich normalisieren, da weder Intel noch amd IPC aus der Luft zaubern können.
alle 2 Jahre 30-40% wird die Regel sein
alle 2 Jahre 30-40% wird die Regel sein
th3o
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 8.970
Stunrise schrieb:Ich hoffe auf einen baldigen Turing Nachfolger mit HDMI 2.1 Unterstützung für 4K 120Hz Oled Fernsehr mit G-Sync. Dann können diese ganzen lächerlichen Gaming Monitore vergessen werden.
Was soll denn diese Überheblichkeit? Schon mal dran gedacht dass sich nicht jeder einen 4k/120Hz HDMI 2.1 OLED TV leisten kann? Und schon mal darüber nachgedacht dass wenn man am Schreibtisch zum gamen sitzt es etwas unhandlich kommt ein Monstrum von Fernseher sich vor die Nase zu stellen?
Du kannst ja gerne allgemein auf HDMI 2.1 und schnellere Hardware hoffen aber bitte nicht so übelst herablassend sein und das auch noch völlig zu Unrecht.
the_pi_man
Lt. Junior Grade
- Registriert
- Sep. 2005
- Beiträge
- 373
OLED als Gaming Monitor? Ja, grundsätzlichg nicht schlecht aber zum normalem Arbeiten durch die statischen Inhalten nicht so der Bringer. Und 2 Monitore zum wechseln? Ich weiß nicht...
Ähnliche Themen
- Antworten
- 14
- Aufrufe
- 4.385