News Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080

gerzerk schrieb:
In einem anderen Forum behauptet jemand, das mit den neuen Karten im SLI die tatsächliche Menge an gesamten RAM verwendet werden kann, sprich: 2 x 8 GB. Ist da was dran?

Habe ich auch gelesen. Der Grund dafür soll die neue NV-Link Bridge sein
 
Wenn dem so ist (SLI = doppelte RAM Nutzung), dann würde sich SLI lohnen.
MID-Range SLI ist dann gar nicht mehr so absurd. Ich denke da beispielsweise an 2 GTX 2080.
 
  • Gefällt mir
Reaktionen: Oceanhog
gerzerk schrieb:
In einem anderen Forum behauptet jemand, das mit den neuen Karten im SLI die tatsächliche Menge an gesamten RAM verwendet werden kann, sprich: 2 x 8 GB. Ist da was dran?
Ist doch auch beim bisherigen SLI möglich, auch wenn da alle Karten weitestgehend den gleichen Inhalt im Speicher besitzen. Für einen gemeinsamen Speicher Pool aus dem sich alle Karten bedienen dürfte die Bandbreite zu mager sein, es sei denn das ein gemeinsamer Auslagerungspool geschaffen wurde der nur bestimmte, bandbreitenschonende Daten teilt. Das könnte dann ähnlich funktionieren wie AMDs HBCC, nur das man im Speicher der Grafikkarten bleibt aber das müssen Tests zeigen.
 
Wadenbeisser schrieb:
Für einen gemeinsamen Speicher Pool aus dem sich alle Karten bedienen dürfte die Bandbreite zu mager sein,.

NVLink hat eine Bandbreite von 300GB/s pro Chip, das ist immerhin die hälfte der lokalen Speicherbandbreite einer 2080Ti und gut 75% einer 2080. Zum Vergleich unterstützte SLI in der schnellen Variante gerade einmal 2GB/s.
https://www.nvidia.de/data-center/nvlink/
Für einen gemeinsamen (Textur) Speicherpool ist das vollkommen ausreichend und wurde deshalb für den professionellen Bereich eingeführt, wo bis zu acht Chips über einen Switch mit jeweils 300GB/s kommunizieren können.
 
Zuletzt bearbeitet:
@xexex
Und damit deutlich weniger als der Grafikspeicher der Karten selbst bietet. Wollen also beide GPUs auf einen Zeit und Bandbreitenkritischen Inhalt zugreifen, welcher jeweils nur im Speicher der anderen Karte liegt dann gibt es jedes mal einen netten Framedrop. Die Sachen haben nichts im Speicher der anderen Karte verloren, für das Vorhalten von Texturen sehe ich da deutlich weniger Probleme.
 
Wadenbeisser schrieb:
Was hat das damit zu tuen?
Der Chip der GTX 1080 Ti hat exakt so viele Transistoren wie der der Titan X von 2016 und der Titan Xp.
Auch der Chip der GTX 980 Ti hat exakt so viele Transistoren wie der der Titan X von 2015 denn es kommt jeweils der gleiche Chip zum Einsatz und dennoch gab es große Preisunterschiede.


Ist jetzt nicht Dein Ernst? Es gab also damals große Preisunterschiede mit gleicher Chipgröße und jetzt ebenso welche, aber die Chips variieren. Entweder hast Du mein Posting nicht verstanden, oder Deine eigene Antwort darauf nicht ;)
 
@gerzerk
Sag das nicht mir sondern dir. ;)
Die Chip Größe ist in dem Zusammenhang (Titan) für die Preisgestaltung nahezu irrelevant und das sieht man bei den Varianten mit dem GP102 mit Abstand am besten denn die Unterschiede zwischen den 3 Kandidaten sind minimal, dennoch wurde z.B. für die Titan Xp ca. das Doppelte verlangt.
Selbst wenn mans ich auf die aktuelle Titan bezieht wäre das Posting sinnfrei denn die liegt bei ca. 3500€. ;)
 
Wadenbeisser schrieb:
Und damit deutlich weniger als der Grafikspeicher der Karten selbst bietet.

Der lokale Grafikspeicher dient aber nicht nur zur Texturspeicherung und nicht alle Operationen benötigen Texturen. Unter CUDA ist das klar geregelt.
1535101915337.png

http://cuda-programming.blogspot.com/2013/02/texture-memory-in-cuda-what-is-texture.html

Darum geht es letztendlich. Der Texturspeicher, der bei Spielen den größten Speicherbedarf darstellt, kann vermutlich zu einem Pool zusammengefasst werden und wird nicht mehr doppelt verwendet. Mit SLI war das noch keine Option.

EDIT: Aktuell gibt es diese "Einschränkung" auch nicht mehr
Pascal GP100 Unified Memory
Expanding on the benefits of CUDA 6 Unified Memory, Pascal GP100 adds features to further simplifyprogramming and sharing of memory between CPU and GPU, and allowing easier porting of CPU parallel compute applications to use GPUs for tremendous speedups. Two main hardware features enable theseimprovements: support for large address spaces and page faulting capability. GP100 extends GPU addressing capabilities to enable 49-bit virtual addressing. This is large enough to cover the 48-bit virtual address spaces of modern CPUs, as well as the GPU's own memory. This allows GP100 Unified Memory programs to access the full address spaces of all CPUs and GPUs in the system as a single virtual address space, unlimited by the physical memory size of any one processor (see Figure 21). Memory page faulting support in GP100 is a crucial new feature that provides more seamless Unified Memory functionality. Combined with the system-wide virtual address space, page faulting provides several benefits. First, page faulting means that the CUDA system software does not need to synchronize all managed memory allocations to the GPU before each kernel launch. If a kernel running on the GPU accesses a page that is not resident in its memory, it faults, allowing the page to be automatically migrated to the GPU memory on-demand. Alternatively, the page may be mapped into the GPU address space for access over the PCIe or NVLink interconnects (mapping on access can sometimes be faster than migration). Note that Unified Memory is system-wide: GPUs (and CPUs) can fault and migrate memory pages either from CPU memory or from the memory of other GPUs in the system.

1535102942041.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ludwig55
Wadenbeisser schrieb:
Das Problem dabei ist das es dadurch einfach nur auf eine andere Weise falsch wirkt weil z.B. die Oberflächen zu clean und eben wirken, wodurch der Effekt entsprechend überzogen wirkt. Gerade in anbetracht auf den Leistungshunger ist es einfach nichts für Spiele wie schnelle Shooter, weshalb ich es faszinierend finde für wie viele auf einmal die Framerate egal ist.
Das wirkt zum Teil so überzogen das mir so manches Spiel ohne dieses Feature vom Effekt her besser gefällt..

Aber das ist ja kein Problem von Raytraycing, sondern von der künstlerischen Ausführung. Und insbesondere das Thema mit "clean" kann man bei Raytraycing ja sehr leicht abändern, in dem man die Eigenschaften des für die Scheiben verwendeten Materials ändert.
 
  • Gefällt mir
Reaktionen: Arcturus128
@ZeusTheGod
Das ist immer eine Sache der Umsetzung. Wer weiss wieviel Leistung es kostet wenn es realitätsnah umgesetzt würde.
Ich für meinen Teil habe bei sowas lieber einen guten Fake als eine überzogen "korrekte" und damit wieder unrealistische Darstellung die ein vielfaches an Leistung kostet.
 
Ist das HUGE? :freak:

NVIDIA-Turing-L1-L2-Cache-1600x898.jpg
 
Wadenbeisser schrieb:
Und was hat das mit das Rendern der Spiele Grafik CUDA zu tuen?

Was unter CUDA möglich ist, kann man auch für SLI implementieren. Die neuen Karten basieren ja auf Chips für den professionellen Bereich und haben ebenfalls NVLink.
 
Zuletzt bearbeitet:
gerzerk schrieb:
In einem anderen Forum behauptet jemand, das mit den neuen Karten im SLI die tatsächliche Menge an gesamten RAM verwendet werden kann, sprich: 2 x 8 GB. Ist da was dran?
Nein, das ist absoluter Unsinn!

Da wird mal wieder ein Hype aus übertriebenen Gerüchtne aufgebaut:\
 
@xexex
Das sind 2 verschiedene Paar Schuhe und ist damit nicht 1:1 übertragbar.
Im GPGPU Bereich kann man relativ problemlos mehrere GPUs zusammen rechnen lassen, selbst welche aus unterschiedlichen Leistungsklassen. Bei der Grafik Berechnung ist das ein komplett anderes Thema, es sei denn du willst dich komplett aufs Raytracing fixieren.
 
Wadenbeisser schrieb:
@pclovely
Der Vergleich mit T&L hat einen schweren Fehler.
T&L brachte Leistung (RTX kostet massiv Leistung) weil es die CPU von der Berechnung entlastete und letztendlich eine optische Aufwertung weil es dadurch stärker eingesetzt werden konnte. Siehe spätere vergleiche der Voodoo 5 6000 Karte mit der geforce 2/3 bei einem deutlich aktuelleren und stärkeren Prozessor.
Selbst wenn die Karte rausgekommen wäre dann wäre sie abseits vom z.B. hochgezüchteten AA an der verfügbaren CPU Leistung verhungert. An Rohleistung fehlte es ihr definitiv nicht. Hier konnten die Geforce Modelle dank Hardware T&L ihre Leistung deutlich besser entfalten.
Doch der Vergleich ist schon möglich, man denke daran das man auch ohne T&L Spielen konnte und darum ging es mir. Die paar Spiele die jetzt halbwegs RTX bekommen, da wird man ja auch sehen müssen wie das aussieht und nVidia kann nicht Rays ohne Ende setzen, dass würde die Leistung stark einbrechen lassen.

Wenn Nvidias Schnittstelle RTX als Softwarebackend auf DXR aufsetzt dann muss es etwas mit Compute zu tun haben, anders geht das nun mal nicht. Microsoft baut keinen Extrastack für Nvidia ein, dass müssen sie wenn dann allein lösen und das beschreibt auch mein Beitrag und auch der den ich verlinkt habe.

Was DLSS angeht, da ist man geteilter Meinung was die Auflösung in 4K@60Hz angeht. Es könnte nämlich sein das nVida uns hier zum Narren hält, wenn man nämlich in viel geringer Auflösung AA berechnen lässt und dann einfach wieder hochskaliert (wie das jeder blöde 4K Fernseher kann), kann es sich in keinen Fall um "echtes" 4K AA bei @60Hz handeln und genau dann wird Turing schnell. Warum wohl.

Der Denoise Algorithmus fügt dann so viele Pixel hinzu bis die Bildqualität stimmt und wenn die Karte genug Rohpower mitbringt, dann wird sie diese Pixelmenge auch bewältigen. Nur bei schlechter Optimierung sind dann in gewissen Teilen des Bildes andere dynamische Auflösungen sichtbar (wie die PCGH wohl schon feststellte). Vermutlich abhängig davon was der Chip zu leisten im Stande ist, also gibt es dann erhebliche Unterschiede eines 4K Bildes mit DLSS auf einer 2080ti oder 2080.

Wo bitte bringt ein AA Verfahren mehr Frames bei gleicher Qualität, wie soll das gehen? Die höchste Frameanzahl bringt ein Bild ohne jegliches AA. Das DLSS als Denoisingverfahren konstruiert auf Basis von 64 Sample eine neues Bild und dort ist es sehr einfach die Inhalte hinzufügen die man braucht um die Leistung maximal zu steigern, aber entsprechende Qualität vorzugauckeln. Daher muss man sein Netzwerk auch mit Daten füttern, desto mehr umso besser und weniger fällt es auf. Die Idee ist nicht schlecht, aber mit 4K@60Hz bei SSAA hat das absolut nichts zu tun.

Ohne dem würde RTX auf nVidia Hardware wahrscheinlich genauso dahin ruckeln wie auf anderer Hardware. Man "mogelt" also mal wieder wenn es stimmt.
 
Zuletzt bearbeitet von einem Moderator:
ZeroZerp schrieb:
Das sind keine neuen Features. Das ist hardwarebeschleunigt einen komplett neue Plattform!
Das begreifen hier einige nicht, dass hier nicht wie schon Ewigkeiten zuvor nur ein par zusätzliche Shaderrechenwerke mit Dieshrink/höherer Taktung und mit angepasster Software auf die Karte gepresst wurden.
Und es werden Weichen gestellt, die eine Revolution in Sachen Spielegrafik ermöglicht, auf die man lange lange warten musste.
Wer möchte denn nicht Computerspiele in der Grafikqualität eines modernen Pixar Filmes erleben?
Zugegeben- Da ists noch ein langer Weg. Aber es ist schön, dasss man diesen Weg ENDLICH geht.

Ja, es ist schön das es neue Technologien gibt, die die Grafik verschönern und realer machen.
Aber was bringt das, wenn die Hardware nicht in der Lage ist die benötigte Leistung für genug FPS zu bringen?

Will mir doch keiner erzählen, das hier irgendjemand einen Shooter mit 30-45 FPS zocken will und dann auch "nur" in FullHD.
Gerade bei Shootern sind den meisten hohe FPS wichtig wegen Input-Lag und so. Also muß man da sowieso RT deaktivieren, wenn man, vor allem Online, keinen Nachteil haben möchte.

Wichtig wäre zuerst gewesen, das man in der Lage ist für 4k die benötigte Leistung zu haben (min. 60FPS bei allen aktuellen Games bei Einstellung "Sehr Hoch"), und wenn dann genug Leistung vorhanden ist, kann man Anfangen RT zu implementieren.

Warum soll ich mir als Gamer also eine Graka für 1200€ kaufen, wenn diese jeden Fortschritt mit aktiviertem RT zunichte macht? Man muß von WQHD/4k und 60-144 Hz/FPS wieder zurück zu 1080p@30 FPS.
Und ja, man kann RT abschalten, und wird mehr Leistung als eine GTX 1080Ti haben, aber dafür brauch man RT halt nicht Extra auf der Graka verbauen und damit dann die Preise fast zu verdoppeln.

Es wäre schön, wenn nVidia noch eine GTX 2070/2080 ohne RT rausbringen würde, die dann billiger wäre. Dann hätte man wenigstens eine Wahl ob einem RT im jetzigem Zustand 100-200€ Aufpreis wert ist.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Das sind 2 verschiedene Paar Schuhe und ist damit nicht 1:1 übertragbar.

Nö! Deshalb wird auch darauf spekuliert.
NVIDIA teased the power of the NVLink connector during the unveiling of the Turing-based Quadro RTX cards, where it doubles the VRAM - so that the flagship Quadro RTX 8000 with its already huge 48GB of GDDR6 will have its framebuffer DOUBLED to a huge 96GB of GDDR6. Now imagine this on the RTX 2080 with its 8GB of GDDR6, being doubled to 16GB with NVLink.
Read more: https://www.tweaktown.com/articles/8707/nvidia-geforce-rtx-2080-know-far/index7.html

NVIDIA NVLink® to combine two GPUs with a high-speed link to scale memory capacity up to 96GB and drive higher performance with up to 100GB/s of data Transfer.
https://nvidianews.nvidia.com/news/nvidia-unveils-quadro-rtx-worlds-first-ray-tracing-gpu

Von CUDA only steht da nichts was Raum für Spekulationen lässt.
 
Zuletzt bearbeitet:
@pclovely
T&L gab es ja auch schon vorher, nur wurde es da von der CPU berechnet und wurde damit weitestgehend auf die GPU ausgelagert uund brachte deshalb auch den Leistungsschub weil nun wieder mehr CPU Leistung für andere Sachen zur Verfügung stand. Nicht vergessen, das war noch das tiefste Singlecore Zeitalter. ;)
Der Vergleich scheitert schon daran das Raytracing vorher nichts mit der Spiele Grafik zu tuen hatte.

@xexex
Du hattest das mit CUDA begründet nicht ich. ;)
 
Zurück
Oben