Notiz Turing für Profis: Nvidia Quadro RTX 6000 und RTX 5000 vorbestellbar

Und die RTX Karten gurken weiter mit 8 und 11GB rum. Nachdem Pascal ganz ordentlich ausgestattet war, wird Turing wohl relativ schnell zum Speicherkrüppel.
 
  • Gefällt mir
Reaktionen: Scr1p, Areve, Obvision und 3 andere
wäre noch weniger leistbar. ram macht sie teuererererr
 
Eine RTX 8000 mit 48GB sieht doch nett aus. Wäre noch interessant zu wissen, wie hoch die Tensor-Performance ausfällt.
 
Werden diese Karten wirklich nur im Bereich Raytracing positioniert? Bisherige CUDA-Berechnungen würden doch auch gehen. Eine Symbiose mit RT-Cores wäre hinsichtlich reiner Berechnung wirklich interessant.
 
10 GigaRays!!
 
  • Gefällt mir
Reaktionen: Herr Melone, Recharging, DanHot und 3 andere
yummycandy schrieb:
Werden diese Karten wirklich nur im Bereich Raytracing positioniert? Bisherige CUDA-Berechnungen würden doch auch gehen. Eine Symbiose mit RT-Cores wäre hinsichtlich reiner Berechnung wirklich interessant.

RT Cores beschleunigen nix bei Compute. Quadrokarten sind für CAD und Rendering da. Die Computelinie hat auch schon ihren Turing bekommen mit der Tesla T4 und für größere Aufgaben gibts weiterhin Volta V100.
 
Für Renderfarmen der Filmstudios ist die größte Quadro sicher geil!
Und die können sich das auch leisten ;)

Edit: da ists doch eh super, dass die nur leicht beschnittenen oder teildefekten Chips mit einer "gaming vram Menge" doch soooo viel günstiger sind!

Wem fällt was auf?
Titan heißt nun RTX!!!
Aka, auf die gaming Versionen, wenn sie denn kommen, ohne RTX Cores dafür mit bissl mehr Takt warten. Heißen dann statt RTX wieder GTX.
Also GTX2080 und GTX2080 Ti.
Falls sowas jemals kommt.
Preis ist trotz dem dann viel kleineren DIE trotzdem über gtx1080(ti), weil ist ja nvidia.


Bottom line:
Mal sehen wieviele Spiele es in 5 Jahren gibt, die super Raytracing bieten und immer noch mit rtx2080(ti) flüssig laufen ;)
 
  • Gefällt mir
Reaktionen: gesperrter_User
AffenJack schrieb:
RT Cores beschleunigen nix bei Compute. Quadrokarten sind für CAD und Rendering da. Die Computelinie hat auch schon ihren Turing bekommen mit der Tesla T4 und für größere Aufgaben gibts weiterhin Volta V100.
Vielleich kannst du mir hier ein paar Ratschläge geben?
Als Hobby betreibe ich Rendering, noch auf meiner gtx970, als Engine nutze ich iRay von nVidia, die via Schnittstelle direkt die Cudacores nutzt. Nun wollte ich aufrüsten (gtx 1080 oder 1080 ti) bin aber von der rtx überrascht worden. Ist von den Tensor- und Raytracing Cores der RTX irgend ein Effekt für die Beschleunigung von iRay zu erwarten? NVidia hat sich dazu nicht konkret geäußert. Echtzeit Raytracing in Spielen ist mir eher unwichtig und für meine CAD Anwendungen, Bildbearbeitung usw. reicht mir der Rechner hin (i8700k mit 32 GB Ram), das Nadelöhr ist die Graka beim Rendering. Was würdest du denn da empfehlen, lohnt es sich zu warten, ob die neuen Cores klassisches Rendering beschleunigen oder ist das aus mir unbekannten Gründen nicht zu erwarten?
 
Sisyphus schrieb:
Vielleich kannst du mir hier ein paar Ratschläge geben?
Als Hobby betreibe ich Rendering, noch auf meiner gtx970, als Engine nutze ich iRay von nVidia, die via Schnittstelle direkt die Cudacores nutzt. Nun wollte ich aufrüsten (gtx 1080 oder 1080 ti) bin aber von der rtx überrascht worden. Ist von den Tensor- und Raytracing Cores der RTX irgend ein Effekt für die Beschleunigung von iRay zu erwarten? NVidia hat sich dazu nicht konkret geäußert. Echtzeit Raytracing in Spielen ist mir eher unwichtig und für meine CAD Anwendungen, Bildbearbeitung usw. reicht mir der Rechner hin (i8700k mit 32 GB Ram), das Nadelöhr ist die Graka beim Rendering. Was würdest du denn da empfehlen, lohnt es sich zu warten, ob die neuen Cores klassisches Rendering beschleunigen oder ist das aus mir unbekannten Gründen nicht zu erwarten?

Soviel Ahnung hab ich vom Thema auch nicht, aber die 2080 scheint schon die deutlich bessere renderingkarte zu sein, wenn man sich andere Benchmarks damit anguckt, zb im CB Test mit Radeon Pro Renderer. https://www.computerbase.de/2018-09...agramm-gpu-compute-radeon-pro-renderer-baikal

Wie das genau in iray aussieht, kein Plan. Aber AI wird von Nvidia bei Iray zb aktiv beworben:
https://www.nvidia.com/en-us/design-visualization/iray/features/

Also scheinen die Tensor Cores der 2080 schonmal genutzt zu werden. Wenn Nvidia Iray weiterentwickelt, sollte da in Zukunft auch Unterstützung für die Raytracing Cores kommen. Da weiß ich nicht wie aktiv Nv da ist.
 
  • Gefällt mir
Reaktionen: Sisyphus
Shoryuken94 schrieb:
Und die RTX Karten gurken weiter mit 8 und 11GB rum. Nachdem Pascal ganz ordentlich ausgestattet war, wird Turing wohl relativ schnell zum Speicherkrüppel.

Speicherkrüppel? Befindest du dich in der selben Realität wie wir?

Was ist dann das Topmodell von AMD, die Vega 64, mit „nur“ 8GB?

Nenn mir bitte ein Spiel, dass mehr als 8GB bei 1440P (RTX 2080) oder mehr als 11GB bei 4K benötigt (RTX 2080 Ti)?

Rhetorische Frage, es gibt keines, sofern man nicht 4K mit 8xTXAA bei 15FPS spielt.

Du gehörst wohl auch zu der Gruppe, die sich Threadripper mit 64GB DDR4 nur für ein Gaming Rig kaufen?

Speicherkrüppel ... Manche Leute ... Keine Ahnung was man überhaupt braucht, aber wenn der Nachfolger der GTX 1080 Ti nicht MINDESTENS das Doppelte an Speicher bietet, irrelevant ob man es braucht oder nicht, handelt es sich um einen Speicherkrüppel ...
 
  • Gefällt mir
Reaktionen: Smartbomb, DaniLt und brauna1
FCK-THIS schrieb:
Was ist dann das Topmodell von AMD, die Vega 64, mit „nur“ 8GB?
Die Vega 64 ist auch ein gutes Stück langsamer als die 2080Ti ;)

Davon ab hat sie 8GB HBCC. Es lässt sich mit dem RAM also deutlich mehr realisieren ;) habe bei mir 12GB HBCC Cache aktiviert. ^^
FCK-THIS schrieb:
Nenn mir bitte ein Spiel, dass mehr als 8GB bei 1440P (RTX 2080) oder mehr als 11GB bei 4K benötigt (RTX 2080 Ti)?
Also benötigt... Benötigen tut kein Spiel 8GB RAM. Aber wenn ich 850€ plus für eine GPU ausgebe, dann möchte ich auch die maximalen Textursetiings nutzen.

Aber ein Beispiel, Titanfall 2. Macht bei mir in 1080p die 9GB voll mit maximalen Textursetiings. Ryzen of Thrones Tomb Raider kann auch einiges belegen. Normalerweise kauft man ja so eine Karte auf um sie mehr als ein Jahr zu nutzen aber okay. Muss ja jeder selbst wissen.
FCK-THIS schrieb:
Speicherkrüppel ... Manche Leute ... Keine Ahnung was man überhaupt braucht

Brauchen tut man gar keine Grafikkarte ^^ du kannst auch ohne spiele leben oder mit ner 50€ GTX760 spielen.

Wenn ich 850-900€ für eine 2080 ausgeben würde, dann erwarte ich schon mehr als 8Gb, die heute zwar ausreichend sind, aber in 1-2 Jahren wohl wieder eine Einschränkung darstellen, zumindest wenn man die maximalen Texturen oder mods nutzen will. Davon ab erwarte ich mir vielleicht schon etwas Differenz zu einer 230€ Grafikkarte, aber okay. Ist nur meine Meinung. GTX780Ti... GTX980... Die strotzen ja nur so vor Speicher. Ich meine bei Release hatten die auch mehr als genug Speicher, heute reicht es bei vielen Spielen damit in 1080p aber nur noch für niedrige bis mittlere Textur settings, obwohl sie fast alle aktuellen spiele noch mit 60 FPS und mehr darstellen können und selbst die 980ti kommt bald an die Grenze.

Aber man kauft sich eine 2080 ja auch nur wegen der RTX Features ^^
 
ich sehe das anders...

Selbst aktuelle Titel die eine 1080ti mit 8 GB Texturen durchladen... kann man auch auf einer 4 GB karte spielen. Es wird so getan als ob Spiele die irgendwann mehr als 8 GB brauchen auf 8GB Karten absolut nicht mehr laufen...

Das glaub ich nicht... ;)
 
  • Gefällt mir
Reaktionen: Smartbomb
AffenJack schrieb:
Soviel Ahnung hab ich vom Thema auch nicht, aber die 2080 scheint schon die deutlich bessere renderingkarte zu sein, wenn man sich andere Benchmarks damit anguckt, zb im CB Test mit Radeon Pro Renderer. https://www.computerbase.de/2018-09...agramm-gpu-compute-radeon-pro-renderer-baikal

Wie das genau in iray aussieht, kein Plan. Aber AI wird von Nvidia bei Iray zb aktiv beworben:
https://www.nvidia.com/en-us/design-visualization/iray/features/

Also scheinen die Tensor Cores der 2080 schonmal genutzt zu werden. Wenn Nvidia Iray weiterentwickelt, sollte da in Zukunft auch Unterstützung für die Raytracing Cores kommen. Da weiß ich nicht wie aktiv Nv da ist.
Danke für die Antwort. Wenn an dem Problem gearbeitet wird, ist es wohl besser noch etwas ab zu warten bis in 3D-Foren konkrete Erfahrungen dazu ausgetauscht werden. Selbst wenn nVidia die Tensor und Raytracing Cores in iRay integriert, muss meine präferierte 3D Software das noch in seine Schnittstelle integrieren. Ein halbes Jahr wird das wohl mindestens dauern, aber die warte ich gerne, wenn iRay am Ende von den neuen Cores profitiert. Die waren vorher den Profikarten vorbehalten. Es war ja schon freundlich von nVidia, die iRay Renderengine für Privatanwender kostenlos zugänglich zu machen.

Der gtx970 fehlt vor allem VRAM, da wären mir 8-11 GB deutlich lieber. Derzeit muss ich viele Texturen manuell optimieren um unter 3GB zu bleiben. Geometrie, Shader und Betriebssystem brauchen ja auch noch was. So ein photorealistisches Bild (mache gerne Sci-Fi und Fantasy Render) dauert so 90 min bei 1080p. So lange man keine Videos rendert kommt man auch mit Geduld an schöne Ergebnisse.

Das Frontrunning überlasse ich dann wohl besser anderen.
 
Computx schrieb:
Selbst aktuelle Titel die eine 1080ti mit 8 GB Texturen durchladen... kann man auch auf einer 4 GB karte spielen. Es wird so getan als ob Spiele die irgendwann mehr als 8 GB brauchen auf 8GB Karten absolut nicht mehr laufen...

Also ich hatte bis vor kurzem eine 3GB Karte und die war in 1080p in vielen spiel n schon ziemlich überfordert, wenn man die Texturen nicht arg zurück geschraubt hat. Sicher, wenn mehr Speicher als benötigt vorhanden ist, wird auch mehr genutzt, aber 4GB sind bei 1080p schon das unterste Limit bei vielen aktuellen spielen, wenn man nicht arge Abstriche machen möchte. Liegt natürlich auch an den teils schrecklichen PC Ports, keine Frage.

Aber wir reden hier von Karten die 850 bis 1300€ kosten und da sind eher selten 1080p, sondern eher 1440p und UHD abgesagt und da finde ich die 8GB schon ziemlich peinlich bei den aufgerufenen preisen. Es ist nur GDDR Speicher und kein HBM, da erwarte ich schon mehr Speicher, als auf einer über 2 Jahre alten Mittelklasse Grafikkarte für 250€.

Aber okay, dann muss sich keiner über die Preise von Nvidia aufregen, wenn die eigenen Ansprüche so gering sind. Und das obwohl es genug Karten gibt, die durch ihren kleinen Speicher massiv eingeschränkt sind... FuryX, GTX780, 780Ti, 980, 770, 680, 670, 960, 1060 3Gb, Rx580 4gb... Komisch das meiste sind Nvidia Karten ^^

Ich habe ein Mal den Fehler gemacht (780ti) und habe mir so eine Karte gekauft. Das passiert mir kein zweites Mal.
 
Shoryuken94 schrieb:
Aber wir reden hier von Karten die 850 bis 1300€ kosten und da sind eher selten 1080p, sondern eher 1440p und UHD abgesagt und da finde ich die 8GB schon ziemlich peinlich bei den aufgerufenen preisen. Es ist nur GDDR Speicher und kein HBM, da erwarte ich schon mehr Speicher, als auf einer über 2 Jahre alten Mittelklasse Grafikkarte für 250€.


Nun ja wenn die mehr als 8GB hätten würde niemand ,,nein" sagen denke ich. Aber ich sehe in den nächsten zwei Jahren bis Next Gen Konsolen kommen kein so großes Problem mit 8GB selbst in 4K... und ja hier und da muss man aktuell bei 4 GB Details reduzieren wenn man unbedingt 60 FPS in mehr als 1080p haben will.


Und ich z. B. sehe kaum oder gar keine großen Unterschiede zwischen Texturen auf Ultra oder ,,nur" Hoch.

Und meines Wissens ist GDDR 6 HBM ebenbürtig im Datendurchsatz, sehe das jetzt nicht so Problematisch. Zumindest wie HBM z.B. bei der Vega Verwendung findet.

Apropos kann man selbst aktuelle Titel mit einer 780ti durchaus noch spielen... und das nicht zwangsläufig mit niedrigen Details....
 
Zuletzt bearbeitet:
Sisyphus schrieb:
Der gtx970 fehlt vor allem VRAM, da wären mir 8-11 GB deutlich lieber. Derzeit muss ich viele Texturen manuell optimieren um unter 3GB zu bleiben.

Ich hoffe du nutzt die Iray Texture Compression? Immerhin ein Highlight von Iray. Je nach Anteil der Texturen kommt man mit einem Drittel der Speicherbelegung aus.
Ein Feature, welches ich mir auch in vielen anderen Engines wünschen würde.
 
Zurück
Oben