News Nvidia-Grafikchips: Ampere, Turing und Pascal im Fokus der Gerüchte

RTX 3080 TI 16GB
RTX 3080 12GB
RTX 3070 8GB
RTX 3060 8GB/6GB
RTX 3050/TI 4GB/6GB/8GB ( je nach Land, China und Asien werden mit weniger bestimmt glücklich)
(Meine Einschätzung)

Nvidia wird nicht mehr geben als Sie müssen. Durch Shrink gewinnen die Nvidia-Karten "reichlich" an Leistung.
Ich finde es schade, dass man noch auf eine Ryzen ähnliche Überraschung seitens AMD warten muss. AMD konnte mit 7nm Navi vs 12nm Turing gegen Nvidia, was Leistung und Effizienz berifft, gleichziehen. Sie müssen den übrigen geschätzten "30%-40%" Leistungszuwachs, welche Nvidia durch den Shrink erhalten wird, irgendwie kontern. Es bleibt bei einem gleichbeliebenden Prozess nur noch Möglichkeiten über die Architektur die Lücke zu schließen. Dass Sie für die Konsolen Kapazitäten freihalten, ist dann eben bitter für die ganze PC-Landschaft, da Nvidia mächtig dann in der Zwischenzeit die Grafikkarten kosten lässt. Vor Konsolen wird es Big Navi bestimmt geben, aber wie weit das gegen Nvidia RTX 3000er ankommt, ist auch fraglich. Nach dem aktuellen Zustand sieht es für AMD im High-End-Bereich nach meiner Meinung sehr düster aus.
Ich bin aber davon fürs erste verschont. :D:daumen:
 
  • Gefällt mir
Reaktionen: latexdoll, Scie und stefan@x700pro
7hyrael schrieb:
Die Umsetzung der Verwendung von APIs ist mir doch völlig Wurst, das macht für ...anfangen zu implementieren und mit solchen Sachen hat sich AMD sehr viel weniger breit gemacht.
Das ist ja in Ordnung- Nur bezogst Du das auf Raytracing und genau da ist es eben nicht so....
Das wollte ich richtig stellen, weil man das so häufig liest, dass nividia da irgendwas proprietär und im Alleingang machen würde.

Stimmt aber nicht. AMD hat bis jetzt wohl aus marketingtaktischen Gründen einfach die RT Schnittstelle in ihren Treibern noch nicht frei gegeben....

LG
Zero
 
OZZHI schrieb:
Kann ich nicht empfehlen. Der Leistungszuwachs ist ein Witz.

Ich persönlich warte mit einer 1080 Ti auch auf eine gescheite Upgrade Möglichkeit und hoffe, dass Nvidia das P/L nicht gleich lässt und somit mit noch teureren Karten rauskommt.
In DX12 Games distanziert sich die 2080Ti von der 1080Ti zunehmend deutlicher. Mein Bruder hat in seinem Setup mit der neuen 2080Ti Waterforce in manchen Games 50% oder mehr zusätzliche fps. auf 3440*1440 im Schnitt durch alle Games von 50-70 avg fps auf der 1080Ti Ultra auf 80-110. Das ist weit mehr als ein "Witz".
Das Highlight war RDR2, gleiche Ultra default Settings in seinem System (5930K oc, 16 GB).
Das ist der Unterschied zwischen super spielbar, smooth und flüssigen 2080Ti 68 fps auf 3440*1440 und "teils durch janky und ruckelig" 1080Ti 37 fps

Bei Division 2 sieht die 1080Ti ähnlich alt aus. Forza Horizon 4 Ultra packte seine 1080Ti noch auf 75 im Benchmark, die 2080Ti knallt da knapp unter 110 fps.
Das sind ERHEBLICHE, sichtbare und spürebare Unterschiede, mag für jedes System aber etwas andere Ausprägungen haben. Für meinen Bruder fühlte sich die 2080Ti an, Zitat, als hätte er "einen neuen PC".
Aber ja, winke winke 1500 Euro
 

Anhänge

  • 2080Ti.png
    2080Ti.png
    40,1 KB · Aufrufe: 422
  • 1080ti.png
    1080ti.png
    48,9 KB · Aufrufe: 414
  • Gefällt mir
Reaktionen: IntelNOTForever, Cpt.Willard, Darkscream und eine weitere Person
Würde mich auch interessieren welche CPU man dann braucht um die 3080 TI zu bedienen ... ^^
 
ZeroZerp schrieb:
@Laphonso
Es wird einem halt einfach auch von allen Seiten eingeredet, dass es nix bringen würde.
Da frage ich- Welcher Grafikeffekt bringt denn groß was?

Klar- Derzeit ist die Softwareauswahl beschränkt. Wer mit den Spielen wie Metro, Battlefield, Control, Tomb Raider nix anfangen kann, dem bleiben wirklich nur die 30-40 (inzwischen auch mal 50-60%9 Leistungssteigerung bei rein rasterbasierten Spielen.

LG
Zero
Fairerweise muss ich sagen, dass man wirklich keinen Eindruck gewinnen kann, ohne das live gespielt zu haben. Meine Konsolen Buddies haben auch Metro Exodus auf ihren Systemen gespielt und waren irritiert über die riesigen Unterschiede der Licht-und Schatteneffekte. Raytracing hat schon Wirkung :-) Aber man muss es halt mal erlebt haben, da nützen Screenshots und Videos nicht so viel.
 
ZeroZerp schrieb:
Das ist ja in Ordnung- Nur bezogst Du das auf Raytracing und genau da ist es eben nicht so....
Das wollte ich richtig stellen, weil man das so häufig liest, dass nividia da irgendwas proprietär und im Alleingang machen würde.

Stimmt aber nicht. AMD hat bis jetzt wohl aus marketingtaktischen Gründen einfach die RT Schnittstelle in ihren Treibern noch nicht frei gegeben....

LG
Zero
Das du mich nicht falsch verstehst, ich hab nix gegen Nvidia per se, würden sie eine 1880 ti oder so anbieten, wird ich die kaufen. RTX ist für mich bisher einfach als würde ich mir einen Sportwagen mit Schneeschippe kaufen. Es kostet viel mehr und bringt mir rein gar nichts.
 
OZZHI schrieb:
Kann ich nicht empfehlen. Der Leistungszuwachs ist ein Witz.

Ich persönlich warte mit einer 1080 Ti auch auf eine gescheite Upgrade Möglichkeit und hoffe, dass Nvidia das P/L nicht gleich lässt und somit mit noch teureren Karten rauskommt.

In DX11 Anwendungen.
Unter DX12 sieht es leider immer schlimmer aus für die Pascal Karten.
Von etwas langsamer (COD) bis hin zu unspielbar (red dead)
 
  • Gefällt mir
Reaktionen: Acedia23
@7hyrael
Muss jeder selbst wissen, ob ihm die aktuell dargebotene Grafik ausreicht.
Jede heutzutage genutzte Kombination an Grafikeffekten kostet viel mehr...
Dennoch stellen die meisten doch den Qualitätsregler ganz nach rechts.

In GTAV verlierst Du von Minimum auf Ultra 300%-400% FPS wie bei vielen anderen Titeln auch.
Und jetzt bei korrekten Spiegelungen/Schatten etc. wäre das aber plötzlich ein Drama....

Das will mir immer nicht so recht in den Kopf.

LG
Zero
 
  • Gefällt mir
Reaktionen: Mograine, dampflokfreund, Laphonso und 3 andere
ZeroZerp schrieb:
RTX in seiner Featurekombination sind Beschleuniger und keine Leistungseinbremser.
Selbst wenn man Raytracing auf einer RTX Grafikkarte nutzt, war das nie ein Leistungsbeschleuniger, denn auch die RTX Grafikkarten gehen in die Knie unter dem Feature Raytracing!
ZeroZerp schrieb:
Kann man sehr schön sehen, wie die normalen Karten einbrechen, die versuchen alle "Effekte" über die Shader zu berechnen. Da wirds zappenduster und die 1080TI reiht sich schön hinter einer 2060 ein...
Logisch das die Grafikkarten ohne RTX Hardware einbrechen, wenn selbst die Grafikkarten mit der entsprechenden Hardware aus dem letzten Loch pfeifen! :daumen:

Will man Raytracing wirklich im Markt positionieren muss Nvidia mit der zweiten Generation der RTX Grafikkarten deutlich an Leistung nachlegen, sonst ist das dem gemeinen User nicht zu vermitteln, warum er für solche Grafikkarten mit Raytracing Hardware deutlich tiefer in die Tasche greifen muss. Und erst wenn die Leistung deutlich gesteigert wird, kann man auch die Scheu der Gameschmieden vor dem Raytracing Feature mindern, denn Begeisterung ist bei diesen mit Raytracing auch nicht ausgebrochen!

Nvidia wird auch nicht Drumherum kommen, der nächsten Grafikkarten Generation mehr Speicher zu spendieren, es ist doch keinem Kunden bzw. User zu vermitteln, warum eine RTX 3070 mit 10GB, eine RTX 3080 mit 12GB und eine RTX 3080Ti mit 16GB nicht möglich sein soll. Nach 5.Jahren Stagnation, was die Speichermenge betrifft, wird es ja langsam auch mal Zeit!
 
  • Gefällt mir
Reaktionen: Smartbomb, 7hyrael und stefan@x700pro
Wattwanderer schrieb:
Momentan hat man halt das Gefühl, man bezahlt viel Geld für Ray Tracing, hat aber noch nichts davon.
Naja. Vor den RTX Karten wurden die Preise durch Mining aufgebläht. Mit den RTX Karten blieben sie dann auf diesem Niveau. Ohne RT hätte NVidia die vielleicht günstiger angeboten ... vielleicht hätten sie sich aber auch einfach nur ne fettere Marge gegönnt.

Derzeit haben die RTX-Karten im Vergleich mit den anderen Karten kein auffällig schlechtes P/L-Verhältnis, wenn man bedenkt, daß das P/L-Verhältnis eh schlechter wird, je weiter man in's High End geht.
Insgesamt stehen die sogar überraschend gut dar.

Deshalb hatte ich beim Kauf überhaupt nicht das Gefühl, für RT drauf zu zahlen.
Ich sehe das eher als Feature, das quasi kostenlos mit dabei war. Ist ja nicht so, als ob man in der Leistungsklasse günstigere Karten ohne bekäme. Auch von AMD nicht.

Botcruscher schrieb:
Weil Faktracing wenig mit echtem RT gemein hat und die meisten bis her gezeigten Dinge auch deutlich billiger gehen.
Stimmt halt beides nicht.
Es findet hier tatsächlich RT statt. Nur daß eben außer dieser Quake-Version noch kein Spiel ausschließlich damit läuft.
Und "deutlich billiger" geht das ganz sicher nicht. Die speziell darauf zugeschneiderte Hardware kann sowas deutlich effizienter berechnen als eine allgemeine CPU/GPU.
Ergänzung ()

ECENAT schrieb:
Würde mich auch interessieren welche CPU man dann braucht um die 3080 TI zu bedienen ... ^^
Genau die selbe wie für eine GTX 960, wenn du die Settings so wählst, daß du am Ende auf 60fps kommst.
 
  • Gefällt mir
Reaktionen: Smartbomb, KlaraElfer, CrustiCroc und 3 andere
Zotac2012 schrieb:
Selbst wenn man Raytracing auf einer RTX Grafikkarte nutzt, war das nie ein Leistungsbeschleuniger, denn auch die RTX Grafikkarten gehen in die Knie unter dem Feature Raytracing!
Doch- Bis zum Faktor 7 werden entsprechende Berechnungen schneller durchgeführt als bei anderen Karten.

Ohne das wäre RT in der jetzigen Form nicht möglich.

Logisch das die Grafikkarten ohne RTX Hardware einbrechen, wenn selbst die Grafikkarten mit der entsprechenden Hardware aus dem letzten Loch pfeifen! :daumen:
Eben.

Will man Raytracing wirklich im Markt positionieren muss Nvidia mit der zweiten Generation der RTX Grafikkarten deutlich an Leistung nachlegen,
Derzeit ist eine Einschätzung der Geschwindigkeit von RT auf den aktuellen Karten noch nicht wirklich möglich. Dazu lernen die Programmierer gerade noch viel zu viel dazu, wenn es um effektive Nutzung von RT geht.

Vor einem Jahr noch war RT auf einer 2060 für viele unbrauchbar. Jetzt spielt man Wolfenstein RT mit einer 2060 und 70-100 FPS und das rein, weil die Programmierung effektiver wird und man langsam weiss, worauf es ankommt.

sonst ist das dem gemeinen User nicht zu vermitteln, warum er für solche Grafikkarten mit Raytracing Hardware deutlich tiefer in die Tasche greifen muss.
War bis jetzt nie anders- Wollte man Premium- Effekte auf seiner Karte genießen, war ein tiefer Griff ins Portemonnaie fällig...

Und erst wenn die Leistung deutlich gesteigert wird, kann man auch die Scheu der Gameschmieden vor dem Raytracing Feature mindern, denn Begeisterung ist bei diesen mit Raytracing auch nicht ausgebrochen!
Die Begeisterung ist da. Nur hat man derzeit doppelten Aufwand. Man muss die Rasterlösung komplett aufbauen UND RT zusätzlich.

Sobald die Installationsbasis breiter wird (durch Einstieg der Konsolen und PC AMD GPUs), haben die Entwickler nur Vorteile bei Nutzung der neuen RT und können sich darauf verlassen, dass es von vielen gentzt werden kann.

Nvidia wird auch nicht Drumherum kommen, der nächsten Grafikkarten Generation mehr Speicher zu spendieren, es ist doch keinem Kunden bzw. User zu vermitteln, warum eine RTX 3070 mit 10GB, eine RTX 3080 mit 12GB und eine RTX 3080Ti mit 16GB nicht möglich sein soll.
Das werden sie tun, da sie dafür sorgen müssen, dass die neuen Konsolengames auf deren Karten ordentlich laufen. Und die werden gut Speicher zur Verfügung haben.

LG
Zero
 
7hyrael schrieb:
Und diese Geschäftspraxis unterstütze ich vor allem bei proprietären Sachen einfach zu ungern um für das bisschen Mehrleistung meine Ansichten hintenan stelle.

Hardware-Designs sind proprietär. Na da schau her. Also Sachen gibts. :D

Aber sicherlich wirds für AMDs Hardware-Lösung die Blaupausen lizenzfrei im Internet geben....
 
  • Gefällt mir
Reaktionen: KlaraElfer, [-oMLeTTe-] und .Sentinel.
Laphonso schrieb:
Metro Exodus z.B. ist mit RTX off ein akuter Immersionsverlust, alleine schon die Schleich- und Undergroudphasen, ohne etwas zu spoilern.
Wer es nicht nicht erlebt hat, kann das evtl auch nicht verstehen.

Interessant wie unterschiedlich die Empfindungen sein können.

RTX on sah zwar anders aus (dunkler beschreibt es fast besser) aber der fps Verlust im Vergleich zu den RTX Effekten stehen da für mich in keinem Verhältnis, nicht ansatzweise. Man hat die FPS ja mal eben gedrittelt, bzw. halbiert und das für Unterschiede die ich höchstens bei Side by Side oder auf screenshots wahrnehme. Das ist zb auch der Grund (die Technik an sich möchte ich hierbei nicht kritisieren) warum die 2000er Gen so schrecklich uninteressant im Bezug auf RTX ist. Sie ist einfach viel zu langsam, eher eine art Techdemo zum Vollpreis

Getestet auf einem 8700k mit 2080ti und 3440x1440p

ab zb 35 Sekunden (im Zug) ja nett, aber keine 30-50% fps wert
 
  • Gefällt mir
Reaktionen: McTheRipper, tomasvittek, AWOS und 2 andere
Was das RayTracing betrifft, World of Tanks hat das doch Software-basiert für die Schatten der Panzer eingeführt und WarThunder hat software-RT für Global Illumination eingeführt, was auf meiner Vega 64 in 4K wirklich keine Leistung zu kosten scheint und auch wirklich deutlich sichtbar ist. Allerdings hatte ich teils den Eindruck sie sparen dadurch, dass eben nur die Map und nicht die Fahrzeuge mit RT ausgeleuchtet werden. Also eine Art "baked-in"-RT oder sowas, das die Berechnungen eventuell nicht für jeden Frame erneuern muss und dadurch eben massiv Leistung einspart und zudem mit klassischen Methoden kombiniert wurde. Experte bin ich dafür nicht, nur so kann ich es mir halt erklären. Mir gefällt das Ergebnis aber allgemein sehr gut (bis auf das eine Mal, wo die Ausleuchtung der Panzer anscheinend gar nicht zu der des Terrains passte, was mich unter anderem auf die obige Vermutung brachte).

Wenn solche ein Software-RT für die oft in großer Menge vorhandenen statischen oder halbstatischen/zyklischen (im Wind wehende Bäume bzw. deren Schatten?) Inhalte völlig ausreichend ist, warum sollte man sowas nicht öfter verwenden und mit Hardware-RT für die dynamischen Inhalte kombinieren? So würde man möglicherweise sehr performantes RT erzeugen, das dazu noch gut aussieht und nicht zu sehr eingeschränkt werden muss. Möglicherweise als Übergangslösung bis man voll-dynamisches RT tatsächlich mal mit >60fps in Auflösungen von 1440p+ hinbekommt und das ohne zwischen Schatten, GI und Spiegelungen wählen zu müssen. Wenn man schon wählen muss schätze ich aber GI noch fast als die sinnvollste Verwendung ein.

Warum GI nicht auch gleich Schatten berechnen sollte, erschließt sich mir aber auch nicht so ganz. Die Schatten ergeben sich doch eigentlich aus der Berechnung der Beleuchtung, also hat Metro mit RT-GI nun auch automatisch RT-Schatten bzw. wieso hat Tomb Raider RT-Schatten ohne RT-GI und wäre es nicht besser gewesen RT-GI zu nehmen, wenn man die Schatten dann gleich dazu bekommen sollte? 🤔 🤷‍♂️

Eine freundliche Erklärung, falls jemand das besser weiß, wäre sehr nett.

Verstehe aber 7hyrael, mit RT kann man nichts anfangen, wenn man gerne bei 4K bleiben möchte bzw. nicht ganz so "klassische" Anforderungen hat. Dass Metro von 4K weniger profitiert als von RT bringt mir persönlich nichts, wenn ich lieber Transport Fever, Tropico, Anno oder Cities Skylines spiele, was von 4K sehr, sehr stark profitiert (viele kleine Details) und wohl (vllt mit Ausnahme von Anno) so schnell ohnehin kein professionelles RT bieten wird (kleine Indie-Teams, die kaum die besten Grafik-Experten haben werden). Deshalb sitze ich ja auch noch auf meiner Vega 64, weil die zum einen teils noch ausreicht und alle Upgrade-Möglichkeiten eben zu teuer sind bzw. Features bieten, die mir wenn ich dann doch mal z.B. RDR2 spielen will, auch nicht viel bringen. RDR2 scheint auf einer RTX 2080Ti weder in 4K besonders gut zu laufen (zumal dann bei <60fps auch noch FreeSync wegfällt, da mein Monitor nicht GSync-kompatibel ist....) und RT kann es auch nicht verwenden...

Also irgendwie alles Murks, aber das RT in WarThunder gefällt mir trotzdem und >60fps (Framelock wegen Tearing) auf ziemlich hohen Einstellungen in 4K bekomme ich da auch noch von meiner Vega. Es muss also schon etwas wirklich deutlich besseres kommen, damit ich dafür >500€ ausgebe...
(z.B. etwas das in Kombination mit einem schnelleren 4K Monitor WT in 120fps/Hz+ ermöglicht, aber die Monitore sind ja größtenteils auch erst mal nur angekündigt oder haben Lüfter, etc...)

Und ja, das ist jetzt meine persönliche Perspektive, als nicht primär (kompetitiver) FPS- oder MOBA-Spieler.
 
Eorzorian schrieb:
RTX 3080 TI 16GB
RTX 3080 12GB
RTX 3070 8GB
RTX 3060 8GB/6GB
RTX 3050/TI 4GB/6GB/8GB ( je nach Land, China und Asien werden mit weniger bestimmt glücklich)
(Meine Einschätzung)

Da halte ich mal dagegen:
3080Ti-384bit-22GB
3080-320bit-20Gb
3070-256bit-16GB
3060Ti-256bit-16GB ?
3060- 192bit-12GB ?
GTX 3050Ti-128bit-8GB
GTX 3050-128bit-8/4GB

Es wäre zwar nicht NV`s Strategie, aber ich könnte mir vorstellen, dass sie dieses mal beim Vram wieder mal zulegen, auch im Hinblick auf RTX (braucht ja auch vram) und dann diese Vram Bestückung wieder einige Jahre stagnieren wird.
 
  • Gefällt mir
Reaktionen: Ratterkiste
GERmaximus schrieb:
Man hat die FPS ja mal eben gedrittelt, bzw. halbiert und das für Unterschiede die ich höchstens bei Side by Side oder auf screenshoots wahrnehme.
Genau das ist ein Grund, den ich vollends nachvollziehen kann.
Wenn man keine Steigerung in Sachen Grafik mehr wahrnimmt, dann braucht es den ganzen neuen Firlefanz nicht mehr.

Mir stechen fehlerhafte Beleuchtung/Verschattung inkl. niedrig aufgelöster Fake- Reflexionen leider SOFORT ins Auge.
Wenn die Fehler zu groß werden, stört es mich in meiner Immersion.
Insofern ist RT für mich zumindest doch sehr viel wert...

Das ist zb auch der Grund (die Technik an sich möchte ich hierbei nicht kritisieren) warum die 2000er Gen so schrecklich uninteressant im Bezug auf RTX ist.
Wie gesagt- Die Geschwindigkeit und die Qualität steigern sich ja über die Titel hinweg.

Die Macher von Doom Eternal wollen diesbezüglich ja auch ein neues Statement setzen und die beste aller Implementationen präsentieren...

Mal sehen, wies weitergeht. Diejenigen, die jetzt nicht auf den Zug aufsteigen wollen nehmen das im Laufe der Zeit als normal integriertes Feature später einfach nebenbei mit.....

Ist ja auch ok...

LG
Zero
 
  • Gefällt mir
Reaktionen: makenick und GERmaximus
RT ist halt eine "neue" Technik, der offensichtlich die Zukunft gehört, wenn man sich so umhört. Und es gibt halt einen Unterschied zwischen:

1) Für mich ist der visuelle Unterschied zu gering um in der derzeitigen Reifephase des Features den Aufpreis zu rechtfertigen.
2) Diesen Schund unterstütze ich nicht.

Zweiteres ist technikfeindlicher Bullshit. 64Bit-Systeme hatten auch erst ein halbes Jahrzehnt nach der Consumer-Einführung auf dem A64 eine halbwegs bedeutende Verbreitung und erste richtige Usecases. Gabs einen Grund zur Klage? Natürlich nicht, klasse war es, dass AMD hier den Anfang gemacht hat....
 
  • Gefällt mir
Reaktionen: USB-Kabeljau, v_ossi und .Sentinel.
ZeroZerp schrieb:
...Mir stechen fehlerhafte Beleuchtung/Verschattung inkl. niedrig aufgelöster Fake- Reflexionen leider SOFORT ins Auge.

LG
Zero

Stimmt, es gibt Dinge die einem sofort ins Auge springen.
Bei mir ist es Kantenflimmern, matschige Texturen (RDR2 was ist da unter Vulkan nur los mit LOD?) oder das schlimmste, niedrige fps. Das ist übrigens der Grund warum ich RDR2 (3440x1440) erst mit ner neuen GPU Zocken werde. Ich ertrage es sonst einfach nicht^^

Schatten und Licht nehme ich nur so beiläufig wahr und habe da keinerlei Beachtung für. Es muss da nur so halbwegs passend sein. Die "Fakeschatten" haben diesen wohl doch ehr anspruchslosen Teil in meinem Immersionszentrum bisher gut getroffen:D
 
  • Gefällt mir
Reaktionen: tomasvittek, Botcruscher und .Sentinel.
Die 2 Ram Angaben sollen denke ich nur machbare Ausbaustufen aufzeigen, zB Quado und Consumer GPU. Nicht dass man da die Wahl haben soll.

Mit 10GB wäre Nvidia sinnvoll aufgestellt. Es ist mehr Marge drin als mit 16GB die durchaus recht teuer sind bezogen auf die ganze Grafikarte. Nvidia orientiert sich hier meist eher an der Wirtschaftlichkeit, so wenig wie möglich. Um die 8GB aktueller GPU abzulösen machen 10GB durchaus Sinn, oder eben 12GB. Je nach dem ob 320 Bit SI oder 384Bit. Bisher hat man das meist über Teilaktivierung gelöst.

Kann hier auch so sein. Nur gibt Nvidia nun ggf nen eigenen Namen diesem teilaktiven Chip.
 
  • Gefällt mir
Reaktionen: tomasvittek und GERmaximus
Zurück
Oben