News GPU-Gerüchte: GeForce RTX 3080 Ti kommt mit 20 GB GDDR6X

matty2580 schrieb:
Während hier 999€ nur für eine GPU ausgegeben wird, und über Auflösungen wie WQHD diskutiert wird, spiele ich ab nächsten Donnerstag mit meiner PS5 in 4k, oft mit 60 fps, auf meinem neuen 4k TV.

Und das für 499€, als Gesamtpaket, mit modernen Kontroller, viel VRAM, und gut optimierten Games.

Ich bin dann bei 4k angekommen.
Mal sehen wie lange das beim PC noch dauern wird? ^^
Abwarten und Tee trinken. Nicht dass du bei 4K30FPS landest und bevor ich jemals wieder 30FPs spiele, dann spiele lieber FHD/WQHD/144FPs. Eher friert die Hölle ein.
Aber jaaaaaaa das ist nicht gesund diese Preisen. Meine absolute Schmerzgrenze sind 400 Euro für eine neue GPU und keinen Cent mehr.
 
amdfanuwe schrieb:
Schau dir mal die Chipgrößen und Kühllösungen vor 10 Jahren an.
Mittlerweile geht man ans absulute Limit des technisch machbaren.
Und vor 10 Jahren waren die Karten nicht das Limit des technisch machbaren? :volllol:
Und nächstes Jahr sitzt das Limit des technisch Machbaren wieder höher ;)
 
  • Gefällt mir
Reaktionen: ro///M3o
Vor allem sollte man sich erst einmal den Umsatz, Gewinn, Margen, und die Entwicklung von Nvidia ansehen, seit 10 Jahren. R&D war für den Konzern nie ein Problem gewesen......
 
  • Gefällt mir
Reaktionen: mibbio und ro///M3o
Laphonso schrieb:
So Klugscheisserkommentare werden schnell zum Boomerang, es sei denn, Du lebst frei von Konsum.
Was Du zweifellos nicht tust. ;)

Tue ich nicht und behaupte ich auch nicht. Aendert aber nichts daran, dass du genau das getan hast was Nvidia bezwecken wollte. Du hast grob 100% mehr Geld bei Nvidia gelassen. Wuerde ich als Unternehmen auch so machen und ich bin froh ueber jeden Kunden, der das ohne Probleme mitmacht.

Porky Pig schrieb:
das habe ich auch nicht behauptet das es etwas mit Gaming zu tun hat. Es zeigt aber in welche Richtung es geht.Es sollte genau das andeuten in Bezug auf Gerüchte. Das es noch in alle Richtungen gehen kann solange noch keine unabängigen Tests da sind.
Freut mich trotzdem das Du weist was es ist.

Nein, es zeigt nicht in welche Richtung es geht und ja, damit widerlegst du deine Behauptung, dass du ja gar nicht implizieren wolltest, dass es etwas mit Gaming zu tun hat. OpenCL Leistung sagt ziemlich wenig ueber die Gamingleistung am Ende aus. Ansonsten muesste Ampere um einiges besser im Gaming sein, genauso wie die Vega Karten von AMD. Das RDNA2 mit seiner Architektur in Compute nicht so gut aussieht ist wenig verwunderlich, darauf wurde die Architektur auch nicht optimiert. Das sieht man recht deutlich.

.Sentinel. schrieb:
Bezeichnungen und Namen sind Schall und Rauch.
Die Nutzungsmöglichkeiten geben vor, wozu eine Karte gebraucht werden kann oder auch nicht.

Es wurden ja auch vor noch nicht allzu langer Zeit massenweise Xeon E3-1231 v3 in Heim PCs verbaut.
Das war auch keine PC- CPU sondern wurde als Server CPU geführt.
Wenn die Bezeichnung oder eine Kategorisierung null Effekt auf die Nutzungsweise hat, so verfehlt diese ihren Sinn.

Aber die Bezeichnung hat doch schon ihren Zweck erfuellt. Gamer kaufen die Karte weil suggeriert wird, es sei das beste im Lineup. Ganz einfach 3090 > 3080 = besser. Und natuerlich kommt sie in jedem Review drin vor. Eine Titan impliziert genau das nicht, wird in den meisten Reviews nicht gezeigt, und motiviert keine Gamer zu kaufen. Die Namen sind eben kein Schall und Rauch, sondern ein Marketinginstrument. Das kann man natuerlich komplett ignorieren, Nvidia ist das herzlich egal, bei denen klingelt es.

Dein Xeon Beispiel ist auch ziemlich weit hergeholt, denn wer, ausserhalb von Tech-Enthusiasten, hat das wirklich gemacht? Der 0815 Selbstschrauber mit Geld das er zum Fenster rausschmeissen kann hat eben genau das nicht gemacht. Der kauft aber trotzdem die 3090. Der Name gibt eben doch an wer die Kaufgruppe ist und wo das Produkt in der Hierarchie steht. Und Intel hat ja auch erkannt, dass man die Gruppe der Xeon Kaeufer ausweiten kann wenn man es richtig platziert, halt als Core KF. Minimal geringerer Preis und defekte iGPU und es wird gekauft. Perfekt!
 
matty2580 schrieb:
Was "Basic" ist sieht man gut bei Steam, und ist ganz weit entfernt von dem was du gerade geschrieben hast.....
Er meinte aber ausdrücklich die "PC Masterrace" Klientel, und nicht die "Steam" Basis! :)
 
Steueroase schrieb:
In einem halben Jahr sollte der Hype abgeflacht sein und die Preise sich daher wieder normalisiert haben.

Aus "Nvidia Sicht" ist das aber vielschichtiger. Die Verfügbarkeitsfarce mal weggelassen, sind die 3080, 3090 und nun 3070 "Herbst 2020" GPUs.
Wer also erst in einem halben Jahr zulangt, hat schon 7-8 Monate der Generation "verpasst" und damit so rund 1/3 der Generationslaufzeit. Um dann dennoch das Risiko einzugehen, die Customs nicht zum UVP Preis zu erhalten...

Daher geben viele am Anfang mehr Geld aus, weil man JETZT zocken will und die hohen Preise möglichst lange in der Nutzung für sich kompensiert.

Tragisch daher das Bild derer, die sich im April, Mai oder Juni noch eine 2080 Super oder 2080 Ti gekauft haben.
Das war "zu spät", in jeder Hinsicht.

Wer jetzt noch 6 Monaten warten kann..."braucht" evtl sowieso keine Karte, akut. Sonst wäre man schon längst dabei, oder wartet doch planungsgemäß auf RDNA Zwo.

Ist aber nur meine verbretterte Enthusiastensicht.
 
  • Gefällt mir
Reaktionen: FGA
matty2580 schrieb:
Mir reicht erst einmal 4k Gaming ohne Raytracing.
Immerhin hatte ich jetzt über 12 Jahre nur 1080p.

Und 100 fps brauche ich mit Sicherheit nicht.
Die letzten 2 Jahre habe ich hauptsächlich mit der Switch gespielt.
Da sind selbst 30 fps nicht immer Standard. ^^

Wow, mit diesen "Ansprüchen" war 4K schon vor 5 Jahren möglich. Aber so sind die Konsoleros :)

Ich spiele halt competitive Shooter auf PC, vor kurzen noch in 1080p mit mindestes 120Hz/FPS, viel mehr ist natürlich immer besser und jetzt halt mit WQHD und 170Hz/FPS. Die PS5 kaufe ich mir aber auch, allein wegen den Exklusiv Titel, die man auf PC nicht bekommt und ich dann schön entspannt vom Sofa auf meinem 4k OLED spiele.

Das eine ist mit dem anderen aber nicht vergleichbar. Denn der nächste schritt wäre für mich am PC,
4k mit 144Hz und dann nicht mit 30FPS sondern mit 144FPS. Einen Singleplayer in mit 60FPS geht noch klar, aber nicht der Multiplayer und dieser Schritt ist noch in ferner Zukunft.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx, calippo und Laphonso
matty2580 schrieb:
Daraus lässt sich gut ableiten, welchen Stellenwert die Masterrace für die Industrie hat.

Der Stellenwert war schon immer, was zukünftig möglich sein kann und was in 5 Jahren im Mainstream ankommt. Ich sehe da zumindest aus Sicht eines Spielers noch lange kein Limit, gerade in Openworld-Spielen gibt es noch immense Möglichkeiten um Spiele besser aussehen zu lassen. Anzahl Objekte, Anzahl Passanten, Weitsicht usw. Das sind alles wichtige Parameter für Grafikqualität, die aufgrund des 4k/120FPS Hypes leider zu sehr in den Hintergrund geraten.
Ich habe sogar den Eindruck, dass viele Spiele sogar wieder hässlicher/einfacher werden, weil nur noch auf messbare Benchmarks und Auflösung geschaut wird. Ist ja auch easy Pong in 16k mit 1000 FPS darzustellen und der weniger kritische Konsument beklatscht das dann auch noch und erzählt was von Next Gen Grafik.

Aktuelles Beispiel ist Dirt 5, soll das Next-Gen Spielegrafik sein oder kann das weg? (und da ist die Performance nicht mal so gut wie mir scheint)

PS: Wenn Du von der Switch kommst, wundert mich nicht, dass eine PS5 reicht. Die Switch hat lt. diverser Quellen ein Viertel der Leistung einer PS4 Pro und die ist vergleichbar mit einer 1060. Ich weiß nicht mal, wo ich anfangen soll zu suchen um eine Grafikkarte mit einem Viertel Leistung einer 1060 zu finden.
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Warum sind Leute bei PC Hardware immer angepisst, wenn Monate später eine bessere Version rauskommt?...


Ganz einfach, weil eine 20GB 3080 abgesagt / dementiert wurde (damit die 10GB auch gekauft wird) und der Kunde somit im Glauben gelassen wurde, dass eine Karte mit mehr Speicher außer der 3090 in absehbarer Zeit, frühestens zum Generationen Refresh, nicht mehr kommen wird und somit in dem Glauben welches seitens nVidia auf eine Weise bestätigt wurde, sich mit 10GB „zwangsweise“ zufrieden gegeben hat / musste. Wenige Wochen später nach der Dementi kommt nun doch eine 3080 mit 20GB und nVidia nennt diese dann einfach „Ti“ um sich für die ursprüngliche Dementi / Absage rechtfertigen zu können ala „wieso gelogen? wir bringen ja auch keine 3080 20GB raus. Es ist eine 3080Ti und das ist doch was total anderes aber doch keine „3080 20GB““...

Spürst das Kribbeln auf der Stirnader?... Wenn einer jemanden für dumm hält und versucht auch noch dreist gut zu reden von wegen war immer so geplant obwohl ALLES von Anfang an nur so passiert ist wegen dem Druck seitens AMD und nicht weil dem Unternehmen der Kunde wichtig wäre. Genau wie bei Intel damals mit dem „Kerne Geiz“ machts nVidia mit dem Speicher. AMD zwingt die dazu und nur darum bekommen wir überhaupt merklichen „Fortschritt“ im Endkunden Bereich. Wenns „noch“ um die beiden, für mich inzwischen sehr unsympathischen, Lager gehen würde, würden die uns immer noch versuchen, mit 4Kerne und / oder 3,5GB + 0,5GB VRAM zu „melken“.

DANKE AMD!!! Für Ryzen und RDNA. Werde euch definitiv weiter unterstützen damit noch mehr Druck entstehen kann.


Edit: Das war mal mein Lineup vor dem ganzen Ramtam. War garnicht mal so verkehrt bis auf, dass nVidia sogar noch geiziger mit VRAM ist als gedacht 60er und 70er). Yes, warten lohnt sich und Early Adopter ist zwar das neue Normal aber ich bleib Oldschool ;-)

ro///M3o schrieb:
...
Möglicher Lineup:

3060 - 300€
3060 S - 350€ (3060 Update)
3060Ti - 400€
3070 - 500€
3070 S - 550€ (GDDR6X 21Gbps > 3070 Update)
3070Ti - 650€ (16GB (direkt GDDR6X 21Gbps?))
3080 - 700€
3080 S - 800€ (GDDR6X 21Gbps > 3080 Update)
3080Ti - 1100€ (20GB (direkt GDDR6X 21Gbps?))
3090 - 1500€
3090Ti - 1900€ (direkt GDDR6X 21Gbps?)
Titan - 2500€ - 3000€ (48GB GDDR6X 21Gbps)

Vermutung aber klingt logisch ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Professor1 und Heschel
ro///M3o schrieb:
Spürst das Kribbeln auf der Stirnader?...

Also ich spüre das nicht, weil der etwas schlauere Konsument schon immer einfach mal abgewartet hat, bis sich der erste Sturm und die Aufregung gelegt hat.
Ja, wenn das von vorne herein geplant war, wäre das eine unsauberere Aktion, aber wir reden hier über Grafikkarten im Luxussegment und einen Zeitraum von nicht mal zwei Monaten seit Release.

Zumal es dauern wird, bis die 3080ti erscheint und den Aufpreis für den RAM wird man zahlen müssen. Wer die 20GB will und schon eine 3080 hat, der muss die halt verkaufen und sich eine Ti kaufen. Das kostet dann ein paar hundert Euro Lehrgeld durch Wertverlust, aber das ist dann immer noch kein Totalschaden
 
Vitali.Metzger schrieb:
So sieht es aus.
Es gibt einen Unterschied zwischen "nicht mehr weit kommen" und - Ich erwarte von der preislichen Mittelklasse "Ultra- Settings".
Ich verstehe nicht, warum es hier inzwischen jedes Mal auf irgendwelche Extreme rauslaufen muss.

Wir sind im PC- Sektor! Genau der ermöglicht einem eine unglaubliche Konfigurationsvielfalt- und maximale Flexibilität.
Wie hier schon x- mal angesprochen reicht es oft ein! Setting um eine! Stufe zu verringern, die sich auf das Gesamtbild kaum bis nicht auswirkt, damit sich das Blatt wendet.

Warum man auf eine 3070 unbedingt "Ultra- Settings" mit "Ultra- Texturen" pressen muss, die bei 1080p sowieso nicht glänzen können, ist mir ein Rätsel.

Abgesehen davon- Mit reglern und Settings, presse ich Dir jedes Spiel ins Nirvana.

Hab gestern bei Observer System Redux auf 1080P meine 3090 "vergewaltigt".
Habe dort per in- Engine- Hack Raytraced Spiegel mit 100% resolution Scale und einem Roughness Grenzwert von 0,9 inkl. 3 Bounces (Spiegel im Spiegel im Spiegel funktionier), RT AO, RT transparency, RT Shadows und RT tweaked global illumination mit RT volumetric fog auf hohen Einstellungen aktiviert.

->3090 RTX ging auf 12FPS in 1080P. Kleine Tunings hier und da. Sample- Methoden und Fallbackmethoden modifiziert, habe ich das ganze, ohne deutlich sichtbare Einbußen dann auf für mich spielbare 45FPS gehoben.

Das ganze sieht zum Teil aber jetzt so zum niederknien aus, dass ich den Kompromiss da jetzt irgendwas runterschrauben zu wollen, um eine höhere Auflösung oder höhere FPS Rate erreichen zu können, nicht mehr eingehen könnte.

Dennoch- Es ist eine absolute Kleinigkeit, jegliche verfügbare Karte mit den Settings an die Wand zu fahren.
10, 16 oder 24 Gigabyte hin- oder her.

Ich stell Dir diesbezüglich jede Karte in einem Titel entweder in einem guten Licht dar, oder auch in einem katastrophalen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen, foo_1337, Khalinor und 5 andere
pöses nvidia weil die leute sich wie assgeier auf die rtx3080/90 gestürtzt haben:D. aufwachen, bei so einem kaufverhalten muss man sich über das gebaren seitens nvidia nicht wundern....
 
  • Gefällt mir
Reaktionen: ro///M3o und matty2580
OZZHI schrieb:
Darum geht es ja auch nicht. Mit der 3080 Ti 20GB könnte man den einzigen Negativpunkt der 3080 eliminieren und das ist der knappe Speicher.

Ähm Leistungsaufnahme?

LG

Micha

PS: Vorweg: Nein, die Angaben beider Hersteller sind nicht direkt vergleichbar (bitte selbst recherchieren).
 
Ich bin irritiert, dass manche hier Irritation verspüren.

Wir hatten die Ti seit der GeForce 2 aus 2001, meine ich, und mit nur wenigen Ausnahmen keine.

Seit der 780Ti gabs die 980Ti, 1080Ti, 2080Ti.

Und, hoppla, aus dem "NICHTS" eine 3080Ti, wenn und weil es alles aber doch so offensichtlich war:

700 Euro und 14 GB VRAM lagen zwischen der 3080 und 3090.
Und AMD war in place mit RDNA 2.

Natürlich musste die 3080Ti kommen.

Wer ist von Euch warum genau "überrascht"?
 
  • Gefällt mir
Reaktionen: RuShEr89, ComputerJunge, Khalinor und 2 andere
michelthemaster schrieb:
Ähm Leistungsaufnahme?
Kannst du das genauer ausführen? Es gibt mehrere Themen im Bezug zur Leistungsaufnahme, wenn wir über 3080 Karten Sprechen.
  • TGP Werte im Vergleich zu dem realen Verbrauch? (Thema Spikes, Netzteilabschaltung etc. )
  • Extrem hohe Powerlimits bei Partnerkarten
  • Mehrverbrauch durch den zusätzlichen Speicher, der einem das Powerlimit "raubt"
  • Generelle Probleme mit dem relativ hohen Strombedarf?
In meinen Augen ist der Stromverbrauch solange zweitrangig, wie die Kühlleistung, von mir aus unter Luft, passt.

Laphonso schrieb:
Wer ist von Euch warum genau "überrascht"?
Vermutlich die selben Leute, die bei der 700€ 3080 von einer Preissenkung gesprochen haben. :evillol:
 
.Sentinel. schrieb:
Dennoch- Es ist eine absolute Kleinigkeit, jegliche verfügbare Karte mit den Settings an die Wand zu fahren.
10, 16 oder 24 Gigabyte hin- oder her.

Ist leider immer das selbe Problem mit dieser Rosienenpickerei aka "Ich suche ein Video von einem oder zwei Spielen, die eine xxxx Karte nicht packt und echauffiere darüber in einem Forum - dann fühle ich mich gut - denn nur meine Meinung ist korrekt"

¯\(ツ)
 
  • Gefällt mir
Reaktionen: .Sentinel.
calippo schrieb:
Sehe ich auch so und noch vor 4k sehe ich die Renderdistanz, LOD und endlich mal knackscharfe Texturen (auch 4k Texturen können matschig, verwaschen und artefaktbehaftet sein) als nächsten Entwicklungssprung.
Ja- Das ist mit modernen Techniken kein Problem.

Hohe Objektanzahl kombiniert mit hoher Polygonanzahl und vielen unterschiedlichen Texturen machen Szenerien doch erst realistisch. Wer kennt nicht die sterilen Bilder der selbstgebauten Fallout 4 Siedlungen auf Konsole bzw. PC ohne Aufhebung des Baulimits im Vergleich mit den Modsiedlungen, die ohne Ende Assets aus dem ganzen Spiel mit neuen Texturen verbauen, bis der VRAM vollläuft. (und jede der Fallout 4 Texturen müsste man eigentlich durch eine 2-3 mal so große saubere Textur ersetzen)
Das liegt an der Art- und Weise, wie die Creation Engine ihre Texturen verwaltet. Das hat sich seit Gamebryo nicht geändert!

Letztendlich ist es so und ich drücke das jetzt absichtlich extrem aus, dass wenn ein Entwicklerteam alle DX12 Ultimate- Features verwendet, der Texturpool inkl Buffering nicht mehr als 1 Gigabyte (großzügig 2GB mit Verschnitt) in 4K mit einem 1:1 Pixel- Mapping haben dürfte (BC5 komprimiert).

Rechnet man noch einen großzügigen Puffer für den Engine- Inflight- Stream dann legen wir nochmal ein Gigabyte drauf. Das wars dann.
Dann hättest Du jedes Pixel mit Albedo, Normal, Roughness, Specular, Displacement, Occlusion mittels BC1-X Kompression abgebildet. Ein bißchen was geht dann noch an blending- und detail- Texturen drauf. Fertig.

Mehr Schärfe geht nicht.

Deswegen sehe ich sowas...
Ich denke, das dieser Schritt Richtung 20GB getan werden muss und wer soll ihn zuerst gehen, wenn nicht die Enthusiasten mit den sackteuren Premiummodellen?
...immer kritisch. Denn letztenendes ermöglicht das Entwicklern, die vorhandenen Techniken nicht zu adaptieren und schön mit ihren alten, überarbeitungswürdigen, ressourcenverschleudernden Schrottengines (die aufgrund vieler Faktoren nunmal auf dem Status sind, wie sie nunmal sind) weiterzumachen.
Die Engine- Programmierer würden das sicher lieber auch anders machen, aber es gibt auch vielfältige Gründe möglichst lange auf dem alten Gerüst aufzubauen.

Ich halte das bei allem Verständnis dennoch für keine gute Entwicklung. Wie es gehen kann zeigt Witcher 3 HD Reworked 12.

Das bleibt trotz teils aufwändigster Knallertexturen in allen Bereichen bei 4K unter 6GB VRAM Nutzung. Hohe Sichtweite und hohe Asset- Diversität gibts da auch.
Und das noch mit relativ veralteten Methoden, bei denen der Entwickler aber einfach Know- How in Sachen Texturengestaltung- Wirkung, sinnvollen UV- Mappings und Texturekompression wirklich gut umgesetzt hat.

War damals noch WIP, aber das erste, was ich dazu gefunden hab und zeigt, wo die Reise hingeht:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tornavida und Harsiesis
  • Gefällt mir
Reaktionen: Laphonso, hongkongfui und Alphanerd
Zurück
Oben