News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

Wenn ich richtig informiert bin, ist es bei den Quadros doch so, dass sich der nutzbare Speicher verdoppelt, wenn man die über NVLink koppelt. Ob das bei den Geforce RTX auch so sein wird?
 
Banger schrieb:
Nur ein kastierter Chip in der RTX2080? :kotz: Dann kommt in 6 Monaten bestimm eine Version 2 mit voller Shaderzahl.

Hä? Die 2080 hat nur den Performance-Chip im Vollausbau. Da kommt keine Version mit größerem Chip. Die Ti hat einen kastrierten Chip, da kommt mit Sicherheit noch eine TITAN RXT :D
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
Theorie:
Nvidia hat nach wie vor volle Lager und das Zeug lässt sich zu Crypto-Mondpreisen nicht mehr loswerden. Damit man zumindest die alten Preise noch bekommt, wirft man nun gleich die neue Ti auf den Markt, natürlich zum Crypto-Mondpreis. Somit sollte die alte Generation auf das ursprüngliche Niveau absacken und sich dann gut verkaufen, so hofft man vermutlich.

Das ist jedenfalls schlauer, als die alte Generation wieder in die alte Preisregion zu drücken und die neue Generation (teils) zurück zu halten. Ansonsten würde man für die neue Generation ebenfalls das bekannte Preisniveau erwarten.

Ich denke jedoch, dass diese Rechnung nicht ganz aufgeht und rechne in den kommenden 6 Monaten mit deutlichen Preisnachlässen auf das alte Niveau. (Sofern es nicht wieder einen Cryptobook für GPUs gibt.)
 
  • Gefällt mir
Reaktionen: CBL
10%, 20% oder 30% mehr... Scheissegal, hauptsache was Neues :love: :daumen: Hab kein anderes Hobby :heul:
 
  • Gefällt mir
Reaktionen: Banger
Moin *wink*
Hab ein kleines Vid vonne RTX 2080ti auf you-noob entdeckt ...... Raytracing ist wohl beschlossene Sache. :)
Ein echter Hammer die Fotorealistische Darstellung.


Greetz & stay tuned!

PS : Freude ist nur ein Mangel an Information ^^
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Die Zeitspanne zwischen diesem Release und dem nächsten Release (7nm) war ohnehin knapper veranschlagt als sonst und wurde durch das Zurückhalten wegen alter Lagerbestände noch enger. Folglich packt man die Ti jetzt einfach direkt ganz oben drauf.
 
SKu schrieb:
Woher kennt ihr überhaupt den Leistungssprung?

Natürlich ist Turing nichts weiter als Maxwell 3.0, sowohl die Tensor Cores als auch RT ist nice to have, aber für Spieler derzeit Uninteressant. Ich sag dazu nur trocken, schau dir Titan V an und was Volta für Spieler gebracht hat.. Turing wird nicht abgehen wie ne Rakete und mal eben 80% drauflegen sondern sich wie scon gesagt wurde etwas oberhalb einer 1080Ti bzw Titan V einordnen. Und Wo Nividia die Shader umgebaut hat, weiß ich nicht.. Anhand der Rohleistung kann man gut bei Nvidia erkennen, wo ne Karte landet.
Und wo Turing ne Offenbarung für Spieler sein wird, sehen wir dann vllt am Montag, oder aber die Realität holt alle ein.
Mein Tipp: Schneller, aber in Games (Stand 2018) nicht Signifikant besser als Pascal. Und UHD @60FPS bei max Preset, glaube ich auch noch nicht so recht dran... Wir werden sehen.

Und wenn ich hier manche Kommentare lese, dann dient AMD nur dazu die Nvidia schmackhaft zu machen vom Preis.. Ich hoffe also Navi wird zwischen 2070 und 2080 platzieren, aber dass weiterhin die Herren ihren High End Kram zu High End Preisen bekommen.
 
  • Gefällt mir
Reaktionen: Mr. Rift und TheBear1517
cryoman schrieb:
Moin *wink*
Hab ein kleines Vid vonne RTX 2080ti auf you-noob entdeckt ...... Raytracing ist wohl beschlossene Sache. :)
Ein echter Hammer die Fotorealistische Darstellung.


Greetz & stay tuned!

PS : Freude ist nur ein Mangel an Information ^^
Naja, Videos gabs schon fotorealistisch zu Zeiten von Wingcomander :P - bzw. wenn ich mir Irobot auf dem PC anschaue, hab ich es auch, von daher ist "DAS" für mich wirklich angekommen, wenn es so ingame aussehen würde - was ich so schätzungsweise im Rentenalter vllt. erwarte :P
 
  • Gefällt mir
Reaktionen: cryoman
Rockstar85 schrieb:
Natürlich ist Turing nichts weiter als Maxwell 3.0

Kompletter Bullshit. Wäre das Maxwell 3.0, dann gäbe es auch kein RT-Cores und T-Cores.
 
Ich frage mich eher was AMD macht. Ob sie selber auf den Zug aufspringen und eine Architektur mit Pendant zu Tensor und Raytracing Einheiten entwickelt oder weiterhin auf NCU basierten GPU wie Vega setzt. Problem dabei: bei neuen Raytracing Game Engines hätte sowas keine Chance.

Nvidia ist es wohl wirklich ernst das im Markt grundlegend durchzudrücken. Und mit dem Marktanteil und Gameworks / Cuda kann das Nvidia auch.

Ich denke Nvidia hat seit der 8800 GTX kaum was anderes gemacht als darauf hingearbeitet, es geht imho darum rechenintensives Raytracing durch Mathematik und Ki soweit zu beschleunigen dass es Rasterizing ablösen oder vorerst ergänzen kann.
Da ist was ganz anderes als die GPU der letzten 10 Jahre bei denen man mehr oder weniger nur bestehende Falschenhälse entschärft hat und die GPU über den Prozess in die Breite gebaut hat.

Ich halte es für durchaus denkbar dass sich AMD irgendwann von GPU Markt verabschiedet da es kaum wirtschaftlich ist selber eine neue Architektur für diese Raytracing Geschichte zu entwickeln, zumal das Gameworks natürlich voll auf NV zugeschnitten ist.
Natürlich wird man abwarten wie sich das entwickelt aber man kann sich gut vorstellen dass Nvidia da einiges an Kohle in den Markt werden wird dass die Entwickler schnell die anderen 30 -50% der Die auch einsetzen. Die Bildqualität wird wohl auch nicht mehr deterministisch sein da komplett unterschiedliche Anzahl an Raytracing Ray's und Qualitäten bei der Denoise eingesetzt werden dürften.
 
Zuletzt bearbeitet:
@SKu:
Das ist ja das feine an der mArc bei Nvidia.. Man kann ziemlich gut Blöcke einfügen.. Ich sehe die Tensor Cores, die für AI sind, als Marketinggag an, ebenso RT... Weil es schlichtweg keine Software gibt.
Eigentlich solltest du lange genug dabei sein und so langsam ein Verständnis dafür erlangt haben, dass die beste Hardware ohne Software nichts nutzt, analog zu AMD

@Krautmaster:
Du kannst dein Gehalt darauf verwetten dass AMD ihre AI Cores auch weitertreiben wird und auch RT vorantreibt, denn auch AMD hat diese Technik und keiner weiß sorecht ob NCU nur GCN6.0 wird, oder mehr. ne Vega 20 soll ja auch sehr gut in AI werden, wobei ich mich da frage wie AMD das mit GCN so bewerkstelligen kann

@Pisaro:
Da muss ich dir mal Ausnahmsweise Recht geben... Für mich als 1080ti Käufer völlig uninteressant und ggf 2019/2020 dann ne Alternative suchen. Aber 1000€ für ne GPU, dafür ist mir mein Geld einfach zu Schade, das hat auch nix mit neid zutun..
 
Laphonso schrieb:
verpacken viele hier ihren offensichtlichen Neid, Frust und/oder das schmale Budget ( als ob man weniger wert ist, weil man nicht so viel Geld gespart hat, entspannt euch mal ) in verschiedene abstruse „Gründe“, die neuen NVIDIA Karten nicht zu kaufen :
- fressen zu viel Strom
- zu wenig Speicher
- Zu wenig effizient
- zu wenig zusätzliche Taktfrequenz
- so etwas braucht kein Otto Normalverbraucher
- keine neue Fertigungstechnik
- wer braucht schon 20 oder 50 zusätzliche Frames in Spielen, wird überbewertet

Ich würde echt gerne wissen, was dir NVidia bezahlt. Warum sollte ich von meiner 1080 Ti auf die neue Generation umsteigen, wenn z.b. der RAM einfach mal gleicht bleibt? Das ist einfach so verdammt lächerlich. Ich gebe gerne alle 2 Jahre 1000 Euro für ne Grafikkarte aus, dass ist mir völlig egal.
Viele der genannten Gründe sind sinnvoll, was nur solch unglaublich verblendete Fanboys wie du einfach nicht checken, die Frage ist nur warum.

Minimun 50% mehr Leistung, 16GB RAM und ich schlage SOFORT zu, egal was die an Strom verbraucht. Aber das wird leider nicht passieren, muss ich leider warten.
 
  • Gefällt mir
Reaktionen: Mr. Rift, Oneplusfan, cryoman und 2 andere
SKu schrieb:
Hä? Die 2080 hat nur den Performance-Chip im Vollausbau. Da kommt keine Version mit größerem Chip. Die Ti hat einen kastrierten Chip, da kommt mit Sicherheit noch eine TITAN RXT :D

Auch die RTX 2080 soll eine gegenüber dem Profipendant Quadro RTX 5000 abgespeckte GPU (TU104) besitzen. Statt 3.072 Cuda-Cores sollen es deren 2.944 und damit 128 weniger sein.
-----------------
Knito schrieb:
10%, 20% oder 30% mehr... Scheissegal, hauptsache was Neues :love: :daumen: Hab kein anderes Hobby :heul:

Ich habe schon auf die 1080TI verzichtet. Vorher ging es noch so, dass ich 8600GT, GT220, GTS250, GTX470, GTX480, GTX670, 770, 780, 980, 980TI hatte. Damit ist Schluss. Keine 2-3 Karten mehr einer Serie. Also kann eine jetzt nach 2 Jahren eine neue her. Und direkt auf die RTX2080TI gehen? Ist zwar auch kastriert, aber da ist es dann bestimmt wie immer und es kommt die Nvidia Titan RTX noch und ist wie die RTX6000 bei den Shadern.
 
@Banger:
die 2080ti wird aber ein GT102 Chip sein, also fast Vollausbau, wenn es ebenso sein wird wie bei Pascal..
Bis diese Karte veraltet ist, vergehen auch 3-4 Jahre ;) Ich glaube auch nicht 2019 an einen Refresh sondern vermutlich erst 2020.
Ich kaufe nur noch alle 2 Gens, und dann wenns passt. Bei 680€ für ne Ti muss ich auch nicht auf 2080 wechseln ;) Und wenn die Nachfolgerin kommt, ist meine Karte immer noch obere Mittelklasse.
 
Rockstar85 schrieb:
@SKu:
Eigentlich solltest du lange genug dabei sein und so langsam ein Verständnis dafür erlangt haben, dass die beste Hardware ohne Software nichts nutzt, analog zu AMD

Woher willst du das bitte wissen?

Raytracing ist nicht erst seit gestern ein Thema. Microsoft arbeitet schon seit Jahren mit den Entwicklerstudios zusammen, die großen sind da alle an Board. Unity, UnrealEngine, Frostbite, etc. Woher willst du also wissen, dass auf der Gamescom keine Titel für diese Technologie vorgestellt werden?

Battlefield (Frostbite) wird mit Sicherheit Hybrid-Raytracing nutzen
Tomb Raider von Square Enix wird auch auf den Zug aufspringen
Assasins Creed auch durchaus vorstellbar
Metro Exodus ebenso
Anthem auch vorstellbar
The Division 2 auch ein Titel dafür

Würde mich nicht wundern, wenn auf der Gamescom eine ganze Palette an Titeln genannt wird, die allesamt Raytracing als Option besitzen werden.
 
  • Gefällt mir
Reaktionen: TheBear1517 und cryoman
Banger schrieb:
Ich habe schon auf die 1080TI verzichtet. Vorher ging es noch so, dass ich 8600GT, GT220, GTS250, GTX470, GTX480, GTX670, 770, 780, 980, 980TI hatte. Damit ist Schluss.

Kommt halt drauf an was man braucht. Ich wurde mit einem 1440p Monitor überrascht, da reicht die 1070 nicht mehr.
Ich hatte auch 2 Pascal 1060 und 1070 und sehe den Wechsel in einer Generation unkritisch. Ist ja nicht so, dass der Geldwert plötzlich weg ist. Ab zu ebay.
Austauschen ist auch kein Aufwand Karte raus, Karte rein, braucht man nicht mal den Treiber neu installieren.

Und es macht halt Spass was neues zu kaufen.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech und Banger
Rockstar85 schrieb:

Schon klar, dass die TI einen kastrierten GT102 bekommt. Und ich habe "nur" die 1080 seit 2 Jahren, da sollte leistungsmäßig auch eine 2080 lohnen oder gleich die TI, wenn ich länger spare. Eigentlich wollte ich nach der Grafikkarten-Anschaffung mehr Bildschirmauflösung. Wenn ich die 1080 verkauft bekomme, fehlen nicht mehr viel für angenommene 700€. Für die TI wird das nicht reichen. Aber ich habe noch eine 650TI für den Übergang da, die GTA5 auf Niedrig schafft und Minecraft ohne Shader.
 
Krautmaster schrieb:
Ich frage mich eher was AMD macht. Ob sie selber auf den Zug aufspringen und eine Architektur mit Pendant zu Tensor und Raytracing Einheiten entwickelt oder weiterhin auf NCU basierten GPU wie Vega setzt. Problem dabei: bei neuen Raytracing Game Engines hätte sowas keine Chance.

Nvidia ist es wohl wirklich ernst das im Markt grundlegend durchzudrücken. Und mit dem Marktanteil und Gameworks / Cuda kann das Nvidia auch.

Persönlich überkommt mich gerade ein deja-vu: RayTracing das neue Hardware T&L?
Funfact: nVidia benannte die erste Grafikkarte mit Hardware T&L: GeForce 256.

Es würde mich nicht überraschen, wenn das DX12 Feature plötzlich der "letzte Schrei" wird.
 
  • Gefällt mir
Reaktionen: yummycandy und Cpt.Willard
SKu schrieb:
Battlefield (Frostbite) wird mit Sicherheit Hybrid-Raytracing nutzen
Tomb Raider von Square Enix wird auch auf den Zug aufspringen
Assasins Creed auch durchaus vorstellbar
Metro Exodus ebenso
Anthem auch vorstellbar
The Division 2 auch ein Titel dafür

Würde mich nicht wundern, wenn auf der Gamescom eine ganze Palette an Titeln genannt wird, die allesamt Raytracing als Option besitzen werden.

Und du denkst dass deswegen ALLE ihre Karten tauschen? Ich sagte doch, Stand 2018 wird sich nichts ändern und ich denke Nvidia wird die DX12 Power verbessern, so mal als Neuerung..
Ich wette mit dir dass Montag keine Wunder gezeigt werden, wäre auch unmöglich ohne Software.. Und grade wo du UE sagst oder Frostbite, die Engines liegen auch AMD und auch Vulkan kann RT nutzen, ist ja nicht so, dass es eine MS Erfindung ist. Wir werden Demos sehen wo man sagt: Wow.. Aber Nutzbar wirds dann 2020 sein für die Masse.. Wenn die Karten dann abgelöst werden.
Hey Sku wir reden über Nvidia und nicht von Intel, die mal eben von heute auf Morgen sowas durchboxen könnten, weil 80% GPU Anteil

@Banger:
Alternativ eben ne gute 1080Ti nehmen und 2080 Leistung genießen ;) mit 11Gb VRAM biste ja auch nicht gleich bei Mittelklasse und vor allem geht ne TI gut im OC.. Es wird genug geben, die ne Ti abstoßen..
 
Rockstar85 schrieb:
Du kannst dein Gehalt darauf verwetten dass AMD ihre AI Cores auch weitertreiben wird und auch RT vorantreibt, denn auch AMD hat diese Technik und keiner weiß sorecht ob NCU nur GCN6.0 wird, oder mehr. ne Vega 20 soll ja auch sehr gut in AI werden, wobei ich mich da frage wie AMD das mit GCN so bewerkstelligen kann

Kommt drauf an zu welchem Zeitpunkt AMD hier ins Boot geholt wurde. Der ganze Ablauf ist schlicht anders, hat wenig mit bisherigen Vorgängen in der GPU zu tun.
Sicher wird das nicht von heute auf morgen gehen aber ich denke das wird schneller eingesetzt als DX12. Vorerst wird es so laufen dass es als DX12 oder auch Gameworks RTX Effekt für Schatten / Spiegellungen und Global Illumination eingesetzt werden wird. Ähnlich wie man schon öfters spezifische Methoden auswählen konnte.
Deswegen denke ich dass man durchaus bestehende Engines einfach anpassen kann, ggf sogar ohne DX 12 Zwang. Gameworks RTX. Mal sehen wie das dann qualitativ überzeugt, vermutlich weit krassere Unterschiede als bisher.

Engines werden dabei noch lange die üblichen Implementierungen mitgeben, imho müssen auch bestehende GPU brauchbares Bild zauben können. Diverse DX12 oder Gameworks RTX Effekte gehen dann nur auf entsprechenden Karten.

Man wird als Publisher aber kaum noch Aufwände zb bei Schatten Effekten, Spiegellungen usw betreiben da das das DX12 / RTX von allein korrekt darstellt. Ergo wird sich klassische Grafik nur noch begrenzt weiter entwickeln. Ggf noch die nächsten 2-5 Jahre, während der Raytracing Anteil zunehmen dürfte.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Zurück
Oben