News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

CBL schrieb:
Und ihr habt vermutlich recht. Diese einsteiger Turing Karte kann wahrscheinlich kein RT. Sie soll ja auch günstig sein.
Das wäre für mich aber ein absolutes No Go und Ausschlusskriterium! Ich würde mir sowieso keinen Nachfolger der GTX 1060 kaufen, da ich ja jetzt schon eine GTX 1070 habe, aber wenn diese dann wirklich als Einsteiger Turing Grafikkarte nicht auch das Feature Raytracing hat, dann wird man ja von Vornherein schon zweimal beschnitten, weniger VRam mit 5GB und das Markenzeichen der neuen Turing Serie Raytracing nicht implementiert. Somit wäre man nur noch Nvidia Kunde zweiter Wahl!
 
  • Gefällt mir
Reaktionen: BacShea und CBL
Lors schrieb:

Denke wie gesagt dass das die eigentlich gut laufende Karte wird da sie anders als bisher auch auf dem 2. größten Chip, dem 104er basiert. Denke aber beim RAM werden es durch das gestutze SI nur 5GB sein, aber für FHD eine ziemlich runde Karte. Sehr viel Chipleistung für ne 1060 aber vermutlich auch iwo bei 400 Euro.
 
WOW !!! Raytracing in Spielen !!! Wird wohl nicht kommen!!! Schon vor 10 Jahren hatte Intel die tolle Idee, und draus geworden ist nichts.

Hier mal Quake4 komplett von 2007 mit raytracing!

http://www.q4rt.de/
 
  • Gefällt mir
Reaktionen: Rockstar85
CBL schrieb:
Und ihr habt vermutlich recht. Diese einsteiger Turing Karte kann wahrscheinlich kein RT. Sie soll ja auch günstig sein.
Das wiederum glaub ich nicht. Wenn Nvidia das RTX am Markt platzieren will muss die kleine Karte ( so klein ist sie ja wohl auch nicht) das Raytracing auch beherrschen, ggf sogar genauso stark darin sein wie die größeren Karten dass es überhaupt sinnvoll läuft.

Ggf wird deswegen die 2060 sogar recht unüblich schnell und bezahlbar, das ist vermutlich auch die meistgekaufteste Karte.
 
  • Gefällt mir
Reaktionen: Luxmanl525 und CBL
@Zotac2012
Also für mich ist die TDP entscheidend. 120W Karte mit Leistung einer 1080 ist genau was ich suche. Und es ist möglich, dass NV eine GTX 2060 mit mehr RAM anbietet. Ausgeschlossen ist es ja nicht. RT brauche ich erstmal nicht. Wenn es soweit ist, werde ich sowieso eine neue Karte kaufen. Ist aber alles Zukunftsmusik.
 
nebulus schrieb:
Schon vor 10 Jahren hatte Intel die tolle Idee, und draus geworden ist nichts

Raytracing ist uralt, aber es war nie sinnvoll in Realtime möglich. Auch die neuen RTX können das nicht.
Die eigentliche Innovation besteht darin nur sehr sparsam zu raytracen und das Bild über AI zu entrauschen. Dadurch spart man sich vermutlich 99% Raytrace Rechenleistung. Dazu wurden hier auch Nvidia unabhängige Videos gepostet die durchaus beeindrucken. Die Karte macht das nun eben aus einem Mix. Tensor Cluster das mit hinterlegten Deep Learning Modell (vermutlich über Treiber) den EntrauschungsAlgo anwendet (wäre auf CPU zu fordernd). Die Raytracing Einheiten sorgen für schnelle Strahlen Berechnung (aber lange nicht genug um ohne das Entrauschen auszukommen). Die bestehenden GPU Shader sorgen für den ganzen Rest in legen das normal gerenderte Bild über Raytracing Material bzw andersrum.

@CBL

Wirkliche Effizienz Steigerung erwarte ich erst mit 7nm. Mal schaun was da Nvidia aktuell hinbekommen hat aber würde nicht zu viel erwarten.
 
  • Gefällt mir
Reaktionen: yummycandy
Glaubt Ihr eigentlich, das CB schon Samples der neuen RTX Serie haben und am Montag oder Dienstag mit ersten Reviews und Benchmarks zu den neuen Modellen veröffentlicht?
 
dominion1 schrieb:
Und da ich die Erkenntnis gewonnen habe, dass ich sowieso nur in sehr langen Zeitabständen neue Monitore kaufe, würde ich eher zu UHD tendieren.
Bei UHD wird auch keine 2080 ti mit 16GB reichen, um durchgehend Minimum 60fps in allen aktuellen Spielen auf mindestens "hoch" zu erreichen. Die Rechenleistung ist noch zu gering, als dass sich fehlender Speicher negativ bemerkbar machen würde. Mit einer 1060 wirst du in UHD aber ganz sicher keinen Spaß haben, da fand ich meine alte 1070 schon deutlich zu lahm.
Ich rechne damit, nach der 2080 ti noch zwei Generationen aufrüsten muss, um o.g. Ziel zu erreichen.
 
milliardo schrieb:
Die VRam-Größe muss in erster Linie zur Rechenleistung des Chips passen. Zukunfts-Überlegungen die rein auf der Anzahl der Gigabytes basieren sind nicht zielführend. Plausible Annahme: Wenn in 4-5 Jahren die 8/11GB (z.B. für 1440p/4k) nicht mehr ausreichen, muss sowieso aufgrund der fehlenden Rohleistung eine Auflösungs- bzw. Detailstufe zurückgeschaltet werden.

Du hast natürlich insoweit recht, als dass es unsinnig wäre, allein auf die Größe des VRAMs zu schielen und danach die Güte einer Grafikkarte zu bemessen.
Da sind wir uns völlig einig.
Wenn jedoch die deutlich unterlegene 1080TI vollumfänglich mit ihren 11GB VRAM umgehen kann, wäre eine 2080TI zu mehr fähig.
Falls das Speicherinterface verbreitert wurde sogar zu erheblich mehr.

Meine Vorstellung der Entwicklung als RPG-Spieler geht dahin, dass immer größere Open-World-Spiele mit immer mehr grafischem Detailreichtum, besserer Physik und besserem Storage kommen werden. Und dies über den Zeitraum von ~ 8 Jahren kalkuliert, sollte man besser deutliche VRAM-Reserven haben. Vor allem wenn man UHD so lange wie möglich machbar halten möchte.

Dass zukünftige Spiele sozusagen "asynchron" deutlich mehr Hunger nach Speicher als nach Rechenleistung entwickeln, ist nicht wirklich anzunehmen.

Das kommt dann darauf an, welches Genre von Spielen Du präferierst. Nicht alle benötigen Unmengen an VRAM.
Andere hingegen benötigen prinzipiell mehr.
 
Krautmaster schrieb:
Ggf wird deswegen die 2060 sogar recht unüblich schnell und bezahlbar, das ist vermutlich auch die meistgekaufteste Karte.

Na umso besser. Ich drück jedenfalls die Daumen und hoffe, dass die Karte wirklich so schnell ist.

Zotac2012 schrieb:
Glaubt Ihr eigentlich, das CB schon Samples der neuen RTX Serie haben und am Montag oder Dienstag mit ersten Reviews und Benchmarks zu den neuen Modellen veröffentlicht?

Karte haben = Ja!!! Review = Maulkorb :)
 
  • Gefällt mir
Reaktionen: Zotac2012
SKu schrieb:
Denke, die nächsten Blockbuster Titel werden alle auf irgendeine Art und Weise Raytracing mit an Board haben.

-Tomb Raider
-Battlefield
-Assasins Creed
-Metro Exodus
-Anthem
-The Division 2
-usw.
sicher nicht, alles Konsolen games welche fast fertig entwickelt sind.
 
  • Gefällt mir
Reaktionen: CBL
@HerrRossi
Natürlich hält selbst eine 2080TI mit 16GB VRAM nicht über einen so langen Zeitraum den maximalen Anforderungen stand, das ist mir völlig klar. Nicht mal ansatzweise würde ich sogar sagen.

In solchen Fällen würde ich daher die Auflösung im Spiel einfach herabsetzen. Ohne Kompromisse kann man eine Graka nicht so lange nutzen, wie ich es tue ;).
 
Hipvip schrieb:
sicher nicht, alles Konsolen games welche fast fertig entwickelt sind.
Final Fantasy XV war auch für die Konsolen fertig entwickelt und hat bei der PC Version Grafikupdates durch die Kooperation mit Nvidia verpasst bekommen.

PC Games haben schon immer spezielle Ultraeinstellungen gehabt die nicht in der Konsolenfassung drin waren. Manche fressen so viel Leistung dass selbst eine Titan einknickt.
Dass man bei PC Spielen nie etwas Neues ausprobiert (was oft erst eine Gen später vernüftig rennt) kann mir da keiner erzählen. Rise of the Tomb Raider hat neben DX12 Support auch VXAO nachträglich bekommen.
 
Metro, Bf und Tomb Raider werden sicherlich Raytracing haben, von Metro gibts sogar ne demo, die anderen sind in Nvidias "Programm" BeForTheGame.
Diese 3 werden mit ziemlicher Sicherheit die Vorzeigespiele werden.

Bei Tomb Raider wird aber dann wsl auf 3D Support verzichtet, zumal das eh nur mit DX11 laufen würde... und kein 3D = kein Kauf für mich
 
Captain-S schrieb:
Äh nein, das wurde in Echtzeit gerendert mit 24 FPS.
Mag sein... witzig ist nur, dass ich in 20 Jahren PC-Games, dauernd "Super-Dupa-Videos" sah... und was war dann Phase? - Eben, "ein wenig besser"... und was interessiert es irgendeine Sau, ob das Video in Echtzeit gerendert wurde????

So wird kein Spiel(Gameplay) in den nächsten 5 Jahren aussehen, dafür leg ich meine Hand für ins Feuer - das ist Show und Marketing, mehr nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Luxmanl525 und nebulus
dominion1 schrieb:
Du hast natürlich insoweit recht, als dass es unsinnig wäre, allein auf die Größe des VRAMs zu schielen und danach die Güte einer Grafikkarte zu bemessen.
Da sind wir uns völlig einig.
Wenn jedoch die deutlich unterlegene 1080TI vollumfänglich mit ihren 11GB VRAM umgehen kann, wäre eine 2080TI zu mehr fähig.
Falls das Speicherinterface verbreitert wurde sogar zu erheblich mehr.

Meine Vorstellung der Entwicklung als RPG-Spieler geht dahin, dass immer größere Open-World-Spiele mit immer mehr grafischem Detailreichtum, besserer Physik und besserem Storage kommen werden. Und dies über den Zeitraum von ~ 8 Jahren kalkuliert, sollte man besser deutliche VRAM-Reserven haben. Vor allem wenn man UHD so lange wie möglich machbar halten möchte.

Die Bedenken kann ich wiederum durchaus auch verstehen. Ist schwer abzuschätzen, ob die Speicherbestückung in einigen Jahren doch einen deutlichen Flaschenhals darstellen wird, oder eher die Rechenleistung, oder - wie in der Vergangenheit meistens - beides.

Könnte mir vorstellen, dass Nvidia relativ zeitnah noch Modelle mit mehr Speicher nachschiebt, vielleicht musst du da gar nicht lange warten. Wenn der Markt nach Speicher verlangt wird Nvidia (im Verlangen nach Geld) nicht lange nein sagen.
 
  • Gefällt mir
Reaktionen: Dominion
@milliardo
Danke, dass Du mir Mut machst. ;)

Ja, Du hast es richtig erkannt, die nähere zukünftliche Entwicklung innerhalb der Genres ist abschätzbar. Und deshalb liegt die Befürchtung, dass sich der VRAM in manchen Genres doch recht schnell zum Flaschenhals entwickeln könnte, doch recht nahe.

Vor allem, da vermutlich bei der nächsten Graka-Generation mit erheblichen Sprüngen beim VRAM gerechnet werden kann, und sich sämtliche Entwickler genau darauf einstellen werden.
 
Was wirklich weiter bringen würde wenn man kein HBM 2 verwenden mag das währe mal ein 512 Bit Bus in Kombination mit 16 GB Ram aber ne nur Facelift letzlich ..........
 
Zurück
Oben