News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

Plumpsklo schrieb:
In Anbetracht der hier wohl aufgerufenen Preise setze ich diese Generation wohl definitiv aus. Ich habe im Mai die 1070Ti von MSI für 399 Euro abgegriffen.

Von einer erst gekauften 1070Ti auf eine 2xxx umzusteigen wäre auch nicht besonders schlau.
Hättest du mehr Leistung benötigt, wäre es eh die 1080 oder 1080Ti (dann eben warten bis sie rauskommt) gekauft.

Und über Mehrwert muss jeder selber wissen, was er braucht oder haben will. Ich dümpel immer noch mit einer R9 270x rum. Für WC3 + LoL reicht das immer noch locker. Ab und zu mal Civ5 - jaaaaa, das spiel braucht gegenüber den anderen beiden mehr Leistung^^.

Ich bin froh, dass es für mich keine guten Games mehr gibt. So reicht meine 4-Kern-CPU´s bis sie stirbt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und BlackPanda
Wowie, die 2080 sieht nicht sehr attraktiv aus.
Da sieht man wie viel schneller die 1080ti ist als die 1080, das geringe Plus an Mehrleistung bei WENIGER VRAM wird viele Leute abschrecken.
Hauptsache NVidia schraubt immer weiter die Preise in die Höhe...
Der Vergleich gegen die nicht aktuelle Top-Karte sondern gegenüber dem direkten Vorgänger hinkt auch sehr stark bei diesem Preis. :rolleyes:


Die Leistung der 2080ti will ich aber in nem Test sehn :D
 
  • Gefällt mir
Reaktionen: fox40phil und Mcr-King
lucky_luke schrieb:
War eigentlich die 1080 bei Erscheinen deutlich schneller als die 980Ti?

Es wäre schön, wenn die 2080 mindestens auf dem Niveau der 1080Ti liegen würde und die 2080Ti in 4K dann wieder rund 30% schneller ist. Dann klappt es vielleicht endlich mit 60fps in 4K.

Sollte die 2080 "nur" gleich schnell sein als eine 1080Ti wäre das eine Enttäuschung für mich
 
Zuletzt bearbeitet:
Wobei das Foto der PNY GeForce RTX 2080 8GB XLR8 Gaming Overclocked Edition Triple Fan nur eine Cad- bzw. eine Inventor-Zeichnung ist.
 
Weiss nicht was ihr mit dem Speicher habt, die Bestückungen sind doch ausreichend. In den nächsten Jahren ist für mich nicht abzusehen, dass die Speichermengen nicht ausreichend sein werden. Ich hab ständig das Afterburner Overlay laufen. Die meisten Spiele kommen kaum auf 8 GB in 4k und Max Detail. Das einzige Spiel, welches in 4k die 11 GB ausgefüllt hat, war das neue Call of Duty. Tomb Raiderschafft es auf etwas über 8 GB. Dir meisten anderen sind zwischen 3 und 6,5 GB.

Man muss ja bedenken, dass DDR6 auch noch teurer und schneller is. Die neue Ti hatvauch noch 21% mehr Shader Einheiten und der Speicher is 27% schneller, bzw mehr Durchsatz. Also die wird schon richtig schnell sein...
 
  • Gefällt mir
Reaktionen: Shadow86, B.L. Swagger, BlackPanda und eine weitere Person
Also ich sehe das ganz entspannt. Von der 1070 ist jede kommende Grafikkarte eine Steigerung. Je nachdem was da am Montag bei rauskommt, werde ich meine Entscheidung treffen. Wenn der Preis nicht zu exorbitant hoch ist bei einer 2080 TI und diese dann "nur" 20% schneller wäre wie eine 1080 TI, würde ich es trotzdem in Erwägung ziehen.
 
Es verdichtet sich und zunehmend wird klar, dass die ganzen "feuchten" Träume nciht wahr werden, die viele hatten. ABer wie man mal wieder angegangen wurde, wenn man darauf hinwies, dass die Speicher wenn überhaupt nur knapp steigen werden, dass die Leistung diesmal keinen großen Sprung machen wird etc. AUßer bei Preis, da hätte es gewaltig steigen müssen. :rolleyes:

Man muss sich wohl damit abfinden, dass immer weniger hier im Board sich auskennen und Gerüchte mit einer gewissen Logik und relaistischem Ansatz hinterfragen können.
 
  • Gefällt mir
Reaktionen: Rockstar85, fox40phil und BlackPanda
Warum schließen alle wegen der 2080Ti darauf, dass Turing schwach ist? Beim Release einer neuen Generation sind die Performance Chips meistens etwas schneller als die alten High End Chips.

Ist wie bei der 780Ti vs 980 oder auch 980Ti und 1080. Die neuen (x)x80 Karten waren meistens ein paar Prozent schneller als das TI Flaggschiff der Vorgeneration. Von daher verstehe ich da das geunke bei Turing nicht. Sieht diesmal wieder so aus.

Die 8-11 GB finde ich okay. Die wenigsten Spiele nutzen das wirklich aus. Selbst in 4K ist die reine GPU Leistung eher der begrenzende Faktor.

Glaube auch nicht, dass die VRAM Anforderungen in der nächsten Zeit groß Steigen werden. Einen Sprung wird es erst wieder bei den neuen Konsolen geben. Und die werden wohl noch mindestens 2 eher 3 Jahre brauchen, bis sie auf den Markt kommen. War vor einigen Jahren auch so. Da die Konsolen (meist die PS4) die Leseplattform in der Entwicklung sind, orientieren sich die Entwickler auch daran. Die PS4 (Pro) hat 8GB. Davon ist ca. 1GB für das OS reserviert und die restlichen 7GB sind dynamisch für RAM und VRAM. In den meisten spielen werden auf der PS4 wohl selten mehr als 4-5,5GB als VRAM genutzt.

Zumal die VRAM Angst eh eher unbegründet sind. Merke ich bei meiner 780Ti. Zumindest fest in Full HD (in vielen Spielen auch in 2K) sind die 3Gb gar nicht so extrem das Problem. Ja man kann nicht immer die maximalen Textursetting wählen, aber da muss man meistens die Unterschiede auch mit der Lupe suchen! Auf dem PC bauen die Entwickler meistens irgendwelche unkompremierten Texturen ein. Diese sehen aber in bewegten Bildern kaum besser als 1-2 Settings darunter aus.

Klar in 4K wird's irgendwann enger, aber das ist halt noch immer eine Nische, selbst mit solchen Grafikkarten zocken die meisten eher auf 1080p @ 144hz oder 1440p.

Mehr Speicher ist immer super, aber wäre jetzt für mich kein generelles KO Kriterium. Kommt ja auch darauf an, wie mit dem Speicher umgegangen wird. (Kompression, wann wird nachgeladen etc.)

Mustis schrieb:
Man muss sich wohl damit abfinden, dass immer weniger hier im Board sich auskennen und Gerüchte mit einer gewissen Logik und relaistischem Ansatz hinterfragen können.

Deine Mutmaßung hat genauso viel Aussagekraft wie die von anderen. Ohne konkrete Preise und Benchmarks ist die Aussage das sich Leistungstechnisch nichts tut und nur die Preise steigen reine Spekulation ohne Grundlage!

Außer beim Speicher herrscht überhaupt keine Klarheit! Rein von den technischen Daten kann man nicht auf die Performance schließen. Keiner weiß was die Architekturanpassungen bringen, wie die realen Taktraten aussehen etc. Z.b. kann Nvidia auch die dx12 schwächen angegangen sein. Falls der geleakte AotS real ist, würde das zumindest dafür sprechen.

Auffällig ist z.b. das die Spreizung zwischen Basis und Turbo. Kann sehr gut sein, dass die GPU sehr hoch boostet, wenn Raytracing und Tensorcores nicht genutzt werden und der Takt z.b. bei RTC Anwendungen deutlich sinkt. Alles Faktoren, die wir bisher nicht kennen. Daher sind irgendwelche Aussagen das die Karten nicht viel schneller werden genauso theoretisch wie die die glauben sie werden viel schneller.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Neo1179, v_ossi, Moriendor und eine weitere Person
valnar77 schrieb:
Zum Thema Troll oder keine Ahnung, der große blaue Prozessorhersteller namens Intel hat auch schonmal versucht mit Larrabee, speziell i.S. Raytracing zu punkten und ist grandios gescheitert. Gut, denen fehlte im (diskreten) Grafikbereich auch die Marktanteile um sowas durchdrücken zu können. Aber da es M$ auch unterstützt, könnte es dieses mal was geben.
Bin gespannt ob AMD auch auf den RT-Zug aufspringen wird.

Also Hairworks mit RT zu vergleichen kann man doch nicht ernst nehmen.
Was Intels Larrabee angeht gibt es so einige Gründe warum sie nicht auf den Markt gekommen sind. Intel selbst sagte die Karten wären enttäuschend gewesen was die Leistung angeht.
Ich denke nicht das wir groß von RT auf der 2080 profitieren werden. Dafür fehlt die Software und in 2 bis 3 Jahren schreit kein Hahn mehr nach der RT-Leistung der 2080 wenn wir die 2280 haben.
Ich sehe es so: Wenn sich Turing weit verbreitet eröffnet es Devs vielleicht die Möglichkeit bald etwas mit RT zu machen.
 
  • Gefällt mir
Reaktionen: Acedia23 und B.L. Swagger
Tja, schlimmer wird es dann bei den für viele interessanteren Turing GPUs darunter, ob eine RTX 2070 tatsächlich nur gemunkelte 7 GB GDDR6 bekommen wird und eine GTX 2060 gar nur 5 GB?

Das wären dann richtig bittere Speichermengenrückschritte (die ich als Kunde nicht hinnehmen wollen würde, da teurer bei noch weiter bewusst verkürztem Nutzungspotenzial) und die bewussten " Verkrüppelungen" dürften irgendwann/in nicht allzu ferner Zukunft "weh tun", denn wer kauft denn jetzt noch freiwillig eine GPU mit weniger als 8 GB?

Das sowie der voraussichtlich ungewõhnlich frühe Marktstart einer RTX 2080Ti (weil die RTX2080 relativ schwachbrüstig im Vergleich zur dann alten GTX 1080TI ausfallen dürfte) deutet auf die Möglichkeit hin, dass in 2019 nVidia die gleiche Architektur als Refresh in 7nm gefertigt (evt. dann auch mit mehr Speicher) anbieten könnte (in Anlehnung an Kepler-Zeiten, nur dass der Refresh bedeutend stärker ausfallen dürfte in Turing).

Mein Rat daher, erst einmal abwarten womit AMD/RTG in 2019 (Navi) aufschlägt und sicher gehen, dass man nicht mit einem 7nm Turing Refresh im kommenden Jahr angeschmiert wird ;).

Raytracing-Highlight-Features sind bis auf eine Handvoll künstlich zum Marktstart vermutlich feilgebotene Einzelbeispiele erst einmal (in den meisten kommenden Spielen) für die Katz', da nicht ausreichend etabliert.

Also am besten nicht vom absehbaren Hype des nVidia Marketings und wohlwollender/trendsettender Fachpresse (und deren Testartikeln) anstecken lassen und einen kühlen Kopf bewahren :).
 
  • Gefällt mir
Reaktionen: fox40phil
Sehe ich das auf den PNY Charts richtig, dass die beiden Karten nur HDMI 2.0b unterstützen? Die Turing Generation supported also kein HDMI 2.1??? Das wäre echt enttäuschend:(
 
  • Gefällt mir
Reaktionen: MeisterOek, fox40phil, Iscaran und eine weitere Person
guillome schrieb:
@Shoryuken94
Die 980Ti wurde nicht nur um ein paar Punkte von der 1080 übertroffen sondern schon was
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/
~15% zu den Customs

Also für mich war es abzusehen, dass dies nicht der Fall sein dürfte. Also von 2080 zu 1080 Ti. Dafür war die letzte Generation schon ziemlich Hardcore. Also was Shadereinheiten, Ram und deren Takte angeht. Bin nun recht froh über die Wahl zur 1080 Ti für 4k, die 7 Monate wollte ich nicht mehr warten (von Februar bis September).

Aber ich schätze, die 2080 Ti wird die 1080Ti schon um ca 35% übertrumpfen können. Vor allem in den hohen Auflösungen. Da machen sich Shadereinheiten und schnellerer RAM bezahlt (Auslastung).
 
Mustis schrieb:
Es verdichtet sich und zunehmend wird klar, dass die ganzen "feuchten" Träume nciht wahr werden, die viele hatten. ABer wie man mal wieder angegangen wurde, wenn man darauf hinwies, dass die Speicher wenn überhaupt nur knapp steigen werden, dass die Leistung diesmal keinen großen Sprung machen wird etc. AUßer bei Preis, da hätte es gewaltig steigen müssen. :rolleyes:

Man muss sich wohl damit abfinden, dass immer weniger hier im Board sich auskennen und Gerüchte mit einer gewissen Logik und relaistischem Ansatz hinterfragen können.

War doch eh klar da die 12nm nur ein verbesserter 16nm Prozess sind, wo sollen da denn 50%+ Leistung her kommen wenn der Chip gerade mal 20% mehr Shader hat?

980 und 1080 war auch nur ein so großer Sprung da es von 28nm auf 16nm ging... ist ne komplett andere Hausnummer als bei dem Wechsel der jetzt ansteht.
 
Fanboy: "Sch..ß AMD! Warum schlafen die... Ich will meine Ti billiger kaufen können!":heul:
In dieser Art bei jeder der letzten Generationen so gewesen.
 
  • Gefällt mir
Reaktionen: Mcr-King, Acedia23, cbmik und 9 andere
Ich persönlich finde ja, dass das alles trotzdem sehr spannend ist und freue mich schon auf die ersten Benchmarks. Wenigstens gibt es dank 4k nun auch mal wieder einen Bereich, wo sich mehr Performance auch wirklich lohnt. Was bringen einem denn 200fps in Full HD - jedenfalls mir reichen 60fps zum Spielen. 4k ist dagegen optisch ein extremer Zugewinn an Qualität.

Eigentlich wie vor 20 Jahren, als wir von VGA auf SVGA gewechselt sind, und uns über jedes einzelne FPS mehr gefreut haben :-)
 
  • Gefällt mir
Reaktionen: Transistor 22
Benji21 schrieb:
980 und 1080 war auch nur ein so großer Sprung da es von 28nm auf 16nm ging... ist ne komplett andere Hausnummer als bei dem Wechsel der jetzt ansteht.

Wenn nvidia leistungstechnisch enttaeuscht, ist mir eigentlich ziemlich egal warum.
 
  • Gefällt mir
Reaktionen: Mcr-King und Benji21
Hmm, wie kommen hier viele auf 1000€ Kosten bei der 2080Ti? Wenn man nicht in der Hälfte aufhört zu lesen, dann sagt der Satz doch praktisch 100€ mehr als die 1080Ti, also eher 799€ ? Nur das PNY eben Mondpreise in deren Shop hat.

die übertaktete 2080 Ti soll 1.000 US-Dollar im eigenen Webshop kosten. Zum Vergleich: Die GTX 1080 kostet dort 699 US-Dollar, die 1080 Ti 899 US-Dollar.

Die Steigerungen sehen allerdings wirklich eher schwach aus. Sieht eher danach aus, dass man so 30% schaffen wird je Chip und die 2080 dann etwa auf 1080Ti Niveau landet.
 
Zurück
Oben