News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

SKu schrieb:
Battlefield (Frostbite) wird mit Sicherheit Hybrid-Raytracing nutzen
Tomb Raider von Square Enix wird auch auf den Zug aufspringen
Assasins Creed auch durchaus vorstellbar
Metro Exodus ebenso
Anthem auch vorstellbar
The Division 2 auch ein Titel dafür

Würde mich nicht wundern, wenn auf der Gamescom eine ganze Palette an Titeln genannt wird, die allesamt Raytracing als Option besitzen werden.

Die beiden Ubisoft-Titel nicht unbedingt (AMD-Partnerschaft), die Voraussetzungen für DXR wären mit dem DX12 Support allerdings schon mal geschaffen:

Assassin's Creed: Odyssey https://www.computerbase.de/2018-08/radeon-rx-ac-odyssey-bundle/
...als Highlight Assassin's Creed Odyssey am 5. Oktober – letzteres unterstützt auch DirectX 12 und wird zudem in technischer Zusammenarbeit mit AMD entwickelt.


The Divison 2 http://www.pcgameshardware.de/E3-Ev...on-2-Strange-Brigade-Resident-Evil-2-1258739/
In einer separaten Pressemitteilung verkündet AMD die Partnerschaft mit Ubisoft. Besitzer einer Radeon-Grafikkarten sollen "so mit blitzschneller, optimierter Leistung, höheren Frameraten pro Sekunde und reduzierter Latenzzeit durch DirectX 12 Technologie für The Division 2" ausgestattet werden. AMD verweist darauf, dass man eine "erfolgreiche Partnerschaft" mit Ubisoft fortführe, die bei Far Cry 5 dank Vega-Features wie Rapid Packed Math und Shader Intrinsics zu einer "herausragenden Bildqualität und hohen Frameraten" geführt habe. Ob The Division 2 ebenfalls diese Vega-exklusiven Features bieten wird, geht aus der Pressemitteilung leider nicht (eindeutig) hervor.
 
Hallo zusammen,

@ dominion1

dominion1 schrieb:
Wenn nicht, wird es in jedem Falle eine für mich sehr unbefriedigende Lösung. Eigentlich möchte ich das alte System nicht mehr aufrüsten, andererseits möchte ich keine Karte kaufen, deren Speichergröße es bereits seit über zwei Jahren zu kaufen gibt.

Wenn ich du wäre, würde ich mein System Punkt für Punkt, je nach Erfodernis Aufrüsten. Und da du noch wirklich gute Komponenten hast, würdest du nicht nur erheblich Profitieren davon, sondern auch Geld Einsparen.

Mit einer GTX 1060 kannst du enorm Profitieren, für relativ wenig Geld. Noch dazu ist nicht Unwahrscheinlich, daß die Preise noch stärker Nachgeben. Schon jetzt kannst du z. b. eine Zotac GTX 1060 Amp! relativ günstig Neu bekommen. Die ist für relativ wenig Geld zu kriegen, dazu 5 Jahre Garantie und eines der leisesten Custom Modelle. Nach der MSI Geforce GTX 1060 Gaming X das mit Abstand leiseste Custom Modell.

Wenn du dann noch hingehst und dir eine Gute SSD wie die Samsung Evo 970 mit 500 Gbyte holst, bist du mit 2 Hardwareeingriffen für Full HD wieder bestens gerüstet. Und dies sogar für das ein oder andere nächste Jahr. Das gesparte Geld würde ich auf die Seite Legen und dann zum Einsatz Bringen, wenn eine wirklich für deine Bedürfnisse und Persönlichen Ansprüche lohnende Grafikkarte zu Haben ist.

So long....
 
Freiheraus schrieb:
Die beiden Ubisoft-Titel nicht unbedingt (AMD-Partnerschaft), die Voraussetzungen für DXR wären mit dem DX12 Support allerdings schon mal geschaffen:

AMD sitzt genauso im RT-Boot wie NVIDIA und Microsoft auch. Da spricht nichts dagegen und wie wir alle wissen performen die älteren NVIDIA-Karten unter DX12 schlechter als unter DX11.
 
Also der "Leak" ist ja mal sowas von unrealistisch, wenn die Karte so kommt fress ich nen Besen.
Die Karte wäre zum einen der übelste Speicherkrüppel aller Zeiten (ich glaube das gabs noch nie, dass ne Nachfolgergeneration weniger Speicher hatte als der Vorgänger) und zum anderen wäre dann der Leistungssprung so groß wie zwischen Maxwell und Pascal. Dies wird hier aber von vielen Leuten aus guten Gründen bezweifelt.

Wenn ne Karte mit mehr als 50% zu meiner 1080 kommt (vlt ne 2080ti?) und zudem mehr VRAM hat und nicht übertrieben teuer wird (1k ist übertrieben teuer für mich) überleg ichs mir mal.
Hoffentlich setzt sich Raytracing schnell durch, ich hab die immergleiche Grafik und Bildqualität seit 2013 satt
 
dominion1 schrieb:
@darthbermel @stoneeh

Gerade jetzt war ein neues System geplant, welches wieder für ~ 8 Jahre durchhalten sollte.
Da hatte ich mir 16 GB bei der 2080TI erhofft, da in Zukunft die Spiele durchaus speicherhungriger werden dürften. Dann hätte ich jetzt mein System in wenigen Wochen kaufen können.

Die VRam-Größe muss in erster Linie zur Rechenleistung des Chips passen. Zukunfts-Überlegungen die rein auf der Anzahl der Gigabytes basieren sind nicht zielführend. Plausible Annahme: Wenn in 4-5 Jahren die 8/11GB (z.B. für 1440p/4k) nicht mehr ausreichen, muss sowieso aufgrund der fehlenden Rohleistung eine Auflösungs- bzw. Detailstufe zurückgeschaltet werden.

Dass zukünftige Spiele sozusagen "asynchron" deutlich mehr Hunger nach Speicher als nach Rechenleistung entwickeln, ist nicht wirklich anzunehmen.

Ich halte die Speicherbestückung für sinnvoll gewählt. Sie befriedigt lediglich unser subjektives Gefühl, dass es immer mehr mehr mehr sein muss nicht.
 
Lors schrieb:
Das ist meiner Meinung nach ein Fake, aus 2 Gründen:
Erstens wird die neue Turing Grafikkarte wohl auch eine RTX 2060 sein und nicht eine GTX 2060! Ich habe zumindest bisher nirgendwo lesen können, das der Nachfolger der GTX 1060 3/6GB eine GTX 2060 ohne Raytracing wird, sollte das so sein, dann wird es wohl auch keine RTX 2070 sondern eine GTX 2070 ohne Raytracing geben und vermutlich dann mit 7GB VRam!

Und wie man auf eine GTX 2060 mit 5GB VRam kommt, kann ich mir nur so erklären, es gibt ja eine GTX 1060 mit 3 und 6GB VRam und man hat hier einfach einen Mittelwert genommen und aus diesen beiden dann eine GTX 2060 mit 5GB VRam gemacht!

Also sprechen eigentlich zwei Faktoren gegen eine solche Turing Grafikkarte wie in dem Link eine GTX 2060 5GB VRam! Und wenn die Turing Serie sich durch Raytracing auszeichnet, warum sollte dies dann GTX 2060 dieses Feature nicht bekommen?

Ich bin hier auch kein Experte auf dem Gebiet, aber es klingt für mich nicht Logisch, es sei denn, Raytracing würde auf einer 2060 keinen Sinn machen aus leistungstechnischen Gründen. Aber das kann ich mir eigentlich nicht vorstellen!
 
Oneplusfan schrieb:
Die Karte wäre zum einen der übelste Speicherkrüppel aller Zeiten (ich glaube das gabs noch nie, dass ne Nachfolgergeneration weniger Speicher hatte als der Vorgänger)

Könnte gut möglich sein, dass aufgrund höherer Speicherpreise hier anders entschieden worden ist, zumal die Speicherbandbreite auch zunimmt. Nur weil mal irgendein Titel viel Speicher frisst, heißt das nicht automatisch, dass die Entwickler effizient gearbeitet haben. Bei den großen Titeln, da schluckt kaum einer viel VRAM.
 
  • Gefällt mir
Reaktionen: dideldei und KuroSamurai117
Freu mich dann schon auf Montag, damit das Rätselraten ein Ende hat..
 
  • Gefällt mir
Reaktionen: cryoman
SKu schrieb:
Könnte gut möglich sein, dass aufgrund höherer Speicherpreise hier anders entschieden worden ist, zumal die Speicherbandbreite auch zunimmt. Nur weil mal irgendein Titel viel Speicher frisst, heißt das nicht automatisch, dass die Entwickler effizient gearbeitet haben. Bei den großen Titeln, da schluckt kaum einer viel VRAM.

Klar, mir wäre auch lieber, dass sich alle ein Vorbild an Witcher oder der BF Reihe nehmen, sowohl was den Speicherbedarf als auch die Performance an sich angeht.
Aber leider werden die meisten Spiele beschissen optimiert, brauchen zu viel Vram, sehen dabei noch scheiße aus usw.
Wenn ich halt eins dieser Spiele zocken will, dann muss sich leider die Hardware danach richten und nicht andersherum.

Und 5GB bei der Leistung einer 1080? Das wäre mal eindeutig viel zu wenig. Selbst 6GB würde ich persönlich bei der Leistung nicht haben wollen.
Ich denke die 5GB kann man guten Gewissens als komisches Gerücht abtun.
 
Taxxor schrieb:
Es gibt auch eine GTX1060 mit 5GB VRAM
Echt, Ups die ist mir irgendwie entgangen, war bestimmt so ein Nachrelease wie die GTX 1070Ti!

Also mit diesen krummen VRam Zahlen kommt man aber auch wirklich völlig durcheinander. Aber warum sollte der Nachfolger der GTX 1060 dann eine Turing Grafikkarte als GTX 2060 sein? Das würde mir sofort suggerieren, das diese Turing Grafikkarte kein Raytracing kann, sonst müsste diese doch auch eine RTX 2060 sein?

Also auf Videocardz finden sich keinerlei Informationen oder Abbildungen zu einer RTX 2070 oder 2060, von daher glaube ich das mit einer GTX 2060 noch nicht!
 
  • Gefällt mir
Reaktionen: CBL
Lors schrieb:

Erst letzte woche fragte ich was ist wenn.... Und hier ist es. :)
Naja, eine 1060 ist auch fast so schnell wie eine GTX 980. Ich glaube es könnte stimmen. 5 GB RAM hätten mir ebenfalls gereicht. Sowas ähnliches brauche ich für meinen Dan A4 Build.

Und ihr habt vermutlich recht. Diese einsteiger Turing Karte kann wahrscheinlich kein RT. Sie soll ja auch günstig sein.
 
@HerrRossi
Beim Monitor bin ich mir noch nicht ganz schlüssig. Ich bin deshalb noch so lange mit meiner GTX570 (1,2 GB VRAM) ausgekommen, weil ich hier noch hinter einem 22" HD-Ready (1600x1200) rumdümple :D. Dieses Gespann packt sogar noch so manches aktuelle Spiel.
Meine bisherige Vorgehesweise war immer die, um eine gewisse Langlebigkeit des Systems zu gewährleisten, nicht das aktuelle Maximum zu kaufen.
Nun möchte ich jedoch einiges in den neuen Monitor investieren (bis 1.500 € hatte ich dafür eingeplant). Und da ich die Erkenntnis gewonnen habe, dass ich sowieso nur in sehr langen Zeitabständen neue Monitore kaufe, würde ich eher zu UHD tendieren.

Aber meine Erfahrungswerte, bei einer so langen geplanten Nutzungsdauer den aktuellen Standard zu verdoppeln, habe ich nicht aus der Luft gegriffen. Diese Strategie hat sich bewährt.

Darüber hinaus, das möchte ich frei zugeben, haben die vorab-Spekulationen und Gerüchte, die immer mal wieder zu lesen waren, mich dazu verleitet, auf die 16GB-TI-Variante zu hoffen, von der ständig die Rede war.

Was den "Quantensprung" angeht, da hast Du natürlich sowas von recht! :D


@Luxmanl525
Erstmal vielen Dank für Deine Einschätzung. :daumen:
Das Problem ist einfach, dass mir mein alter 22" 1600x1200 so langsam aber sicher einfach nicht mehr ausreicht. Und das stellt mich vor schwierige und vor allem unbefriedigende Entscheidungen.

Unbefriedigend zum einen aufgrund der hier im Thread releasten Specs der neuen TI, zum anderen, weil es einen Monitor, wie ich ihn gerne hätte, ganz einfach nicht gibt, und zwar egal ob nun UHD oder sogar nur WQXGA und egal zu welchem Preis.

Der i7-920 ist tatsächlich eine noch recht akzeptable CPU, da hast Du völlig recht. Obwohl ~ 10 Jahre alt, ist die 1366-Plattform noch recht brauchbar.
Und mir ist durchaus bewusst, dass ich das System mit den erwähnten Upgrades noch einige Zeit benutzen könnte. Danke an dieser Stelle noch einmal für Deine Einschätzung.

Aber so langsam soll mal ein neuer Monitor her, und ich würde sehr ungerne eine Zwischenlösung akzeptieren (wie zB einen FullHD-Monitor gebraucht kaufen für kleines Geld).

Budget habe ich genug, aber in der letzten Zeit werden mir immer wieder Steine in den Weg geworfen, weil es das, was ich haben will (zB eine RTX2080TI mit 16 GB VRAM) nicht gibt. :mad:
 
CBL schrieb:
Aha. AMD mit einem Bundle aus GPU, Wakü und ner 2000W PSU. :D

Nana, wir reden von AMD, nicht von intel wos ne 2kw chiller brauch zum kühlen :D
 
  • Gefällt mir
Reaktionen: Hill Ridge und CBL
Eine 2060 wird eben eine günstige Alternative zu den RTX-Karten darstellen. Die muss kein RT können, ist wahrscheinlich eh zu schwach auf der Brust. Dann lieber die Brot und Butter Karte auf Effizienz trimmen und gut ist.
 
  • Gefällt mir
Reaktionen: CBL
Zurück
Oben