News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

Ich gehe anhand der Specs davon aus, dass die 2080 ti ungefähr so schnell sein wird wie die Titan V, wie das dann aussieht, kann man hier nachlesen: https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/ Evtl. ist dank besserer Treiber auch noch mehr Leistung drin. Da könnte auch der ein oder andere 1080ti-Besitzer schwach werden.
 
Bin mal gespannt ob die neue Shaderanordnung noch was rausholt, sonst sieht die 2000er Serie echt langweilig aus.
 
sleuftdude schrieb:
Das wird sich sicherlich bei der nächsten Gen ändern -> Wireless und so =)

Mit Akku, oder wie?

Na, ob das dann wirklich so praktisch wäre. Erhöht ja schließlich auch das Gewicht.

Also bei der Rift braucht man zwar keine "Steckdose", dafür aber en masse USB Ports (für die Brille und die Steuerungseinheit) --> 3x USB 3.0 und 1x USB 2.0. (Dann noch Maus und Tastatur dazu.)

Ich habe hinten jetzt nur noch USB 3.1 frei...


Somit finde ich es auf jeden Fall nett, dass NVIDIA da jetzt so einen MUFU-Port spendiert. :D

Aber kaufen werde ich mir wohl trotzdem keine der Karten.

4K ist für mich auch erst interessant, wenn ich es vernünftig mit ner Karte um die 500€ zocken kann (Monitor müsste ja auch noch her). Ansonsten bleibe ich bei FullHD und da reicht mir meine Karte eigentlich.
 
Zuletzt bearbeitet:
Zock schrieb:
Schade das es nicht einfach eine Beschleunigerkarte geben wird ähnlich PhysX das auch läute die keine neue Grafikarte kaufen wollen RTX in Hardware benutzen können aber ist ja klar NVidia will neue Grafikarten verkaufen und keine alten aufwerten.

Bis sich Raytracing durchsetzt, sind die meisten alten Grafikkarten eh zu langsam. Ob eine Zusatzkarte für jede Funktion sinnvoll ist, ich weiß ja nicht. Physix hat auch mit Zusatzkarte selten wirklich Sinn gemacht. Der Kundenkreis wäre wohl eher klein. Marktwirtschaft macht es wohl wenig Sinn. Evtl kann man ja wie bei Physx ja eine zweite GPU als reine Raytracing Karte nutzen, glaube ich aber nicht.

Raytracing ist im Gegensatz zu PhysX Teil von DirecX12. Die Auslagerung auf eine andere Karte ist wohl nicht so einfach.
 
Mal über den Tellerrand blicken und bewusst machen, dass NVIDIA mit Turing die erste Raytracing Platform im Consumer Markt anbieten wird. An dem Projekt hat nicht nur NVIDIA alleine gearbeitet, sondern auch Microsoft ist da schon länger involviert und arbeitet mit den Spieleentwicklern zusammen. Da Raytracing Teil der DX12 API ist und diese bisher nur stiefmütterlich behandelt wurde, will man bestimmt auch DX12 an sich zum Durchbruch verhelfen. Auch AMD sitzt da mit im Boot.

Mal gucken ob ich mich irre aber ich gehe stark davon aus, dass NVIDIA am Montag hier eine Palette an Games präsentieren wird, die alle samt Raytracing inkludieren und Battlefield wird mit Sicherheit ein Spiel davon sein. Gefolgt von anderen Spielen auf Basis der Unreal Engine, Ubisofts AnvilNext und Snow Drop Engine, usw. Und genau da wird man dann das Leistungsplus zum Vorgänger sehen können, weil Turing Teil der Raytracing Platform für Consumer sein wird.
 
  • Gefällt mir
Reaktionen: DefconDev und poly123
Edit; wird gleich der text eingefügt, aber mit dem smartfön isses ätzend
 
Okay Leute.. irgendwie ging das jetzt leider an mir vorbei.. warum heißen die Karten jetzt nochmal RTX statt GTX? :/
 
  • Gefällt mir
Reaktionen: BlackPanda
HerrRossi schrieb:
Da könnte auch der ein oder andere 1080ti-Besitzer schwach werden.

Wegen 25% Mehrleistung? Sicher nicht. Falls es so kommt fände ich das eher entäuschend hatte auf einen sehr viel höheren Sprung nach immerhin 2 Jahren gehofft. Naja dann eben überspringen und auf 7nm warten.
 
Zuletzt bearbeitet:
Ulukay schrieb:
Die 1080Ti ist normalerweise 50% schneller als die 980Ti, teilweise mehr.
Wenn die 2080Ti nur 20% schneller ist, ists ein Rohrkrepierer, der sich nur ueber Raytracing Cores und Marketing Geplaerre verkaufen wird.
Da ging aber auch ein Wechsel von 28nm auf 16nm einher. Solche Steigerungen kann man nur bei solche großen Wechseln der Strukturgröße erwarten.
 
  • Gefällt mir
Reaktionen: stoneeh
SKu schrieb:
Mal über den Tellerrand blicken und bewusst machen, dass NVIDIA mit Turing die erste Raytracing Platform im Consumer Markt anbieten wird. An dem Projekt hat nicht nur NVIDIA alleine gearbeitet, sondern auch Microsoft ist da schon länger involviert und arbeitet mit den Spieleentwicklern zusammen. Da Raytracing Teil der DX12 API ist und diese bisher nur stiefmütterlich behandelt wurde, will man bestimmt auch DX12 an sich zum Durchbruch verhelfen. Auch AMD sitzt da mit im Boot.

Mal gucken ob ich mich irre aber ich gehe stark davon aus, dass NVIDIA am Montag hier eine Palette an Games präsentieren wird, die alle samt Raytracing inkludieren und Battlefield wird mit Sicherheit ein Spiel davon sein. Gefolgt von anderen Spielen auf Basis der Unreal Engine, Ubisofts AnvilNext und Snow Drop Engine, usw. Und genau da wird man dann das Leistungsplus zum Vorgänger sehen können, weil Turing Teil der Raytracing Platform für Consumer sein wird.

Naja dazu müssen die Leute sich aber neue Karten kaufen und die Spiele DX12 haben. Aktuell eher fragwürdig. Die Karten sind Teilweise, Mining lässt grüssen, einfach noch zu Teuer. Ich denke so lange die Preise nicht wieder fallen wird da nicht viel passieren.
 
SKu schrieb:
Mal über den Tellerrand blicken und bewusst machen, dass NVIDIA mit Turing die erste Raytracing Platform im Consumer Markt anbieten wird. An dem Projekt hat nicht nur NVIDIA alleine gearbeitet, sondern auch Microsoft ist da schon länger involviert und arbeitet mit den Spieleentwicklern zusammen. Da Raytracing Teil der DX12 API ist und diese bisher nur stiefmütterlich behandelt wurde, will man bestimmt auch DX12 an sich zum Durchbruch verhelfen. Auch AMD sitzt da mit im Boot.

Mal gucken ob ich mich irre aber ich gehe stark davon aus, dass NVIDIA am Montag hier eine Palette an Games präsentieren wird, die alle samt Raytracing inkludieren und Battlefield wird mit Sicherheit ein Spiel davon sein. Gefolgt von anderen Spielen auf Basis der Unreal Engine, Ubisofts AnvilNext und Snow Drop Engine, usw. Und genau da wird man dann das Leistungsplus zum Vorgänger sehen können, weil Turing Teil der Raytracing Platform für Consumer sein wird.
Wenn Raytracing genauso genial implementiert bzw hingepfuscht wird wie aktuell DX12, Async Computing und PhysX dann wird das noch gaaaanz lange brauchen bis es zur Relevanz kommt. Bis dahin sind die Karten wohl mind. 5 Jahre alt. Nächstes Jahr kommt der 7nm Shrink und macht dir Karten sehr schnell obsolet.
Nachdem die Preise wohl wieder steigen statt sich anzupassen gibts auch nicht wirklich viel Handlungsbedarf.
 
Warum nicht 12 statt 11 GB? die 11 ist eine ungerade Zahl. Normalerweise geht es doch so 2, 4, 6, 8, 12, 16, 24, 32
 
SKu schrieb:
Mal gucken ob ich mich irre aber ich gehe stark davon aus, dass NVIDIA am Montag hier eine Palette an Games präsentieren wird, die alle samt Raytracing inkludieren und Battlefield wird mit Sicherheit ein Spiel davon sein. Gefolgt von anderen Spielen auf Basis der Unreal Engine, Ubisofts AnvilNext und Snow Drop Engine, usw. Und genau da wird man dann das Leistungsplus zum Vorgänger sehen können, weil Turing Teil der Raytracing Platform für Consumer sein wird.

http://www.pcgameshardware.de/Battl...Social&utm_source=Facebook#Echobox=1534522726

Mit Battlefield hast du scheinbar schon mal ins Schwarze getroffen.
 
Serphiel schrieb:
[...]Dafür fehlt die Software und in 2 bis 3 Jahren schreit kein Hahn mehr nach der RT-Leistung der 2080 wenn wir die 2280 haben.[...]

Nach der 2000er Serie wird mit ziemliche Sicherheit die 3000er folgen.

Bei neuen Generationen wird (in der Regel) immer die erste Ziffer gewechselt.

Shoryuken94 schrieb:
Hast du die Turing Präsentation gesehen? Es gibt abseits der RTC Kerne und der Tensorcores auch an der Shaderarchitektur Änderungen. Der dreifache Pixeldurchsatz gegenüber Pascal kommen aus dem Nichts? Die Shader wurden überarbeitet, es gibt eine andere Cachestruktur etc. [...]

Und was all die Änderungen bringen, kann dir momentan noch niemand sagen. Frag mal bei AMD/RTG nach, die haben auch immer tolle Präsentationen parat und erzählen, was alles wie viel besser geworden ist und am Ende sind alle ernüchtert.

Was auch immer am Montag präsentiert wird, begeistert sein sollte Jeder erst, wenn CB, PCGameshardware, Tomshardware, Anandtech, etc. bestätigen, was davon abzüglich des Marketings übrig bleibt.

Alles andere ist gefundenes fressen für Jen-Hsun "Jensen" Huang, seine Lederjacke und alle Nvidia Anteilseigner.

In dem Sinne:
Please+dont+preorder+guys+we+all+know+its+going+to+_0c2315c9f66ccc9e2b3afe057586303c.png
 
  • Gefällt mir
Reaktionen: Benji21, tomasvittek, j-d-s und 3 andere
Erstmal abwarten wie es bei BFV implementiert wird und wie viel Leistung das kostet. BF1 hat auch DX12 ... auf dem Papier. Nutzbar ist es nicht.
 
  • Gefällt mir
Reaktionen: McTheRipper, exuser0815 und Cpt.Willard
thommy86 schrieb:
Warum nicht 12 statt 11 GB? die 11 ist eine ungerade Zahl. Normalerweise geht es doch so 2, 4, 6, 8, 12, 16, 24, 32

Les dich mal in die Materie ein, dann weisst du wieso 11GB
 
  • Gefällt mir
Reaktionen: B.L. Swagger
Wadenbeisser schrieb:
[...]
@ TheBobSuffix
Mit anderen Worten im Alltag des Desktop Umfeldes dürfte ca. die Hälfte des Chips (Tensor Cores, RT Cores) ungenutzt brach liegen?
TheBobSuffix schrieb:
@Wadenbeisser

Sehe es als fetten GPU Co-Prozessoren für alle mögliche Berechnungen, wie z.B. auch Compute Sound Ray-tracing Audio, ansonsten 'Abgeschaltet' = SELECTIVE POWER GATING wenn ungenutzt.
[...]
Tensor-Cores und Raytracing-Cores verbrauchen bei weitem nicht die Hälfte vom ganzen Chip.
Die Marketing-Bilder von Nvidia sind allesamt künstlich und die Einteilung zusätzlich noch falsch.
Tensor- und Raytracing-Cores sind Teil von den SMs selber.

thommy86 schrieb:
Warum nicht 12 statt 11 GB? die 11 ist eine ungerade Zahl. Normalerweise geht es doch so 2, 4, 6, 8, 12, 16, 24, 32
Produktdifferenzierung und Kosteneinsparung.
GDDR5/6-Chips werden einzeln mit 32-Bit angeschlossen, in so einer Granularität kann man das Interface skalieren.
32-Bit, 64-Bit, 96-Bit, 128-Bit, 160-Bit usw.
Bei einer 1080Ti und der 2080Ti schließt Nvidia nur 11x32-bit (352-Bit) an.
Da jeder GDDR6-Chip den Nvidia hier verwendet 1GB groß ist, sind es dann auch 11x1GB = 11GB Speicher.
 
  • Gefällt mir
Reaktionen: Geckoo und Iscaran
Shoryuken94 schrieb:
Raytracing ist im Gegensatz zu PhysX Teil von DirecX12. Die Auslagerung auf eine andere Karte ist wohl nicht so einfach.
Jein, ich sehe das eher als eine Art Plugin für DX12 das auch noch an eine herstellerspezifische Schnittstelle weiter leitet, welche derteit nur Nvidia bietet.
Ich sehe das Konstrukt eher als Hintertürchen für proprietäre Funktionen die mit einer Standardisierung recht wenig zu tuen haben.
 
Zurück
Oben