News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

HerrRossi schrieb:
Sieht so aus. Warte mal ab, was passiert, wenn BF5 auf den RTX-Karten deutlich besser als auf den GTX-Karten läuft, wenn Raytracing eingeschaltet wird und das ja sooo viel besser aussieht ;)

Naja, auch (gutes) Marketing gehört dazu und ist mittlerweile von besonderer Wichtigkeit.

Wer sich davon leiten (blenden) lässt und anschließend dennoch mit seiner Neuerwerbung zufrieden ist, ist doch völlig in Ordnung.

Tendenziell habe eh wenig Mitleid mit Menschen die das Geld für eine 700-1.000 Euro teure Grafikkarte haben.

Jedem das Seine und wer einfach nur Spaß daran hat immer das Neuste und Schnellste in seinem System zu haben, dem sei’s gegönnt.

Für mich ist das nichts und ich würde eine RTX wirklich nur dann in Betracht ziehen, wenn eine RTX 2060 die GTX 1060 vom Preis her 1:1 ersetzt und dafür die Leistung einer GTX 1080 (OC) bietet.

Ansonsten warte ich entspannt ab wann AMD mal wieder die Kurve kriegt. Ich bin da noch immer ganz guter Dinge.

Leben und leben lassen. :)

Liebe Grüße
Sven
 
Shoryuken94 schrieb:
Wenn ich mich Recht erinnere, ist es direkt in DX12 Implementiert. Theoretisch müsste es so auf jeder Hardware möglich sein, halt ohne dedizierte Beschleunigung. Die Titan V hat ja auch keine dedizierten Raytracing Cores, aber sie würde für die damalige Star Wars Raytracing Demo genutzt (waren halt 4 Karten notwendig) Die RTC cores sind einfach nur eine Hardwarebeschleunigung.

Sicher kann sich Nvidia im Rahmen von Gameworks da noch einiges mehr implementieren, aber erst Mal ist Raytracing für alle offen. Wie man es beschleunigt ist dann wieder ein anderes Thema. Extra Ausführungseinheiten oder was anderes. Was man darauf aufsetzt ist dann wieder ein anderes Thema.
Wie gesagt, jein.
DX12 hat zwar eine Schnittstelle dafür bekommen aber letztendlich wird es an eine herstellerspezifische Schnittstelle weiter geleitet und da das Konstrukt von Microsoft und nvidia zusammen entwickelt wurde ist auch klar warum nvidia derzeit die einzigen sind die entsprechende Hardware anbieten. Die Konkurrenz muss eben erst etwas entsprechendes entwickeln und die Preisfrage ist ob es sich bei soeiner einseitigen Ausrichtung überhaupt rentiert. Unterm Strich ist hier für mich nvidia der lachende gewinner denn sie haben es geschafft DX12 ihre proprietäre Produktpolitik unterzujubeln.
 
yummycandy schrieb:
Und reines Raytracing ist auch nochmal was anderes als Rasterizing + Raytracing für die Lichtberechnung. Abgesehen davon, braucht man auch keine speziellen Kerne für RT, eine hohe FP-Leistung ist eines, Parallelität eine andere. Und selbst die wird nicht benötigt.
Also brauche ich nix für Raytracing (oder nur einen 6502?) Geile Sache :-)

Ach ja: Apple verbaut bestimmt bald RTX-Karten. Und dann haben die Raytracing erfunden :D
Ergänzung ()

kachiri schrieb:
Von AMD kam in der Zeit auch nur ein Relabel von 400er auf 500er mit besserer Effizienz, weil der Fertigungsprozess optimiert wurde.
Vega?
 
Finds interessant, wie man als consumer nur noch beschnittene (Abfall-) Karten bekommt. An den Preisen wird das aber wohl nichts ändern. Aber immerhin kommt überhaupt mal was neues.
 
  • Gefällt mir
Reaktionen: BlackPanda
darthbermel schrieb:
Also brauche ich nix für Raytracing (oder nur einen 6502?) Geile Sache :-)
Eine hohe FP-Leistung ist schon von Vorteil ;) Aber ansonsten hab ich schon auf 68k Raytracing benutzt. Ist also nichts wirklich neues.
 
  • Gefällt mir
Reaktionen: HerrRossi
Iscaran schrieb:
Wenn du also so dringend die Mehrleistung brauchst wundert es mich dass du immer noch "nur" eine 1080 hast und nicht schon längst die 1080 Ti.
Weil ich kein mit 10+ Lüftern 100Liter Aquarium habe und bei mir keine Grafikkarten reinpassen, die jegliche Spezifikation in allen 3 Dimensionen überschreiten reinpassen.
Wenn ich es leise haben will und Leistung haben will, ist nur die 180W TDP GTX1080 interessant.
Wenn die neuen Karten wirklich 285W TDP haben, wird das erstmal nix für mich. Dann warte ich auch auf die 7nm Generation
Ich hoffe man findet auch wieder Tests für die Kühler und Wärmebildaufnahmen von Igor auf Tomshardware bei den neuen Modellen.

TheMetalViking schrieb:
Finds interessant, wie man als consumer nur noch beschnittene (Abfall-) Karten bekommt.
Das liegt daran, dass die Entwicklung immer mehr auf den Profi Markt abzielt. CGI in Filmen, Umsetzung für Autos und Co haben einen deutlich wichtigeren Anteil, als der Spielemarkt.
 
  • Gefällt mir
Reaktionen: BlackPanda
Wirklich ernüchternd diese Angaben, zumindest was den Speicher angeht. Keinerlei Verbesserung zur Vorgängerserie :freak:. Da geht ein gutes Stück Zukunftssicherheit verloren.

Da hatte ich mir erheblich mehr erhofft von der neuen Serie.
 
yummycandy schrieb:
Eine hohe FP-Leistung ist schon von Vorteil ;) Aber ansonsten hab ich schon auf 68k Raytracing benutzt. Ist also nichts wirklich neues.
Ja habe ich auch. Aber nicht auf 4k mit >60 Bildern pro Sekunde.
 
  • Gefällt mir
Reaktionen: yummycandy
Warum haben sowohl die 2080 als auch die 2080Ti eine TDP von 285W?

Das macht doch null Sinn.
 
darthbermel schrieb:
Ja habe ich auch. Aber nicht auf 4k mit >60 Bildern pro Sekunde.
Nee. :D Aber du wirst schon nachvollziehen können, was ich meine. Man war ich damals froh über meinen 030er mit 68882. ;)
 
dominion1 schrieb:
Da hatte ich mir erheblich mehr erhofft von der neuen Serie.
Ich eigentlich nicht. Bei den aktuellen Speicherpreisen steigen die Kosten zu stark. Ich schätze der Chip kann mehr. Wenn die Speicherpreise sinken oder eine deutliche Titan lanciert wird, gibt es 16GB.
 
darthbermel schrieb:
Ich eigentlich nicht. Bei den aktuellen Speicherpreisen steigen die Kosten zu stark. Ich schätze der Chip kann mehr. Wenn die Speicherpreise sinken oder eine deutliche Titan lanciert wird, gibt es 16GB.
Wie denn?
Der große Chip hat 384Bit SI (=12 Speicherchips), da gibts kein 16GB sinnvoll. 12 oder 24GB mehr kannst du von einer Titan nicht erwarten, sonst musst du Quadro kaufen. 6000$+ statt 1-3k.
 
Pisaro schrieb:
Ist das lächerlich. Immer noch "nur" 11GB RAM, alles klar. Da wede ich bestimmt nicht zugreifen, macht keinen Sinn von einer 1080 Ti auf aufzurüsten wenn wieder 11GB verbaut werden.

Natürlich macht das wegen der höheren Bandwidth Sinn, den gerade die ~500GB/s haben in vielen Spielen bei Ultra Settings die Framerate gedrückt.
Digitalfoundry hat sogar glaub auf 540GB/s übertaktet und die ihre Titan kam trotzdem noch ab und zu ins Bottleneck.
Jetzt mit über 600GB/s hat man da etwas mehr Luft und das wird DF sicher auch wieder Testen ;)
Die 11GB haben sie aber eigentlich nie ansatzweise voll bekommen, gibt da vielleicht 1-2 Ausnahmen.
Bis Keine neuen Konsolen kommen, werden auch die RAM anforderungen kaum steigen was Größe angeht.
 
RYZ3N schrieb:
Tendenziell habe eh wenig Mitleid mit Menschen die das Geld für eine 700-1.000 Euro teure Grafikkarte haben.
Warum auch Mitleid? Wer das Geld investieren will, der soll das doch ruhig tun. Mit meinem UHD-Monitor - den ich aufgrund des vielen Platzes auf dem Desktop mit 100%iger Sicherheit nicht aufgebe - bin ich aber leider gezwungen, so viel Geld auszugeben, wenn ich AAA-Titel spielen will. Und das will ich. Andere Hobbies sind deutlich teurer als Computerspielen, alleine ein Tauchurlaub zu einer exotischen Destination kostet mich mehr als alle Hardware der letzten 5 Jahre zusammen. Und da hab ich mir noch kein Tauch-Equipment gekauft.
 
  • Gefällt mir
Reaktionen: B.L. Swagger, TheBear1517 und stoneeh
SavageSkull schrieb:
Wenn die neuen Karten wirklich 285W TDP haben, wird das erstmal nix für mich. Dann warte ich auch auf die 7nm Generation
Könnte ja auch die TDP des OC Modelles sein, eine 1080/1080TI Zotac Amp Extrem hat hier auch schon 270W/320W.
 
unreality schrieb:
Wir reden nach dem Release weiter Pappnase ;)

Sofern es Montag keine unabhängigen Tests/Reviews gibt, sind wir Montag noch kein Stück schlauer.

Aus den "Gerüchten" werden dann nur vom Marketing gespeiste Best-Case-Szenario Fakten.

Bestimmt sehr beeindruckend, aber auch ziemlich wahrscheinlich nur in recht praxisfernen Einstellungen von Relevanz.

Ich würde mich aber zugegebenermaßen gerne irren und einen großen Leistungssprung sehen, daran auch zu glauben fällt mir momentan aber noch schwer.
 
dominion1 schrieb:
Wirklich ernüchternd diese Angaben, zumindest was den Speicher angeht. Keinerlei Verbesserung zur Vorgängerserie :freak:. Da geht ein gutes Stück Zukunftssicherheit verloren.

Da hatte ich mir erheblich mehr erhofft von der neuen Serie.

Beim Speicher ist exakt die Änderung vorgenommen worden, die am meisten bringt - die Bandbreite hat sich erhöht, was bei gleich grossem Interface mehr Durchsatz bedeutet.

Dass sich die Speichergrösse für die jeweiligen Modelle nicht vergrössert, ist vollkommen i.O. - kein Spiel in den Settings, bei denen die GPUs der entsprechenden Modelle >60 FPS berechnen können, belegt mehr Speicher, als auf diesen Modellen verbaut ist.
Das wird sich übrigens auch in Zukunft nicht ändern. Ja, es mag ein Spiel rauskommen, das mehr als 8 GB belegt - ABER dann auch bei Settings, bei denen die GPU keine flüssigen Bildraten schafft - d.h. Settings, die eh niemand freiwillig verwenden wird, da sich keiner die Diashow antun würde.


Ansonsten gibt es jede Menge interessante Änderungen / Neuigkeiten bei Turing. Erstmal der neue Fertigungsprozess, der mehr Transistoren bei gleicher Chipgrösse ermöglicht, bei geringerem Stromverbrauch. Dann die Tatsache, dass das neue Design anscheinend nicht so gut taktet wie Pascal, was extrem interessant und überraschend ist.
Und dann natürlich die etwaigen Änderungen am Design, wie, wie schon erwähnt, überarbeitete Shader und Cachestruktur. Ich geh von den üblichen 5-10% aus, aber wird trotzdem sehr interessant zu sehen, wie sich die Leistung pro Shader/Takt ggüber Pascal ändern wird.
 
yummycandy schrieb:
Man war ich damals froh über meinen 030er mit 68882. ;)
:D Ich auch. Und trotzdem musste der Amiga teils Tage an einer schönen Raytracing-Szene rechnen, kaum zu glauben, dass das bald in Echtzeit und mit Bewegung möglich sein soll.
 
  • Gefällt mir
Reaktionen: JohnathanSeagul, TheBear1517, yummycandy und eine weitere Person
Raytracing mit Turing ist nur der Anfang und es werden erst einmal Erfahrungen gesammelt. Da MS mit im Boot sitzt, werden die mit Sicherheit auch Interesse haben das in die nächste Konsolengeneration einbringen zu wollen. Aber irgendwer muss den Anfang machen und in diesem Fall ist es NVIDIA.
Ergänzung ()

unreality schrieb:
Performance Boost durch neue Generation? Die 2060 ist nicht umsonst schneller als ne 1080 OC. Zumal ihr mal bedenken solltet, dass die 2080Ti sicher nicht auf 1350MHz takten wird, erst recht nicht bei den Custom Modellen. 20Tflops könnten also drin sein unter OC ;)

Wenn diese Zahlen stimmen sollten, bleibt die Frage warum NVIDIA direkt zum Start eine Ti releasen möchte. Das ist eigentlich völlig untypisch, denn die Ti-Varianten sind bisher immer fast ein Jahr nach Start der Performance-Klasse auf den Markt gekommen. Entweder NVIDIA schiebt nächstes Jahr noch einen Refresh auf Basis von 7nm auf den Markt und möchte vorher noch Ti-Karten verkaufen (was aber keinen Sinn ergibt, wenn sie mit den Chips auf den Quadro-Karten wesentlich mehr verdienen können) oder aber sie sind gezwungen dieses Mal eine Ti direkt zum Start zu bringen, weil sonst kein Kaufanreiz bei GTX1080(Ti) Besitzer bestehen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN
Zurück
Oben