News Einstimmige Gerüchte: Spezifikationen der GeForce RTX 2080 (Ti) zeichnen sich ab

Also ich ziehe meine Grenze bei 50% Leistungssteigerung bei 4K und 850€.
Ansonsten bleib ich bei der 1080Ti.
 
  • Gefällt mir
Reaktionen: BlackPanda
Schade das es nicht einfach eine Beschleunigerkarte geben wird ähnlich PhysX das auch läute die keine neue Grafikarte kaufen wollen RTX in Hardware benutzen können aber ist ja klar NVidia will neue Grafikarten verkaufen und keine alten aufwerten.

Bin gespannt ob auch eine Titan gezeigt wird. Schmerzgrenze liegt bei 1200€ aber krank ist das schon. Wir können nur hoffen das Intel 2020 was vorzeigen kann sonst sieht es sehr düster aus ich persönlich glaube nicht das es AMD nochmal schafft NVidia ebenbürtig zu sein.
 
  • Gefällt mir
Reaktionen: BlackPanda
Shoryuken94 schrieb:
Deine Mutmaßung hat genauso viel Aussagekraft wie die von anderen. Ohne konkrete Preise und Benchmarks ist die Aussage das sich Leistungstechnisch nichts tut und nur die Preise steigen reine Spekulation ohne Grundlage!
SIcher? Ich habe schon auf die Fortführung der Speicherbestückung hingewiesen, da war diese keineswegs klar. Und seit wann kann man anhand der Cores und dem Takt nicht ca. auf den Leistungssprung hin abschätzen? Es gibt keinen Shrink, keine neue Technik in der Grundlage. Natürlich wird kann man hier pi mal dauemn schätzen, wie die LEistung ohne RT aussehen wird.
 
unter 40 - 50 % Mehrleistung rüste ich eh nicht auf, auch wenn meine 1080 in WQHD ordentlich rackern muss.
 
@CB
Ich hoffe, das Computer Base wenn die neuen RTX Turing Grafikkarten getestet werden, dann auch den Punkt mit HDR mittestet, denn da läuft es ja bei Nvidia auch nicht so toll! Von daher wird es immer aufwendiger, was die Tests neuer Grafikkarten betrifft um all die versteckten "Schwächen und Schummeleien" aufzudecken.

Deswegen wäre interessant:
Stimmt der verbaute VRam Speicher auch mit der angegebenen Menge auf der Grafikkarte, der auch in vollem Umfang nutzbar ist? Hat man bei HDR so nachgebessert, dass man gegenüber den AMD Grafikkarten nicht mehr so deutlich an Leistung verliert? Wie sieht es mit DX12 und Async Compute bei den neuen RTX Grafikkarten aus, konnte auch hier Nvidia zulegen? Und was bringt uns Raytracing aktuell, oder besser gesagt, wann könnte dieses Feature realistisch interessant werden, da auf das Marketing geblubber kein Verlass ist, das Wissen mittlerweile doch alle!
 
  • Gefällt mir
Reaktionen: MeisterOek, Acedia23, usb2_2 und 4 andere
Ulukay schrieb:
Also ich ziehe meine Grenze bei 50% Leistungssteigerung bei 4K und 850€.
Ansonsten bleib ich bei der 1080Ti.


wird ungefähr so aussehen: (Performancewise)

2080 ~ 10 TFlops
2080 @ 2000 ~ 11,7 TFlop
Titan X Pascal Stock ~ 12 TFlop
2080ti ~ 14,5 TFlop
Titan V Stock ~ 14,9 TFlop
Titan X Pascal @ 2000 MHz ~ 15,3 TFlop
2080ti @ 2000 ~ 17,4 TFlop
Titan V OC @ 2000 ~ 20 TFlop


oder virtuelle FPS

2080 ~ 100 FPS
2080 @ 2000 ~ 117 FPS
Titan X Pascal Stock ~ 120 FPS
2080ti ~ 145 FPS
Titan V Stock ~ 149 FPS
Titan X Pascal @ 2000 MHz ~ 153 FPS
2080ti @ 2000 ~ 174 FPS
Titan V OC @ 2000 ~ 200 FPS

:)
 
  • Gefällt mir
Reaktionen: econaut
Der grüne Balken der 2080 Ti im ComputerBase-Diagramm muss nächste Woche einfach nur ein gutes Stück nach rechts ausschlagen und dann werd ich schwach. Ich brauch da gar nicht genau nach Prozentwerten zu gucken, ich seh das schon aus dem Augenwinkel obs reicht um mich heiß zu machen oder nicht. :D
 
Ein gutes Pferd springt nur so hoch wie es muss und nicht wie es kann. In der Industrie gilt auch der Leitsatz: So gut wie nötig und nicht wie möglich.“ Am Ende will man wirtschaftlich agieren und nicht zusätzliche Kosten erzeugen.

Raytracing ist im Gegensatz zu PhysX oder HairWorks kein proprietärer Standard NVIDIAs sondern Teil der DX12 API. Alleine Micorosoft arbeitet schon seit längerer Zeit zusammen mit den großen Publishern und Entwicklerstudios um Raytracing im PC-Bereich etablieren zu können. Frostbite, Seed, Unity und weitere Engines unterstützen Raytracing bereits. Nur fehlt es bisher an der passenden Hardware. Und genau da wird NVIDIA überraschen, wenn Turing in dem Bereich neue Leistungsrekorde vorweisen kann, während die Vorgängergenerationen komplett zusammenbrechen. Ich würde Raytracing nicht mit propritären Lösungen vergleichen, denn da sitzen MS, NVIDIA, AMD und noch weitere Hersteller mit im Boot.
 
  • Gefällt mir
Reaktionen: poly123, B.L. Swagger und BlackPanda
So wie ich das verstanden habe ist bei den 2080ti ein einheitlicher Anschluss für zukünftige VR Brillen vorhanden der dann logischerweise auch die Brille mit Strom versorgt. Darum vermutlich auch der gestiegene Watt Verbrauch

Bei der aktuellen VR Gen brauchst du für die Brille noch eine Steckdose
 
Rusty [GER] schrieb:
Der grüne Balken der 2080 Ti im ComputerBase-Diagramm muss nächste Woche einfach nur ein gutes Stück nach rechts ausschlagen und dann werd ich schwach.
Der grüne Balken geht mir am Arsch vorbei, weil dieser allein für sich keine Aussagekraft hat. Ich will wissen, ob man auch bei den Schwächen die Pascal noch hat, wie oben in meinem Post geschrieben, endlich bei den RTX Turing Modellen mal nachgebessert wurde!

Immer neue Zukunfts Feature wie Raytracing zu implementieren, die man vermutlich in nächster Zeit noch gar nicht in vollem Umfang nutzen kann [bis auf eine Handvoll Games, die als Promotion für das Feature herhalten müssen!], braucht aktuell doch kein User Raytracing. Bis dieses Feature zum Standard in den Games gehört, wird auch noch eine ganze Zeit vergehen und was es uns an verbesserte Grafik bringt, muss sich ja auch erst noch zeigen!
 
Hae? Wofuer brauchst Du bei VR eine Steckdose?
Das WMR funktioniert mit HDMI und 1 USB Anschluss.
 
Passt doch, die meisten kaufen sich sowieso nur jede 2te Generation. Und da bei Pascal fast jeder zuschlagen hat ist das eben die Generation die übersprungen wird.
 
Mustis schrieb:
SIcher? Ich habe schon auf die Fortführung der Speicherbestückung hingewiesen, da war diese keineswegs klar. Und seit wann kann man anhand der Cores und dem Takt nicht ca. auf den Leistungssprung hin abschätzen? Es gibt keinen Shrink, keine neue Technik in der Grundlage. Natürlich wird kann man hier pi mal dauemn schätzen, wie die LEistung ohne RT aussehen wird.
Hast du die Turing Präsentation gesehen? Es gibt abseits der RTC Kerne und der Tensorcores auch an der Shaderarchitektur Änderungen. Der dreifache Pixeldurchsatz gegenüber Pascal kommen aus dem Nichts? Die Shader wurden überarbeitet, es gibt eine andere Cachestruktur etc.

Man kann nur innerhalb einer Architektur mit Takt und Shadern eine Aussage über die Leistung treffen!

Auch wenn es kein Shrink ist, die überarbeitete Fertigung zeigt auf der Titan V ganz gut, dass sie einiges bringt.

Und zum Takt. Außer dem Takt im Datenblatt wissen wir nichts. Dieser sagt bei Nvidia Recht wenig aus. Teils takten die GPUs deutlich höher, besonders in den Custommodellen.
 
Rusty [GER] schrieb:
Der grüne Balken der 2080 Ti im ComputerBase-Diagramm muss nächste Woche einfach nur ein gutes Stück nach rechts ausschlagen und dann werd ich schwach. Ich brauch da gar nicht genau nach Prozentwerten zu gucken, ich seh das schon aus dem Augenwinkel obs reicht um mich heiß zu machen oder nicht. :D
Sry, sowas nenne ich "Balkenfetischismus". Es gibt immer auch ein Kontext, der beachtet werden muß. Die min-Frames sind für mich wichtiger, die Einstellungen, das verwendete Testsystem, die Gameengine... usw.

Rein nur auf Balken zu schauen führt meist zu falschen Annahmen.
 
  • Gefällt mir
Reaktionen: Rockstar85 und McTheRipper
Bei der Vive braucht die Anschlussbox für die VR Brille eine Steckdose, USB Verbindung und HDMI
 
Jan85 schrieb:
Bei der aktuellen VR Gen brauchst du für die Brille noch eine Steckdose

Das wird sich sicherlich bei der nächsten Gen ändern -> Wireless und so =)
 
Zotac2012 schrieb:
Gehen wie nur mal davon aus, das Nvidia die neuen RTX Modelle Preislich über denen der jetzigen Pascal Grafikkarten setzt, ist ein Preis für eine RTX 2080Ti mit knapp 1000,00 Euro nicht unrealistisch. Gehen wie des Weiteren davon aus, das Du für Deine gebrauchte GTX 1070 noch 300,00 Euro bekommst, dann würdest Du also einfach mal so 700,00 Euro für eine RTX 2080Ti drauflegen?

Ganz ehrlich, ich habe ja auch eine GTX 1070, aber ich würde mir da lieber einen WQHD [1440p] IPS Monitor mit 144 Hz und Gsync kaufen, das macht meiner Meinung nach deutlich mehr Sinn und ich glaube Du hättest auch mehr Freude daran. Und wenn man noch etwas Geduldig ist, dann bekommt man sicherlich zum Ende dieses Jahrs oder zum Anfang 2019 eine GTX 1080Ti deutlich günstiger, als derzeit eine RTX 2080Ti und der Zugewinn wäre auch erheblich gegenüber einer GTX 1070!

WQHD 144HZ Gsync Monitor steht ja schon hier. Zwar kein IPS, aber da habe ich auch gerade kein Bedarf. Insofern suche ich ja exakt dafür eine Karte. Meine alte Karte wird übrigens nicht verkauft (grundsätzlich nie). Die haben immer ihren Verwendungszweck.
Ob jedes Modell 1000€ kosten wird, werden wir sehen. Ansonsten ist die 1080 TI ja nicht aus dem Rennen. Ich habe zu Anfangszeiten der 1080TI einfach gepennt. Und irgendwann war es durch Mining unattraktiv.
 
  • Gefällt mir
Reaktionen: Benji21
PrinceCharming schrieb:
Denke ich auch. Daher ist es momentan auch verhältnismäßig still auf CB: alle Redakteure sind am benchen...
Glaube nicht das irgendwer am benchen ist. Wir haetten schon mehrere leaks. Meine Vermutung: die geben vor Montag abend keine Treiber raus um leaks zu vermeiden vir der praesentation.
 
Zotac2012 schrieb:
Und was bringt uns Raytracing aktuell, oder besser gesagt, wann könnte dieses Feature realistisch interessant werden

Wie soll das jetzt realistisch jemand sagen können? Ein sehr wichtiger Schritt ist schon gemacht. Ray-Tracing ist Teil von DirectX .

Es liegt demnach einzig und allein an den Entwicklern, ob sie Ray-Tracing per API nutzen und ansprechen können und wollen oder nicht.
Indirekt hängt es damit an der Spielefinanzierung, da solche Features extra Entwicklungszeit, Arbeit und somit Ausgaben bedeuten.

Bis auf wenige -von nVidia eventuell direkt unterstützte- Vorzeigetitel (Metro Exodus wird glaube ich RT beinhalten, wenn ich mich recht erinnere?) wird sich da vermutlich erst mal sehr wenig tun, denn wir leben ja in einer Zeit, wo man am PC froh sein muss, wenn die Tastatur-/Maussteuerung halbwegs funktioniert und man die Tasten frei belegen kann.
Selbst dazu sind sich viele Entwickler/Publisher ja zu schade. Da braucht man dann von RT nicht mal träumen, solange die Konsolen das nicht auch supporten.

Ich glaube auch nicht, dass MS Ray-Tracing in DirectX inkludiert haben, weil sie nVidia oder PC Gaming unterstützen möchten, sondern das dürfte eher im Zusammenhang mit der nächsten Xbox Generation zu sehen sein.

Und wenn die nächste Konsolengeneration RT unterstützt, dann werden auch die Publisher die Geldsäckel eher öffnen und RT als Feature in ihren Spielen sehen wollen.

Ich denke daher, dass so ca. ab 2020, wenn dann Xbox Two(?) und ggf. auch die PS5 Ray-Tracing in Hardware unterstützen, der Durchbruch kommen könnte.

Bis dahin ist es so wie bei Pascal mit VR und der damals neuen nVidia Projektionstechnik. nVidia wird massiv mit z.B. +100% Performance gegenüber der GTX 1080 in Ray-Tracing werben, so wie sie damals bei Pascal gegenüber Maxwell auch mit den massiven VR-Vorteilen geworben haben.

Ist ja auch legitim. Es nicht einfach in der heutigen Zeit, immer neue "Killerfeatures" in die GPUs zu packen.
Nach 4K und VR ist jetzt halt Ray-Tracing die nächste Sau, die durch das Dorf getrieben wird.

Es wird sich zeigen müssen, wie die Akzeptanz bei den Entwicklern/Publishern sein wird. Dank RT in DirectX liegt es jetzt eigentlich "nur" noch an denen, ob es ein Standardfeature zukünftiger Games wird oder nicht. Ich glaube: Ja, wird es, aber erst mit der nächsten Konsolengeneration.
 
  • Gefällt mir
Reaktionen: yurij, v_ossi und yummycandy
Shoryuken94 schrieb:

Nvidia hat schon 16 Tflops für die Quadro angekündigt und bei der letzten Generazzion haben sich die Taktraten bei der Quadro nicht von den Konsumerkarten unterschieden. Bei der 2080 Ti fehlen allerdings einige Shader. Also ist von knapp unter 16 Tflops auszugehen. Die Änderungen an der übrigen Architektur dürften nur verhindern, dass man nicht an anderen Stellen limitiert. Nvidia war schon bisher sehr gut darin, viel Spielleistung aus der Rechenleistung zu holen. Es ist eher unwahrscheinlich, dass man sich da nochmals großartig verbessert hat.
 
Zurück
Oben