Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Turing: MSI GeForce RTX 2070 Gaming zeigt sich mit zwei Lüftern
@AYAlf das mit der Spitzenkarte ist mMn etwas anderes. Wer in 4K spielt, brauch auch maximale Leistung.
Da spielt dann Geld keine Rolle, ist halt ein Hobby.. aber wer zb. die RTX 2070 kauft, kann nur ein Minusgeschäft machen. Zumindest ist es derzeit so.
danke, stimmt da war was. Erstaunlich genug dass Nvidia hierfür nen eigenen Chip auflegt. Denke man erwartet da höhere Stückzahlen und will den TU106 auch noch für kleinere Karte hernehmen.
Noch nicht viel dazu gesehen, aber die 980Ti ist in etwa so schnell wie eine 1070.
Die 2080 ist in etwa so schnell wie die 1080Ti, die 2070 in etwa so schnell wie die 1080. Wenn Nvidia in etwa die abstufungen beibehält dürfte eine 2060 wohl in etwa so schnell wie eine 1070 (ti) sein. Also würde die 980Ti in etwa der 2060 entsprechen (wahrscheinlich sogar mit gleichem Speicherausbau)
In RTX Anwendungen sieht die 980Ti allerdings wohl kein land gegen die 2070 und co. Die GTX 1080 ist etwa 15-20% schneller als die 1070 / 980Ti. Die 1080Ti ist wiederum ca 25-30% schneller als die 1080. Eine RTX 2080 wird also wohl so ca. 50% schneller als eine 980Ti sein. Dazu hat sie 2GB Speicher mehr und wird in neuen Spielen wohl mehr Treiberoptimierungen erfahren, als die alten maxwell Karten.
Ergänzung ()
Krautmaster schrieb:
Denke man erwartet da höhere Stückzahlen und will den TU106 auch noch für kleinere Karte hernehmen.
Ist halt auch noch ein gutes Stück kleiner, mit abgespecktem Speicherinterface und weniger Shadern kann man auch noch eine 2060 oder 2060Ti damit bringen. Die 2070 nutzt ja wie es aussieht den Vollausbau von dem Chip.
Mit der Aussage aus deinem letzten Satz, wäre ich äußerst vorsichtig. Im Kern handelt es sich um nichts anderes als eine hochskalierung von entsprechendem Material. Also "Upscaling". Der Unterschied dürfte in etwa so wie zwischen 720p Material und 1080p Material sein. Und bekanntlich wird der Unterschied von 720p zu 1080p von vielen gar nicht wahrgenommen bzw. viele erkennen da keinen Unterschied.
Aus meiner Sicht, ableitend aus bisherigem Kenntnisstand, halte ich DSS ebenfalls nach wie vor für nichts anderes als einen Marketinggag.
[...]
Nach allem was bisher bekannt wurde, scheint die Qualität von dem, durch die AI, upgeskaltem Material so nahe am eigentlichen 4K Bild zu sein, dass man fast keinen Unterschied bemerkt. Es ist eben nicht einfach nur upskaling, sonst bräuchte man die AI ja nicht.
Natürlich wird es nur von bestimmten Titeln unterstützt, was den Mehrwert meiner Meinung nach erheblich einschränkt.
Im Moment gibt es das Ganze ja noch nicht einmal. So gesehen: Ein Marketinggag.
Nach allem was bisher bekannt wurde, scheint die Qualität von dem, durch die AI, upgeskaltem Material so nahe am eigentlichen 4K Bild zu sein, dass man fast keinen Unterschied bemerkt.
Wurde von Checkerboarding auch immer behauptet und ist da auch nicht der Fall. Generell sollte man sowas erst annehmen, wenn es auch unabhängig unter Beweis gestellt wurde
Ich glaube die Chip Hersteller denken mittlerweile wir drucken alle unser Geld im 3D Drucker....
Sollen an ihren Karten im Lager ersticken... Aber produzieren ja sowieso kaum was, von daher *Ironie
I9 9900k ~600€, Ram wird laut Aussage von Samsung wegen künstlicher Verknappung auch wieder teurer, schnelle RTX Grafikkarten unbezahlbar, Z390 kaum lieferbar auch wenn man ihn nicht wirklich braucht,
wenigstens kann man sich bei einem neuen PC momentan ordentlich mit billigem SSD Speicher eindecken lol...
Und wenn man bedenkt, dass man immer mal wieder für 399 eine Vega 64 oder 1080 bekommt, dann ist es noch lächerlicher. Um einem die RTX Features so viel Wert sind? Mir waren sie es jedenfalls nicht. Wenn es das mal in nicht total überteuerten Karten gibt sehr gerne, aber als Early Adopter, ne danke muss nicht sein. Da warte ich lieber ab, was die Entwickler so bringen, wie groß der Unterschied wirklich ist und wie gut es wirklich performt. Aber für 650€+ die kleinste RTX Fähige Grafikkarte, nein das muss nun wirklich nicht sein, solnge es genug Alternativen gibt.
Also ich kann mir schon vorstellen, dass die 2070 RTX im Durchschnitt etwas schneller als die 1080 sein wird ohne der 2080 zu nahe zu kommen. Da ist noch etwas Platz zwischen 1080 und 2080. Ausserdem wird sie ja moderner sein und in DX12/Vulkan Titeln besser dastehen und für alle die schon mal mit den neuen Effekten (wenn sie dann kommen) rumspielen wollen (als mehr kann man es wohl nicht bezeichnen) etwas bieten. Aber dann bitte für 500-550€. Sonst ists Schwachsinn.
Für mich persönlich wär das alles aber nichts, da ich nur unter 400€ kaufe. Meine Vega64 für 375€ war für mich schon grenzwertig.
Die Vega64 für unter 400€ ist auch aus P/L Sicht endlich "angekommen".. bei fast 50% Rabatt nach den Preisen und der Nichtverfügbarkeit Anfang 2018... den Preistrend wird man bei Nvidia bestimmt nicht sehen kann ich mir nicht vorstellen, leider.
Ich warte ja voller Sehnsucht auf eine neue AMD Karte die schneller ist als die VEGA64 für meinen Asus ROG Strix XG35 UWQHD Monitor mit Freesync ~so 100fps wären in 3440x1440 (was etwas weniger Last bedeutet wie richtiges 4k) endlich mal wieder ein Kaufgrund für mich für eine Radeon dann.
Erst Recht jetzt mit dem Kack den Nvidia mal wieder abzieht.
Aktuell finde ich die VEGA64 einfach zu lahm, hatte eine schon hier aber das war mir zu schwach für eine Neuanschaffung. Da muss ich noch bei meiner 1080 bleiben obwohl die auch nicht ausreicht für die Auflösung.
Ich denke AMD hätte es im Moment voll in der Hand .. Wenn sie denn was in der Hand hätten... Irgendwie verpassen die immer den richtigen Zeitpunkt - ist wie bei Vettel & Ferrari in der Formel Eins typisch ROT!
Nach allem was bisher bekannt wurde, scheint die Qualität von dem, durch die AI, upgeskaltem Material so nahe am eigentlichen 4K Bild zu sein, dass man fast keinen Unterschied bemerkt. Es ist eben nicht einfach nur upskaling, sonst bräuchte man die AI ja nicht.
Du sagst "Nach allem was bisher bekannt ist", von wem hast du diese Daten? Deinen Schluß kannst du doch nur von Aussagen seitens Nvidia selbst Ziehen, oder etwa nicht? Egal was da kommt bzw. gar vorgeführt wurde von Nvidia. Es ist doch am Ende immer das selbe.
Zwischen dem was auf- bzw. vorgeführt oder gar Versprochen wurde, klaffte am Ende eine große Lücke. Anders ausgedrückt, in der Realität, unter üblichen Bedingungen, stellten sich die besagten Versprechungen in der Regel immer als Luftnummer heraus. Jedenfalls wurden die Angaben bisherig in der Realität dann so nie Eingehalten.
Deshalb halte ich deinen Schluß momentan für arg Optimistisch. Von den anderen Einschränkungen will ich gar nicht erst Anfangen. Warten wir es ab. Bisherig lag ich aber nicht so oft daneben. Leider, denn auch ich hätte gerne, daß die Hersteller mal ihre Angaben in der Realität so Einhalten, wie sie dieselben prognostiziert hatten.
Aber der Chip ist dennoch deutlich komplexer und Größer, dass sollte man nicht vernachlässigen. Der GP 104 ist sogar kleiner als TU106. Dennoch reizt Nvidia es zu sehr aus.... Warum machen die eigentlich keine Ruinöse Konkurrenz für AMD? Wenn die Bsp. die Preise auf 700; 500 und 400€ setzen würden für die 2080Ti-2070, dann könnte AMD bald Konkurs anmelden, da Sie so Garnichts hätten, was sie Retten würde... Eigentlich dämlich von der Preisgestaltung.
Warum machen die eigentlich keine Ruinöse Konkurrenz für AMD? Wenn die Bsp. die Preise auf 700; 500 und 400€ setzen würden für die 2080Ti-2070, dann könnte AMD bald Konkurs anmelden, da Sie so Garnichts hätten, was sie Retten würde... Eigentlich dämlich von der Preisgestaltung.
Weil Nvidia ein Börsennotiertes Unternehmen ist und entsprechende Ergebnisse abliefern muss! Selbst bei den von dir genannten Preisen ändert sich wenig. Auch wenn sie die 2070 für 400€ anbieten würden, hätte AMD mit der gleich teuren Vega einen Gegenspieler. Gegen 2080 und 80Ti hat AMD aktuell eh kein Gegenprodukt. Sie müssten bei den riesen Chips draufzahlen, wenn sie AMD deutlich unterbieten wollten. Und ganz ehrlich, warum sollten sie das machen? Im Gamingmarkt haben sie doch eh einen Großteil des Marktes und die Leute bezahlen freiwillig die hohen Preise. Und im HPC Segment ist der Preis eher Zweitrangig, da geht es den kunden darum, einen Beschleuniger zu finden, der zum Projekt passt. In dem Umfeld sind Hardwarekosten meistens ein kleiner Posten im Verhältnis. Nvidia hat eher Intel als Hauptkonkurrenten und nicht AMD