Notiz GeForce RTX 2080 (Ti): Tests sollen am 14. September erscheinen

14., 17., 19.09.....alles Datumsangaben für Tage der Ernüchterung bei vielen. Das wird sicher interessant...RTX...NVidias Kniff, neue Käufer für völlig überteuerte minimale Schritte nach vorne.
 
  • Gefällt mir
Reaktionen: exuser0815
ZeroZerp schrieb:
Dann wird aber auch nicht mehr auf Innovation gesetzt, sondern die Ressourcen darin verbraten nur noch die Fertigungen so weit zu optimieren, dass durch deren Verbesserungen die Margen wieder steigen.
Das kommt darauf an, so einfach ist die Rechnung nicht. Eine Marge wie sie Nvidia hat ist eher nicht normal und beruht einzig und allein auf der aktuell nicht vorhandenen Konkurrenzsituation. Bei entsprechender Marktlage könnte man durchaus mit deutlich höheren Performancezuwächsen je Generation zu geringeren Kosten rechnen. Hätte hätte Fahrradkette...
 
  • Gefällt mir
Reaktionen: .Sentinel.
Benchmarks hin oder her, Zahl keine 1300€ für ne Grafikkarte!!!
 
  • Gefällt mir
Reaktionen: exuser0815 und malvan
InspecTequila schrieb:
Benchmarks hin oder her, Zahl keine 1300€ für ne Grafikkarte!!!
So sieht es aus. Meine Schmerzgrenze liegt bei 400- 500 Euro und nicht die Mondpreise die Nvidia aufruft.
Das hat damals meine 1070 gekostet und das war sie oder ist sie noch immer wert.
 

auch nen gutes Video zu dem RT Flamewar und Pricing. Wobei ich sagen würde dass beim Preis noch fehlende Konkurrenz dazu kommt.
 
Sehr interessant, mal gucken....

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Turing-Preis-Pascal-1264699/



"
" In the case of the Tensor Cores, again, we're focusing on the deep learning capabilities. We're focused on using those Tensor Cores for our overall inferencing. And yes, we did comment that overall Pascal architecture, we're talking about a 10x improvement."
"What you were playing the day before and what you're now playing will absolutely improve. We will likely see a 2x improvement without even dealing with overall ray-tracing on your existing games in terms of existing performance.
That is probably one of our largest leaps in terms of architecture-to-architecture, in terms of what we're doing with Turing. When you get into ray-tracing, you are now talking about a 6x improvement. So have substantial improvement in terms of performance also using the ray-tracing."

"
 
Die Tests werden es zeigen, vllt. aber auch erst die Tests von nicht-NDA-geplagten Redaktionen und Youtubern. Doppelte Leistung ohne Raytracing ist aber schon eine sportliche Ansage, bezieht sich entweder auf die UHD-Tests ausgewählter Spiele in HDR oder auf dieses AI-upscaling. Flächendeckend alle Spiele werden eher nicht doppelt so viele fps auf den Bildschirm bringen.
 
Ich glaube auch nicht, dass die Karten 100% schneller als die jeweiligen Vorgänger sind. Was aber anscheinend komplett unter den Tisch gekehrt wird, bei all dem Gerede über Raytracing, sind die Tensor Cores und Deep/Learning & AI . Ich glaube dass exakt dieser Teil diese Karten so verdammt teuer macht.

Das ganze Thema finde ich mega spannend. Die 100% mehr Leistung kann nicht sein, dafür muss man kein Prophet sein. Ich bleibe dabei 35% über dem jeweiligen Vorgänger wären absolut in Ordnung, dafür dass die Karten Technologieträger in Erstauflage sind.
 
t3chn0 schrieb:
...sind die Tensor Cores und Deep/Learning & AI .
Und was macht man damit? Wenn das Spiel nicht drauf ausgelegt wird, bringt es nix, zumindest nach Kenntnislage heute. Und wie DLSS/AI-upscaling wirklich aussieht, wissen wir ja auch noch nicht. Und dafür dann so einen exorbitanten Aufpreis zahlen? Kann ja jeder tun wie er will, ich bin da aber noch skeptisch. In 12 Tagen sind wir schlauer.
 
t3chn0 schrieb:
Ich glaube auch nicht, dass die Karten 100% schneller als die jeweiligen Vorgänger sind. Was aber anscheinend komplett unter den Tisch gekehrt wird, bei all dem Gerede über Raytracing, sind die Tensor Cores und Deep/Learning & AI . Ich glaube dass exakt dieser Teil diese Karten so verdammt teuer macht.

Das ganze Thema finde ich mega spannend. Die 100% mehr Leistung kann nicht sein, dafür muss man kein Prophet sein. Ich bleibe dabei 35% über dem jeweiligen Vorgänger wären absolut in Ordnung, dafür dass die Karten Technologieträger in Erstauflage sind.
35% mehr Leistung bei 100% mehr Preis finde ich nicht in Ordnung.
 
j-d-s schrieb:
35% mehr Leistung bei 100% mehr Preis finde ich nicht in Ordnung.

Finde ich auch nicht in Ordnung wenn man die RT Technologie außen vor läßt. Wenn man nicht vorhat die zu nutzen, dann ist der Preis von 1200€ definitiv zu hoch. Wenn man jedoch diese Technologie haben will, dann ist der Vergleich zur vorherigen Generation auch preistechnisch schon etwas komplizierter, weil die RTX Karten halt eine Technologie ermöglichen die so mit den vorherigen Karten in dem Ausmaß nicht möglich war. Der höhere Preis gilt u.a. auch dieser Technologie und den Kosten der Entwicklung die da reingeflossen sind.
Nicht dass ich gerne soviel zahle oder zahlen werde (100% werd ichs nicht), aber ich schlage einfach ne alternative Sichtweise vor.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Achso. Wenn mir jemand eine RTX schenkt ist die dann sogar kostenlos. Normalerweise vergleicht man die Preise zum Release. Dann sollten wir auch warten bis die neuen Karten günstiger sind :).
 
Naja, aber wenn du dir jetzt nen System zusammenstellen willst und dir RT unwichtig ist weil du 1440p/144Hz GSync Monitor hast, dann schaust du schon was das aktuelle Preis-Leistungs-Verhältnis auf dem GPU Markt ist, oder?

Wenn 1080Ti die Messlatte ist dann hast du 100% Preis mit 100% Leistung
2080Ti wäre dann 200% Preis mit 135% Leistung.

Und zur Erinnerung: Die 1080Ti FE war 25% schneller als die 1080 FE. Der Preis der 1080 damals lag bei 600€, die 1080Ti bei 820€. Das waren also 25% Mehrpower für 36% Preisanstieg. Jetzt hätte man 35% Mehrpower für 100% Preisanstieg.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: raphe
th3o schrieb:
Finde ich auch nicht in Ordnung wenn man die RT Technologie außen vor läßt. Wenn man nicht vorhat die zu nutzen, dann ist der Preis von 1200€ definitiv zu hoch. Wenn man jedoch diese Technologie haben will, dann ist der Vergleich zur vorherigen Generation auch preistechnisch schon etwas komplizierter, weil die RTX Karten halt eine Technologie ermöglichen die so mit den vorherigen Karten in dem Ausmaß nicht möglich war. Der höhere Preis gilt u.a. auch dieser Technologie und den Kosten der Entwicklung die da reingeflossen sind.
Nicht dass ich gerne soviel zahle oder zahlen werde (100% werd ichs nicht), aber ich schlage einfach ne alternative Sichtweise vor.

Das Problem bei RT ist doch, dass du gar nicht entscheiden kannst, ob du sie nutzt, sondern die Hersteller der Programme.

Außerdem sehe ich bzgl. RT im wesentlichen zwei Möglichkeiten:
-es ist glorifiziertes PhysX und setzt sich genauso wie dieses nicht durch
-es setzt sich durch, dann können wir damit rechnen, dass man bei der nächsten Generation 50 "Giga Rays"/s hat. Die RTX 2080 Ti ist dann zu langsam, weil sie halt nur die erste RT-Generation ist.

Bei beiden Varianten lohnt sich ne RTX nicht.

Ich persönlich gehe ja davon aus, dass die Tensor-Kerne viel wichtiger sind als RT. Da könnte ich mir gut vorstellen, dass man bei der nächsten Generation dann mehr Tensor-Kerne einbaut und dafür weniger RT-Kerne.

Denn mit Deep Learning AIs kann man viel mehr machen als nur mit RT. (Vor allem weil das Nvidia-RTX kein reines RT ist, es werden nur einzelne Effekte per RT berechnet, aber nicht das gesamte Bild.)

Pisaro schrieb:
Wo hat sich denn der Preis verdoppelt? Das ist niemals passiert...

1080 Ti = 599 Euro (https://geizhals.de/?cat=gra16_512&xf=9810_7+10609+-+GTX+1080+Ti)
2080 Ti = 1.166 Euro (https://geizhals.de/?cat=gra16_512&xf=9810_9+11750+-+RTX+2080+Ti)

Das ist 94,7% mehr.
 
  • Gefällt mir
Reaktionen: exuser0815 und th3o
Pisaro schrieb:
Achso. Wenn mir jemand eine RTX schenkt ist die dann sogar kostenlos. Normalerweise vergleicht man die Preise zum Release.

Nein tut man nicht. Man vergleicht das jetzt aktuelle P/L Verhältnis. Und eine 1080 Ti gab es in den letzten Tagen häufiger für ~600 €. Wenn die 2080 Ti das eben nur bedingt überbieten kann, dafür aber das doppelte kostet, ist ihr P/L Verhältnis einfach deutlich schlechter. UVP's interessieren in dem Moment einfach mal gar nicht.
 
j-d-s schrieb:
Außerdem sehe ich bzgl. RT im wesentlichen zwei Möglichkeiten:
-es ist glorifiziertes PhysX und setzt sich genauso wie dieses nicht durch
-es setzt sich durch, dann können wir damit rechnen, dass man bei der nächsten Generation 50 "Giga Rays"/s hat. Die RTX 2080 Ti ist dann zu langsam, weil sie halt nur die erste RT-Generation ist.
Bei beiden Varianten lohnt sich ne RTX nicht.

Da ist was dran, man weiß im voraus bei neuen Technologien nie ob sie vom Verbraucher und der Industrie auch wirklich als für sie nützlich angesehen werden oder nicht. VR ist ja beim ersten Anlauf auch hart gescheitert. 3D in TVs ist größtenteils auch wieder verschwunden und letzten Endes wars bloß ein nettes Gimmik, das sich nicht branchenweit durchgesetzt hat. Ob Raytracing SO viel mehr Realismus in Games reinbringen wird oder nicht, also ob Entwickler dort Ressourcen reinhauen in der Entwicklung statt in anderen Bereichen wie grundsätzliche gaming engines, texturen, lighting engine etc, das muss man erstmal noch abwarten. NVIDIA hat zunächst einmal die Technologie vorgestellt und einige Entwickler evtl durch kleine Zuschüsse animiert das zu implementieren um was zum Vorzeigen zu haben.
Wie eigentlich bei jeder neuen Tech sollte man als einfacher Konsument lieber eine Generation abwarten und schauen wie es sich entwickelt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: j-d-s
UVPs sind grundsätzlich nie interessant. Nur was der jeweils aktuelle Martkpreis ist und welche Leistung man dafür bekommt.

Ist halt in einer Marktwirtschaft so. Im Sozialismus könnte man die Preise festlegen, bei uns nicht.
 
  • Gefällt mir
Reaktionen: th3o
Ich bin der Meinung wenn man schon vergleiche zieht, dann eher die 2080 mit der 1080 ti . Macht aber im Endeffekt alles keinen Sinn. Pascal wird abgelöst, ob von Turing oder Navi. AMD selbst springt ja auch auf dem Zug mit auf, bleiben aber "eventuell" wie gewohnt hinter ihren Möglichkeiten. So verkehrt kann die 20'er Serie nicht sein. Zumal es für das Geld auch einige/ bessere Erneuerung gibt u.a. Nvlink / NVSwitch.
 
Zurück
Oben