News Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080

onkas schrieb:
Hat schon mal einer von euch überlegt wieso die Preise so hoch sind "wenn überhaupt" ? vor kurzem war noch die Meldung das Nvidia volle Lager hat weil Mining eingebrochen ist. Also passiert genau das was Sie wollen ( eigentlich Genial von Nvidia ) die die gewartet haben gehen jetzt gern auf 1070 und 1080 los weil die neuen zu teuer und andere Gründe, und die Lager leeren sich. Die Fanboys kaufen sich eh jeden Sch... (ich nenne das das Apple Syndrom). Die neuen Karten werden erst in ein Paar Monaten groß vergübar und wenn die Lager der 1070 und 1080 leer sind wird man auch hier die Preise senken.
Ist mir zwar auch in den Sinn gekommen, hat aber eine Kehrseite. Wenn nVidia nach dem Abverkauf von Pascal die Preise von den RTX drastisch senkt, sieht das auch merkwürdig aus. Kann aber auch sein, daß dann neue Karten in 7nm vorgestellt werden und die jetzigen RTX wieder verschwinden. Dann würde es heißen, das die neue Serie ja so günstig ist, im Vergleich zu alten RTX 20-Serie. :D
 
-Ps-Y-cO- schrieb:
Das interessiert hier keine sau!!
Wir wollen hier alle nur +50% Performance! Egal wie Teuer oder was Ethik damit zutun hat,
Sag ich bei der Porsche Vertragswerkstatt auch immer wenn der Service fällig ist. :D
Aber aufgrund der Konkurrenzsituation finde ich die Preise schon ethisch in Ordnung.
Und natürlich interessiert es niemanden ob man dazu ein Konto benötigt, 99,99% der User lassen ihre Daten im Netz, dazu gehörst auch sicher du, also wieso die Aufregung?
 
Khaotik schrieb:
Da gebe ich dir absolut recht. Legen wir doch mal den Preis der damals legendären 8800GTX zugrunde. Die war dasmals bei rund 300€ wenn ich mich recht erinnere.

Die Zahlen die deiner Aussage zu Grunde liegen, sind dann allerdings deiner Fantasie entsprungen.

Die 8800 GTX kostete zum Release 2006 exakt 600 Euro. Die 8800 Ultra die 2007 nachgeschoben wurde und ein reines 8800 GTX OC Modell mit noch mehr Takt war, kostete 700 Euro. Ich habe beide Karten hier inklusive Rechnung.

@Remigius +1

ON TOPIC:

Es geht nicht darum dass sich die Preise geändert haben, schon zu DM-Zeiten konnte man GPUs für 1.200 - 1.400 DM erwerben.

Es geht um die Preisgestaltung im Vergleich zum direkten Vorgänger und wie hoch das erzielte Leistungsplus ausfällt.

Beispiel: GTX 970 (319,- Euro) > GTX 1070 (499,- Euro) > RTX 2070 (639,- Euro)

Ich denke da sollte jedem Laien auffallen dass der Einstieg in die Performance Klasse immer kostspieliger wird.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Cpt.Willard
50% Schneller und 4k läuft nur auf 60fps ? Mhhhhh Naja so wie ich das hier in den Foren Gelernt habe brauchen die Gamer im Jahr 2018 100- 200 fps um Spielen zu können, da erschließt sich nicht wer die Karte kaufen sollte
:lol:
Ich denke die Zielgruppe wird echt klein sein, ich selber kenne noch niemanden in meinem Umfeld oder Gamer Freunden die auf 4k Spielen und alles was drunter ist, werden sich keine Graka für 1000€ kaufen um auf 1080p oder 2k Spielen zu können.
 
DeZomB schrieb:
Theoretisch muss eine Raytrace Karte nur soviel strahlen berechnen wie Pixel dargestellt werden sollen, was die dann berechnen ist egal.
Leider nicht, weil durch Reflexionen und LInsen neue Strahlen entstehen. Siehe auch unendliche Spiegel.
 
DeZomB schrieb:
Ja, sehr versimpelt ausgedrückt.

Mir ist schon klar was Ray Tracing ist. Deswegen fand dich auch die Keynote am Anfang zum einpennen langweilig. Ändert trotzdem nichts an meinem Empfinden gegenüber den Demos. Die waren einfach stink langweilig.

Und ja in der Theorie muss nur das berechnet werden was dargestellt wird aber davon, also Szenen on the Fly zu rendern, sind wird noch weit weg. Klar wäre es cool wenn nur das field of view berechnet werden muss und sobald man sich bzw. die Kamera dreht wird es dann direkt berechnet aber wie gesagt dafür sind wir noch gute ~10 Jahre weg.

@yummycandy

Die kann man aber verwerfen weil sie nicht relevant für die Szene sind.
 
Jokeboy schrieb:
Mich würde brennend interessieren wie gut die 2070 gegenüber einer 1080 ist. Aber darauf müssen wir noch 2 Monate warten :D

Also solange ich bis zu 60 fps oder mehr auf hohe bis Ultra je nach Spiel flüssig spielen kann, macht meine Karte immer noch nen guten Job. Das reicht mir und brauche nicht überdimensional den übertriebenen Preis bezahlen.
 
  • Gefällt mir
Reaktionen: SVΞN und Cool Master
Also ich warte mal ab, ansonsten wird es eine Sapphire Vega 64 Nitro+ um 580€
Plus einem Freesync Monitor, und später einen Ryzen 7
 
  • Gefällt mir
Reaktionen: ZeXes, aldaric und Infect007
0-8-15 User schrieb:
könnte genauso der Spielehersteller ein Update mit den notwendigen Daten bringen. Dazu braucht es technisch gesehen kein GFE.

Über das Steam, Origin oder Uplaykonto des Spiels? :D GFE ist richtig böse, das hat den Teufel gesehen.
 
  • Gefällt mir
Reaktionen: ZeusTheGod
Big Qwer schrieb:
Also solange ich bis zu 60 fps oder mehr auf hohe bis Ultra je nach Spiel flüssig spielen kann, macht meine Karte immer noch nen guten Job. Das reicht mir und brauche nicht überdimensional den übertriebenen Preis bezahlen.
Ja du hast ja auch schon eine 1080. Aus deiner Sicht natürlich Sinnlos eine RTX2070

Ich meinte da auch eher mich, da ich dann abwägen werde ob ich mir eine RTX2070 oder GTX1080 hole um meine GTX780 abzulösen ;)
 
  • Gefällt mir
Reaktionen: Terminator-800
Was waere wenn NVIDIA die Performance zahlen extra verschleiert und absichtlich zweifel schuert, damit die Leute die alten Karten jetzt kaufen im glauben die neuen sind eh kaum schneller? Und dann platzt die Bombe...
 
Hallo zusammen,

@ N3XUS COR3

N3XUS COR3 schrieb:
Also ich warte mal ab, ansonsten wird es eine Sapphire Vega 64 Nitro+ um 580€

Du hast was Entscheidendes vergessen, nämlich ein Neues Netzteil. Das wirst du nämlich nötig haben mit einer Vega 64 Nitro. Das ist nicht Negativ gemeint, nicht daß das falsch rüber kommt. Sondern schlichtweg Erfahrungswerte. 650 Watt reichen eher nicht. Mußt nur hier im Forum mal rumschauen.

So long...
 
  • Gefällt mir
Reaktionen: m1key_SAN
Cool Master schrieb:
aber wie gesagt dafür sind wir noch gute ~10 Jahre weg.

Ich glaube so weit sind wir davon Nichtmehr entfernt. Ich denke auch VR wird von dieser Richtung profitieren.
Aber das ist halt Glaskugel.
 
Bei der 2080 (wenn du die RT- und TF Cores nutzen willst) auch!
Da wird dann auch ein neues NT Fällig!
Schon vergessen? 285W TDP!
 
Luxmanl525 schrieb:
Du hast was Entscheidendes vergessen, nämlich ein Neues Netzteil. Das wirst du nämlich nötig haben mit einer Vega 64 Nitro. Das ist nicht Negativ gemeint, nicht daß das falsch rüber kommt. Sondern schlichtweg Erfahrungswerte. 650 Watt reichen eher nicht. Mußt nur hier im Forum mal rumschauen.

Wasn das fürn Unsinn? Er hat ein Corsair TX650W das langt locker aus. Ich habe nen 750 Watt für mein System und brauche unter Vollast maximal 500 Watt...

DeZomB schrieb:
Ich glaube so weit sind wir davon Nichtmehr entfernt.

Sehe ich nicht so. Auch wenn die Entwickler Early Access hatten schraubt man nicht einfach eine Engine so von heute auf morgen um. Vor allem alles was aktuell in Entwicklung ist bzw. eine Fertigstellung bis ~2022 wird das in der Regel nur mittels Patch bereitstellen können. Echte Ray Tracing Engines werden wir in frühestens 5 Jahren sehen flächendeckend also eher Richtung 10 Jahre.
 
  • Gefällt mir
Reaktionen: yummycandy
Luxmanl525 schrieb:
Hallo zusammen,

@ Khaotik



Ich will dir nicht zu Nahe Treten, aber so falsch wie du liegst, kann man eigentlich gar nicht Liegen, erst Recht im Hinblick darauf, was du dann hierauf aufbauend Parlierst.

Die Nvidia GTX 8800 hat über 500 € gekostet. Hör am Besten auf, wenn du schon Hinten und Vorne keine Ahnung hast! Sorry, normalerweise bin ich ein eher ruhiger Zeitgenosse, aber wenn ich sowas hier Sehe, schwillt auch mir der Kamm.

So long...

Und? 300€. 500€. 1000€ Völlig egal. Es geht ums Prinzip. Es ist doch Blödsinn, dass 50% mehr Leistung auch immer 50% höhere Kosten legitimieren. Vor allem in Zeiten, in denen die Preise immernoch durch das Mining auf einem erhöhten Niveau stehen.
Und die 50% mehr Leistung glaube ich auch erst, wenn ich sie in unabhängigen Tests gesehen habe. Zeig mir einen Hersteller, der bei solch einer Präsentation sein Produkt nicht als die größte Erfindung seit der Entdeckung der Elektrizität hinstellt. Die 50% Preissteigerung bleibt aber.

Aber es ist schön zu sehen, wie man manche hier triggern kann. :evillol: Da geht mir glatt das Herz auf.
 
Postman schrieb:
Viel Geplapper um eigentlich nichts wirklich Greifbares.

Wann kommen denn endlich Benchmarks, dass man den Unterschiede zwischen einer Karte der letzten Generation im Vergleich zu den neuen Karten sieht?
Ich denke schon das es zukünftig ein gewisses Maß an Relevanz hat, schließlich lassen sich damit recht anschauliche Licht und Schatten Effekte realisieren aber bis das aktuell ist muss es eine breitere Masse erreichen können. Da werden wohl noch ein paar Jahre vergehen.

Begu schrieb:
Nehmen wir mal FarCry5 UHD als Beispiel, hier ist die 1080Ti um ~25% schneller als die 1080. Die 2080 läuft von den techn. Speccs her irgendwo im 1080Ti Bereich, geht man ohne techn. Verbesserungen der Cores aus. Nimm etwas Verbesserungen an den Cores an, so liegt die 2080 bei ~35% über einer 1080. Nachdem Nvidia mit ihren 50% mit Sicherheit CherryPicking betreibt, passt doch alles.
Natürlich betreiben die Cherry Picking denn sie vergleichen die 2080 mit der deutlich billigeren 1080 und nicht mit der 1080Ti die zum einen in einer vergleichbaren Preislage liegt und zum anderen auch von der komplexität der stimmigere Vergleichspartner wäre. Es würde mich nicht wundern wenn eben jene Konkurrenz im eigenen Haus beim Marktstart eingestellt wird.
 
Khaotik schrieb:
Aber es ist schön zu sehen, wie man manche hier triggern kann. :evillol: Da geht mir glatt das Herz auf.

Ich sehe niemand der "getriggert" ist. Nur jemand der sein Fehler nicht eingestehen kann...
 
Hallo zusammen,

@ Cool Master

Cool Master schrieb:
Wasn das fürn Unsinn? Er hat ein Corsair TX650W das langt locker aus. Ich habe nen 750 Watt für mein System und brauche unter Vollast maximal 500 Watt...

Dann darfst du dich schlicht und einfach Glücklich Schätzen. Nicht mehr, nicht weniger. Es gibt Modelle, die einfach mal um die 400 Watt weg Hauen.

Welches System meinst du eigentlich, von dem du im Bezug auf deine Angaben sprichst?

@ Khaotik

Khaotik schrieb:
Es geht ums Prinzip. Es ist doch Blödsinn, dass 50% mehr Leistung auch immer 50% höhere Kosten legitimieren.

Ums Prinzip? Welches Prinzip? Dann solltest du das mal besser angemessen darlegen, alleine schon der Vergleich ist doch schon eine Luftnummer. Du hast einen dicken Hals, weil es nicht so gekommen ist, wie du es gerne gehabt hättest und jetzt spinnst du hier irgendwelche Luftnummern, noch dazu mit selbst Phantasierten Querverbindungen, die du dann noch als Beleg bringst.

Und wer redet davon, daß 50 % mehr Leistung für 50 % höhere Kosten steht? Das sind doch nur Leute, die sich Dinge regelrecht selbst Einreden und nicht Merken, daß wir nun einmal eine sogenannte Freie Marktwirtschaft haben.

Ich weiß gar nicht, was hier wieder rumgesponnen wird. Kauft den Kram nicht und gut ist. So einfach ist das. Dann werdet ihr mal Sehen, wie schnell die entsprechenden Hersteller sich danach Richten.

So long...
 
Zuletzt bearbeitet:
Zurück
Oben