News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

D3Spieler schrieb:
Nein haben sie nicht.

Wenn ja dann bitte mal näher erläutern, würde mich mal interessieren welche Karte preislich Druck machen könnte.

Ich sehe weit und breit keine:

Vega teuer als GTX 1070ti.

Rx 580 8gb vs GTX 1060?

Ehrlich? nvidia hat bereits soviele 1060er verkauft, die werden locker im Preis mitgehen, vor allem weil auch der Abverkauf ansteht.

Es ist ja nicht so das AMD nie wieder GPUs rausbringt oder? Und wenn die Gen bei dem Preis anfängt dauert das halt länger bis der im annehmbaren bereich ausschaut. Wenn jetzt z.B. Navi Anfang 19 was gutes wird kann AMD Preisdruck machen. 600€ für ne 2070 sind schon schwer zu unterbieten. Aber stimmt schon. Es ist ja Nvidias Erhabenheit die den Preis rechtfertigt. Wer soll da schon zweifeln. Warum sollte man sich dann ne AMD-Karte kaufen wenn die was billigeres bringen würden, dann würden die Preise ja nicht weiter steigen und man wäre nichtmehr in der elitärsten Gamer-Gruppe deren Karten sich nur Leute leisten können die auch nen Maserati fahren. Was für eine angsteinflößende Vorstellung bei den Ekelhaften Mid-Range und High-End Bauern rumzusitzen wie ein Tier. Enthusiastpreise für Low-End GPUs müssen her.

Zum Glück macht AMD nie wieder eine neue GPU, sonst hätten wir ja alternativen zu dem Wahnsinn mit den Preisen. Ist ja nicht so als wäre da nicht schon was angekündigt.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
@HardwareKind
Und die Verkaufszahlen der letzten Jahre zeigen recht deutlich das auch keine Konkurrenz gewünscht ist. ;)

Weil die Konkurrenz nichts vergleichbar attraktives mehr produziert. Früher hast du für eine High End Karte um die 500 Euro bezahlt, das wäre jetzt beispielsweise die 2080. Weil von AMD nichts vergleichbar brauchbares raus kommt kann sich Nvidia die Preisgestaltung weiterhin erlauben und dennoch Rekordumsätze verbuchen.

Hoffentlich legen die in Sachen Grafikbeschleuniger genauso einen Zahn zu, wie im CPU Bereich.
 
  • Gefällt mir
Reaktionen: lanoo
HardwareKind schrieb:
Weil die Konkurrenz nichts vergleichbar attraktives mehr produziert. Früher hast du für eine High End Karte um die 500 Euro bezahlt, das wäre jetzt beispielsweise die 2080. Weil von AMD nichts vergleichbar brauchbares raus kommt kann sich Nvidia die Preisgestaltung weiterhin erlauben und dennoch Rekordumsätze verbuchen.

Hoffentlich legen die in Sachen Grafikbeschleuniger genauso einen Zahn zu, wie im CPU Bereich.

Noja, als es Konkurrenz gab war grüne Farbe ja auch wichtiger als eine gute Karte. Oder warum würdest du eine HD5870 ihrem GeForce Pendant der Zeit vorziehen? Wirkliche Gründe gabs da einfach nicht. Und die Karte war schneller und billiger als die GTX 285 oder 480. Ich glaub so um die 30% zur 285 oder so. Aber da ging das Schwinden von AMDs Marktanteilen schon gewaltig los. Also da gabs Konkurrenz. Gewünscht war sie aber offensichtlich nicht, sonst hätte AMD seine Marktanteile noch.
 
Das ist Unfug HardwareKind.

In den letzten Jahren hatte AMD sehr wohl absolut Konkurrenzfähige Karten und wurde von den "Jüngern" als Preisdrücker genutzt, damit sie ihr nVidia Kärtchen ja ein paar € günstiger kriegen.

Man erinnere sich nur an die R9 290 in der jüngeren Vergangenheit.
 
@Hurricane271

wenn wir das hier zu grunde legen und uns bewusst darauf einlassen, dass die zahlen ziemlich ungenau sind, weil wir einige faktoren ausklammern müssen, die wir nicht kennen:

9_RA7Z4nL0xK36ZCDOt7pAfF8vc6pVGmYf3VtRUmLkA.jpg


das unten folgende ist wirklich nur eine ganz grobe annährung - damit man mal grob erahnen kann in welchen regionen die produktionskosten einer gpu liegen könnten.

der die von vega wird etwas teurer sein, ich würde mal schätzen so 90$.

2 stacks hbm 2 mit 4 gb (8gb insg.) kosteten oder kosten 160$ + 25$ interposer (der hbm auf vega kostet das dreifache von fury)

https://www.gamersnexus.net/guides/3032-vega-56-cost-of-hbm2-and-necessity-to-use-it
(irgendwo wurden mal noch 160$ erwähnt, der preis ist nach dem artikel noch weiter gestiegen, deshalb 160$ und nicht 150$)

substrate & packaging dürfte bei vega auch mindestens auf dem level von fury liegen - allerdings weiß ich nicht, was damit genau gemeint ist. nur der core? auf jeden fall hat vega teilweise ein epoxy-vergossenes package - das gabs bei fury nicht - da lag der interposer frei. 30$? 40$? keine ahnung.

pcb ist bei vega ebenfalls teurer als bei fury (größer) - würde hier 10$ ansetzen - goldene mitte.

jetzt weiß ich nicht, bei welchem posten das extrem teure vrm + die ganzen kondensatoren von vega reingerechnet werden und der kühler fehlt auch noch.

aber wenn wir jetzt mal rein diese posten addieren kommen wir auf:

90$ + 160$ + 25$ + 30$ + 10$ = 315$ mit dem jeweiligen best case - OHNE dem ~30$ vrm und dem kühler.

rechnen wir das dazu kommen wir bei ~360$ reine produktionskosten raus - auch wenn ich ein fehler gemacht habe und es 60$ bzw. 20% zu viel sind - sinds trotzdem 300$ aus der fabrik bis 399€ in den handel.

wer hier verlangt, dass vega 56 mal bei 250€ ankommt, kann sich das mit schmackes aus dem kopf schlagen - im ramsch abverkauf vielleicht - so wie die letzten paar fury. aber regulär - niemals.

wieviel polaris kostet? gute frage. das könnte man anhand der r9 290x mal grob durchspielen:

die r9 290x hatte 438 mm² in 28nm
polaris 20 hat 232 mm² in 14nm
-----------------------------------------
faktor 0,53

ich würde jetzt mal die node aus der rechnung raushalten und nur die fläche des dies heranziehen. ich weiß schlicht nicht, wie das skaliert. zudem berücksichtigt das die fix-kosten nicht. die zahlen für den core sind wirklich eher geraten als gerechnet.

80$ * 0,53 = 42,4 $ -> aufrunden auf 43$.

substrate & packaging übernehmen wir: 15$

alter GDDR5: 64$ (2x 32$) / laut GN: 52$ / aktueller preis: ~68$ vielleicht etwas mehr

pcb: 8-12$ vielleicht? sagen wir auch 10$.

vrm auf polaris mindestens die hälfte oder weniger. 10$ + kühler

dann kommen wir auf:

43+15+68+10 = 136$ + 10$ vrm + kühler.

die gtx 1060 hat mit 200mm² einen kleineren die, 2gb weniger vram und ein 1/3 günstigeres vrm.

40$ core
15$ packaging
51$ vram
6-8?$ pcb

6-8$ vrm + kühler

gibt für die 1060 grob

40+15+51+7+7 = 120$ +7$ vrm + kühler.

nvidia wird aber bedingt durch die hohen stückzahlen bessere stückpreise bekommen als amd.

der vollständigkeit halber noch eine 1080:

314mm² = 58$
20$ packaging
keine daten für gddrx5 - im zweifel für den angeklagten statt 68$ GDDR5 geschätzte 80$?
10$ pcb
10$ vrm (referenz vrm ist krempel) + kühler

58+20+80+10 = 168$ + 10$ vrm + kühler


da kann jetzt jeder wie er will noch 30-40€ draufrechnen oder abziehen - das ändert nix dran, dass vega wesentlich teurer ist als eine gtx 1080 und dank dem affenartig teuren hbm2 + vrm wahrscheinlich auch noch teurer als eine 1080 ti und titan xp.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: krebser
Wo haben denn hier alle den Unfug von wegen "die RTX 2080ti schafft nur 30 fps mit Raytracing in Tomb Raider" her? Wegen eines PCGH Videos? Gibt genügend Videos, die auch 1080p60fps mit RT on zeigen.
Anscheinend gibt es aber generell noch ein paar massive Optimierungsprobleme mit dem Game:


Denke nicht, dass man das als Grundlage für eine Beurteilung nehmen kann.
Man kann inzwischen auch ein paar Gameplayvideos von Bf5 finden, da scheint RT ganz gut zu laufen.

Edit: Hab gerade das Video von PCGH gefunden, stellenweise tatsächlich 30 fps....
Ich vermute man konnte das Spiel nicht mir RT off spielen? Weil der unterschied zur XoneX ist ja schon ziemlich krass....
 
Zuletzt bearbeitet von einem Moderator:
HardwareKind schrieb:
Weil die Konkurrenz nichts vergleichbar attraktives mehr produziert. Früher hast du für eine High End Karte um die 500 Euro bezahlt, das wäre jetzt beispielsweise die 2080. Weil von AMD nichts vergleichbar brauchbares raus kommt kann sich Nvidia die Preisgestaltung weiterhin erlauben und dennoch Rekordumsätze verbuchen.

Hoffentlich legen die in Sachen Grafikbeschleuniger genauso einen Zahn zu, wie im CPU Bereich.
Der Hauptunterschied ist das die Radeons mehr Strom gefressen haben, die Karten aber von der Leistung her eine zum Teil erheblich bessere Langzeitstabilität besaßen. Gerade weil der Treiber dafür keine ganz so tragende rolle spielt, sie idR. mehr Grafikspeicher besaßen, das Speicherinterface nicht in einer Sparversion vorlag und spätere Spiele auf einmal doch mehr mit den brach liegenden CPU Kernen anfangen konnten. Wie war das kürzlich nochmal mit den Benchmarks bei HDR und sehr vielen CPU Kernen?

Nvidia lebt von Krücken für veraltete Technologieen und künstlichen Beschränkungen und hat deshalb überhaupt kein Interessse daran grundlegende Probleme ernsthaft anzugehen denn damit lässt sich die billigere Hardware deutlich teurer verkaufen.
Der Kunde applaudiert und zeigt mit dem Finger auf jene die grundlegene Probleme lösen (z.B. Mantle und Co.) und etwas langlebigeres (Speicher, HDR usw.) zu einem vernünftigen Preis anbieten wollen. Wie kann man auch nur.

Die Kundschaft hat jetzt eben das was sie schon immer wollte, keine Alternativen und ich kann mich noch bestens daran erinnern wie vor Jahren vorgebetet wurde das die Preise dann ganz sicher nicht explodieren würden weil sie ja schließlich ihre Produkte verkaufen wollen.
 
  • Gefällt mir
Reaktionen: modena.ch und rg88
@Weby +1 ... jetzt habe ich einen Moment verdutzt auf die Bilder geschaut und dann echt herzhaft gelacht. :D

Sester schrieb:
Stimmt, diese Schwachsinns-microruckler-Karten hab ich ganz vergessen. 9800 GX2 Einführungspreis unter 500.

Ein großer Wurf war die 9800 GX2 seiner Zeit nicht, aber zu dem Zeitpunkt gut 20-30% schneller als die 3870 X2 und zudem die erste Grafikkarte die Crysis in 1.600 x 1.200 Pixeln mit 4xAA und 16xAF mit mehr als 30 FPS gestemmt hat.

030F3861-B7DD-45BE-9D64-CEFE923DA36D.jpeg


Ich kenne jemanden der hat diesen Mircrorucklerbeschleuniger im SLI als Quad-SLI im Retro-PC. ^^

Hill Ridge schrieb:
Wozu sollte man dann eine 2080 Ti kaufen?

Ich denke dass das nur die kommenden Tests beantworten können. Wenn sich die Vorteile der RTX 2080 Ti gegenüber der GTX 1080 Ti nur auf RT beschränkt, darf diese Frage (auch abseits des Preises) gestellt werden.

RT oder nicht, die (2080) 2080 Ti muss die (1080) 1080 Ti um mindestens 40-60% schlagen und zwar in jedem Szenario.

Wie ich schon sagte, den Preis lassen wir mal so stehen (wurde ja ausgiebig diskutiert), aber in Sachen Performance muss ein dickes Plus her, sonst laufen selbst Enthusiasten NVIDIA nicht die Türe ein.

OCMC schrieb:
Wer hätte damals ne Grafikkarte für 2600 DM gekauft?

Das ist alles relativ. Ich habe mir 1992/93 (wegen Star Wars: Rebel Assault) mein erstes CD-ROM Laufwerk inklusive Soundkarte im Bundle für meinen Intel i486 DX2 66 gekauft.

Single-Speed (150 kb/s) CD-ROM Laufwerk + Soundkarte

Kostenpunkt: ~ 1.000 DMark :D

sleuftdude schrieb:

Wenn’s so weitergeht, mutiert die 2080 Ti noch zum Schnäppchen. :D

Liebe Grüße
Sven
 
RYZ3N schrieb:
RT oder nicht, die (2080) 2080 Ti muss die (1080) 1080 Ti um mindestens 40-60% schlagen und zwar in jedem Szenario.
40-60% ist eigentlich ja schon absolut unrealistisch, die Enttäuschungen werden groß sein;)
 
RYZ3N schrieb:
Ein großer Wurf war die 9800 GX2 seiner Zeit nicht, aber zu dem Zeitpunkt gut 20-30% schneller als die 3870 X2
Die 3000er Serie kannst sowieso nicht heranziehen. Da hatte AMD gerade ATI aufgekauft. Die 3000er waren ein Shrink der 2000er, die ATI in den Ruin getrieben hätten, wenn nicht die (überteuerte) Übernahme gekommen wäre. Das war quasi nur die Rettung einer missratenen Architektur mit Hinblick auf den Verbrauch um die Zeit zur ersten AMD-Entwicklung zu überbrücken (4000er Serie).
Ergänzung ()

RYZ3N schrieb:
Wenn’s so weitergeht, mutiert die 2080 Ti noch zum Schnäppchen. :D
:lol::evillol::daumen::daumen::daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN
Hill Ridge schrieb:
40-60% ist eigentlich ja schon absolut unrealistisch, die Enttäuschungen werden groß sein;)

Bei allem was ich bisher so gehört habe, ja ... ich halte es auch für sehr unrealistisch dass die 2080/2080 Ti die 1080/1080 Ti in dieser Größenordnung schlagen können.

Und ja, ich fände das wirklich enttäuschend.

Zum einen weil man „Spielereien“ wie RT zwar als nettes Feature verkaufen kann, aber den Preis zwingend über die Performance rechtfertigen muss. Zum anderen weil nun wirklich die ganz große Marketing Keule ausgepackt wurde. Der erwarte ich als Hardwareinteressierter einfach etwas Besonders, ob ich’s nachher kaufe oder nicht, ob ich die Zielgruppe bin oder nicht. Ich will für den Preis richtig vom Hocker genauen werden.

Ich weiß noch wie ich 2006 den GeForce 8800 GTX/GTS Test gelesen habe und mir der Mund offen stand.

Oder die ersten Tests der 3dfx Voodoo und Voodoo 2.

Naja, warten wir die ersten Tests ab. Dann wissen wir mehr.

Liebe Grüße
Sven
 
mal abwarten und "hoffentlich nicht mehr so viel unnützes Zeug vorhersagen.."
genaues kann man erst nach diversen Tests sagen und anschlie$end einordnen.
die werden sich schon was dabei gedacht haben.
Sind ja nicht erst seit gestern dabei und auch nicht auf der Brotsuppe daher geschwommen ...
 
Mir fällt grad ein: Tomb Raider kommt ja bereits am 14. September raus! Und zwar noch dieses Jahr!
Prost Mahlzeit, wenn das genauso beschissen läuft wie auf der Demo.....
 
rg88 schrieb:
Die 3000er Serie kannst sowieso nicht heranziehen. Da hatte AMD gerade ATI aufgekauft. Die 3000er waren ein Shrink der 2000er, die ATI in den Ruin getrieben hätten, wenn nicht die (überteuerte) Übernahme gekommen wäre. Das war quasi nur die Rettung einer missratenen Architektur mit Hinblick auf den Verbrauch um die Zeit zur ersten AMD-Entwicklung zu überbrücken (4000er Serie).
Das war die HD2000 Serie wo AMD ATI aufgekauft hatte. ;)
Die R600 Modelle hatten noch den 80nm Fertigungsprozess und andere Probleme wie z.B. keine funktionierende Videoeinheit. Da wurde die Beschleunigung über die Shader erledigt mit entsprechenden Folgen für den Strombedarf.
Die kleineren Modelle kamen bereits in 65nm daher und bei der HD3000 Serie wechselte man auf die 55nm.
Überhaupt machte der R600 der HD2900 Modelle einen sehr unfertigen Eindruck, vermutlich musste das Ding einfach raus um was auf dem Markt zu haben, dafür wurde sie aber auch relativ zügig von der HD3000 Serie abgelöst.
Die HD4000 Serie blieb bei 55nm, mit entsprechenden Folgen für den Strombedarf.
 
Anhand der Shader und des Taktets kann man schon recht gut abschätzen um wie viel die Karten schneller sind.

Interassant wäre auch, ob Pascal nicht bei maximalem OC höhere Taktraten als Turing schafft.
Wenn das so ist, könnte Pascal mit OC sogar gleich schnell oder etwas schneller sein.

12FFN soll gegenüber 16FF+ etwas effizienter sein, die Trasistordichte ist höher, aber es wurde vor langer Zeit auch mal berichtet, daß die Taktbarkeit etwas geringer sein soll.
 
Zurück
Oben