News Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080

Ich meinte eher welche auswirkungen ein doppelter L2-Cache hat?
 
schnellere Abarbeitung , Verringerung von Wartezeiten ? , je mehr Shader , desto größer der Cache
dazu kommt das jetzt unterschiedliche Cores = Shader / Tensor / RT Cores Daten liefern bzw auf Daten warten
 
  • Gefällt mir
Reaktionen: Unergo
Also wenn DLSS wirklich so wirkt wie in der Demos die CB gesehen hat, dann wäre das zu schön um wahr zu sein.
Da verzichte ich gerne noch auf RT vorerst und nutze DLSS auf den Kernen um das Flimmern zu beseitigen ohne Unschärfeverlust.
Leider, selbst wenn es so toll ist, bleibt das Problem, dass es vom Spiel unterstützt werden muss.
 
Soso also 50% mehr Leistung und annähernd doppelt so teuer ?

Wann ist dem Wahnsinn beim Preis eigendlich Einhalt geboten ? Die 600 Euro für meine 1080 Ti habe ich mir damals schon zähneknirschend aus den Rippen geschnitten und jetzt ballern die mit knapp 1200 Euro raus ?

Ich merke das ich langsam alt werde. Damals war das angepeilte maximum einer Grafikkarte 300 Euro, und dafür hat man immer eine adequate schnelle Karte bekommen. Meist die 70er Version, 370, 470, 570 etc. und jetzt sind wir schon über 1.000 Euro für das Spitzenmodell und im hohem 3stelligem Bereich für die 70er Serie. Ich denke das die Karte auch mehr kann als die alten Karten taugt nicht als Referenz. Damals waren die Topmodelle auch das nonplusultra. Wo kommen diese extremen Preise her ?
 
  • Gefällt mir
Reaktionen: Dark Matter
@Nightmare25
Die extremen Preise kommen daher, dass man dem Kunden auch Produkte bietet, die man sich früher aus wirtschaftlichen Gründen wohl verkniffen hätte.

Man hat ein par Testballons losgelassen (Titan) und diese sind wohl in entsprechender Zahl verkauft worden, so dass man sich jetzt entschlossen hat, dem Kunden die Auswahl für eine noch höhere Klasse zu bieten.

Eine tolle Option, für all diejenigen, die in neue Technik investieren wollen. Auch gut für die, die später durch die "verrückten, Kleinhirnträgern" und wie sie hier nicht sonst noch tituliert werden dann mit günstigeren Preisen, wenn auch mit Verzögerung nachträglich in den Genuss der Technik kommen dürfen. Das, was früher die 1080 TI war, ist halt jetzt klassentechnisch die RTX 2070. Sie erfährt ja nach alledem, was man bis jetzt weiss auch die übliche Steigerung der Leistung im Generationssprung.

So lief das bis jetzt im Tech- Sektor immer. Neue Technik- Early Adopter - Hoher Preis. Wurde das Produkt angenommen, wurde es dann später immer günstiger in den Consumer Markt gedrückt.

Man darf ja auch nicht vergessen, dass ein gewisses Risiko darin besteht, bekannte Pfade zu verlassen. Wenn die RTX- Serie floppen sollte, hat nVidia bestimmt MASSIV Geld in den Sand gesetzt. Die Änderungen der neuen Generation sind seit T&L bzw. unified Shadern nicht mehr so umfassend gewesen. Somit wählt man einen Preis, der selbst in einem schlechten Szenario die Firma nicht ins Wanken bringt.

So etwas nennt man nachhaltig wirtschaften. Will in den heutigen Zeiten von "alles Kostenlos" und "mir ist XY nichts wert und mein Empfinden ist der Mittelpunkt der Welt" zwar keiner hören, ist aber so.

Gerne können sie auch sofort ein doppelt so schnelles Modell der 2080 RTX für 3000,-€ rauskloppen. Dann hat man noch mehr Auswahl und einige hobbyisten, die die Kohle haben würden sich riesig freuen.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod, gerzerk und Oneplusfan
1cem4n schrieb:
Nochmal aber Battlefield, siehe Fensterscheiben bei den Gebäuden.
https://www.tweaktown.com/news/62907/battlefield-gameplay-video-nvidia-rtx-1080p-60fps/index.html

Das Spiele unterschiedlich gut laufen ist ja nichts Neues, kommt denke stark auf die Engine an und wieviele Lightbounces berechnet werden.

Battlefield läuft aber eben auch nicht sehr gut und beschränkt Raytracing auf die Reflexionen, womit Schatten und Beleuchtung scheinbar nicht durch Raytracing berechnet werden.
Die PCGH listet da zudem noch einige weitere Nachteile auf: http://www.pcgameshardware.de/Battl...ield-5-Nvidia-RTX-2080-Ti-Raytracing-1263364/

Auch da sind es eben nur 1080p mit nicht so tollen fps und das Raytracing hat zumindest bisher auch noch seine Einschränkungen. Ich verstehe total, dass Raytracing toller und besser sein kann, es wirkt halt nur noch eher unreif (in Bezug auf die gebotene Performance), und dazu zu diesem hohen Preis! Das ist ein wenig so, als müsse man als Early Adopter und Beta-Tester noch extra draufzahlen. Wenn die Spiele jetzt alle mit Raytracing in 4K mit 60fps liefen, dann wäre ich vielleicht sogar am überlegen, nicht doch noch so eine Karte zu kaufen (oder eben doch mal zu warten, wie Navi so wird)...aber so... :freak:

Da will man ja kaum noch wissen, wie das auf der 2070 läuft, wenn die 2080Ti schon völlig überfordert zu sein scheint.
 
  • Gefällt mir
Reaktionen: Dark Matter
ZeroZerp schrieb:
@Nightmare25
Wenn die RTX- Serie floppen sollte, hat nVidia bestimmt MASSIV Geld in den Sand gesetzt.

Warum sollten sie Massiv Geld in den Sand gesetzt haben?
Das ist eine neue Technik die noch reifen muss.
Wer auch immer die jetzt benutzen möchte soll es tun. Aber es ist einfach nichts für die breite Masse.
Teuer und dann bricht zusätzlich noch die Framerate ein..

Sollte die 20x0 Generation nicht einschlagen tut es die nächste.. Die jetzige ist nur zum anfixen ;-)
 
Was man nicht vergessen darf, es gab nach jedem Release eine Preisdiskussion. Für uns scheint diese wichtig zu sein, für den Konzern nVidia ist das nur hohles Gewäsch. Weil früher oder später, sowieso jeder eine solche Karte besitzt, egal was sie kostet.

Die, die sich hier so aufregen haben in spätesten 1em Jahr bei exorbitanten Preisen zugeschlagen.

Und jedes mal wird auch über das "nicht vorhanden sein" von der Konkurrenz gefachsimpelt.

Ohne Konkurrenz sieht der Markt halt so aus, wie er ausschaut.

Das kennt doch schon jeder vom CPU Markt. Bevor AMD, die Intel CPUs in der Luft zerrissen hatte, war der Markt auch in einem solchen Zustand.
 
@Nightmare25
@ZeroZerp

Das klingt aus meiner Sicht etwas zu positiv. Neue Features gibt es fast mit jeder neuen Architektur, ohne dass dafür notwendigerweise saftige Aufpreise verlangt wurden.

Seit der recht misslungen Fermi-Architektur (480 bspw.), bei der es das letzte Mal einen wirklich großen High-End-Chip für ca. 500 € gab, dreht Nvidia mit jeder Generation an der Preisspirale.
Mal werden die Preise angehoben, mal werden einfach kleinere Chips, die früher unter Mid-Range gefallen wären, zu erhöhten Preisen als High-End verkauft (bspw. 1070 / 1080) und das eigentliche High-End noch oben drüber gesetzt (Ti / Titan), natürlich zu entsprechenden Preisen. Das macht Nvidia nun schon eine ganze Zeit und sie eilen jedes Quartal zu neuen Rekorden, da ist es kein Wunder, dass sich dieser Trend aufgrund der mangelnden Konkurrenz fortsetzt.

Aber man muss fairerweise auch sagen, dass die neuen Chips aufgrund der RTX- und Tensor-Cores deutlich größer und teurer in der Produktion sind. Das erklärt einen Teil des Aufpreises, Nvidia will sicherlich keine schlechtere Marge mit einer Folge-Generation.

Ein Ende könnte dem nur eine starke Konkurrenz Einhalt gebieten, aber Vega kann mit dem High-End nicht mehr mithalten und AMD wird frühestens 2019 mit Navi eine entsprechende Konkurrenz haben. Ob Navi aber eher Gegenspieler der 2070, der 2080 oder gar der 2080Ti wird ist noch fraglich.
Intel will zwar auch wieder in den GPU-Markt einsteigen, aber hier spekuliert man auf frühestens 2020, dieses Jahr sehen wir in Sachen Preisdruck und Konkurrenzkampf also ein sehr schwaches Jahr.

Da wundert es nicht, dass Nvidia mit der Marktdominanz und dem Einfluss auf Entwickler die Preise annhährend beliebig festlegen kann.
 
@KarlKarolinger
Wie soll das ganze denn auch Top und rund laufen, wenn hier nur sehr frühe Tech- Demos gezeigt werden?
Alle schreiben, dass das Alphas und Pre- Pre- irgendwas sind.

Es ist also eher so etwas wie- So könnte es aussehen, oder auch besser, wenn Korrekturen und Optimierungen stattgefunden haben.

nVidia wird ihre Bibliotheken bis zum Erscheinen der Titel auch sicher noch x- Mal überarbeiten. Die Softwareabteilung von denen ist sowieso sehr rührig....

Grüße
Zero
Ergänzung ()

Tapion3388 schrieb:
Neue Features gibt es fast mit jeder neuen Architektur, ohne dass dafür notwendigerweise saftige Aufpreise verlangt wurden

Das sind keine neuen Features. Das ist hardwarebeschleunigt einen komplett neue Plattform!
Das begreifen hier einige nicht, dass hier nicht wie schon Ewigkeiten zuvor nur ein par zusätzliche Shaderrechenwerke mit Dieshrink/höherer Taktung und mit angepasster Software auf die Karte gepresst wurden.
Und es werden Weichen gestellt, die eine Revolution in Sachen Spielegrafik ermöglicht, auf die man lange lange warten musste.
Wer möchte denn nicht Computerspiele in der Grafikqualität eines modernen Pixar Filmes erleben?
Zugegeben- Da ists noch ein langer Weg. Aber es ist schön, dasss man diesen Weg ENDLICH geht.
 
Zuletzt bearbeitet:
@ZeroZerp

Verzeihung aber das ist Unsinn, ich glaube das ist schon sehr optimiert was nVidia da raus gebracht hat.
Sie hatten überhaupt keinen Druck und konnten locker an Hardware und Software basteln. Es wäre was anderes gewesen, hätten sie einen Konkurrenten im Nacken.
 
  • Gefällt mir
Reaktionen: Dark Matter
reddragon1212 schrieb:
Warum sollten sie Massiv Geld in den Sand gesetzt haben?
Das ist eine neue Technik die noch reifen muss.
Wer auch immer die jetzt benutzen möchte soll es tun. Aber es ist einfach nichts für die breite Masse.
Teuer und dann bricht zusätzlich noch die Framerate ein..

Sollte die 20x0 Generation nicht einschlagen tut es die nächste.. Die jetzige ist nur zum anfixen ;-)
Naja- Die haben auch ihre Forecasts und rechnen mit X- abgesetzten Einheiten.
Setzen sie die nicht ab, dann wird sich der Kurs sicherlich ändern und die Triebkraft der Innovation in diese Richtung abgeschwächt.
Ergänzung ()

AYAlf schrieb:
Verzeihung aber das ist Unsinn, ich glaube
Das als Unsinn zu bezeichnen und im Satz darauf ein "ich glaube" draufzusetzen widerspricht sich doch irgendwie, oder?
Steht ja auch nur dabei, dass das alles frühe nicht ausgereifte Versionen wären....

Grüße
Zero
 
@ZeroZerp

Habe ich doch in meinem Beitrag geschrieben, dass es sich um einen eigenen Bereich auf dem Chip handelt. Wenn dich der Begriff Feature stört, ersetze ihn gedanklich einfach durch Technologie, dann passt es wieder.

Nichtsdestotrotz bin ein wenig reservierter als du, was diese "Revolution" angeht. Klar, Raytracing wird wohl irgendwann die Zukunft sein in Spielen und auch Grafik stark aufwerten, aber ob das in dieser Generation einen solchen Aufpreis rechtfertigt würde ich zumindest mal leise bezweifeln, denn von Spielen mit Qualität von Pixar-Filmen sind wir noch meilenweit entfernt, besonders weil Entwickler wohl kein Spiel auf eine Technolgie zuschneiden, die nur ein Bruchteil der Spieler hat.

AYAlf schrieb:
@ZeroZerp

Verzeihung aber das ist Unsinn, ich glaube das ist schon sehr optimiert was nVidia da raus gebracht hat.
Sie hatten überhaupt keinen Druck und konnten locker an Hardware und Software basteln. Es wäre was anderes gewesen, hätten sie einen Konkurrenten im Nacken.

Zumindest konnten sie sich den Luxus erlauben, den Release der neuen Architektur einfach nach hinten zu verlegen, weil sie sich mit der Mining-Nachfrage ordentlich verspekuliert hatten. Das wäre mit einer harten Konkurrenz im Rücken wohl nicht möglich.
 
Ich glaube nicht, dass sie mit dem Raytracing ein großes Risiko eingehen. Der Preis der Karten steht ja in Relation zur Shaderleistung und die ist weiterhin konkurrenzlos. Wer also mehr Frames in existierenden Games haben will, der greift zur 20er Generation.
 
ZeroZerp schrieb:
Das als Unsinn zu bezeichnen und im Satz darauf ein "ich glaube" draufzusetzen widerspricht sich doch irgendwie, oder?
Steht ja auch nur dabei, dass das alles frühe nicht ausgereifte Versionen wären....

Etwas anderes zu schreiben als "glaube" und "imho" in diesem Fall wäre Blasphemie.
Natürlich weiß keiner was genaues. Dafür fehlen die unabhängigen Tests.
Ich denke dein Gedankengang ist eher unwahrscheinlich, das wollte ich damit ausdrücken.

Und das mit der frühen unausgereiften Version steht immer dabei, dies sagt imho gar nix aus.

Ich traue nVidia überhaupt nicht. Egal welche Balken oder Sätze sie in ihren Artikeln verfassen.
 
@Tapion3388
Ich vergaß dazuzuschreiben, dass ich mich mit dem Thema schon seit AMIGA- Zeiten (Kennt jemand noch Reflections?) beschäftige und seitdem nah am Thema bleibe.

Mach das mal und schau Dir an, was möglich ist. Liebt man Computergrafik, fängt man dabei zu Träumen an.
Da geht noch einiges, was die Grafik anbelangt. Nur halt nicht ohne Raytracing.

Wie es derzeit aussieht, lässt nVidia die Pascal Karten vergünstigt am Markt.

Somit ist ja keiner gezwungen das was er nicht will, was er nicht braucht, was er nicht versteht, wertschätzt oder deren grafischer Qualitätsunterschiede er nicht erfassen kann zu kaufen, sondern kann hohe Rastergrafikleistung zu besseren Preisen beziehen.

Grüße
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
@KarlKarolinger
Wie soll das ganze denn auch Top und rund laufen, wenn hier nur sehr frühe Tech- Demos gezeigt werden?
Alle schreiben, dass das Alphas und Pre- Pre- irgendwas sind.

Es ist also eher so etwas wie- So könnte es aussehen, oder auch besser, wenn Korrekturen und Optimierungen stattgefunden haben.

nVidia wird ihre Bibliotheken bis zum Erscheinen der Titel auch sicher noch x- Mal überarbeiten. Die Softwareabteilung von denen ist sowieso sehr rührig....

Grüße
Zero

Der Jensen Huang hat doch gesagt, dass beim Raytracing alles von ganz alleine berechnet wird, was gibt es da denn großartig zu optimieren ohne die Berechnungen und damit die Qualität zu reduzieren? Die grundlegende Technik ist seit den 70ern oder so bekannt und seitdem offenbar auch nicht sonderlich optimiert worden. Klar kann man da "optimieren", die PCGH schreibt z.B., dass manche Dinge eben doch nicht gespiegelt werden, da da wohl die Performance optimiert wurde. Wenn man jetzt nicht mit Raytracing arbeitet sehe ich da mehr Optimierungsspielraum, bei Raytracing muss ja selbst laut Huang selber einfach die rohe Rechenleistung da sein. Eine "Performanceoptimierung" scheint da immer mit Qualitätsreduzierung einher zu gehen.

Wenn bei den Berechnungen so viel zu optimieren wäre, ohne die Rohleistung zu steigern, dann hätten wir Raytracing möglicherweise schon früher gesehen. Huang meinte sie arbeiten seit 10 Jahren daran, da bezweifle ich stark, dass die jetzt in 3 Wochen über den Treiber die Leistung vervierfachen...

Also zu mindest würde ich mal auf Tests warten, bisher sieht es für mich aber eher nach einem ziemlich heftigen Kompromiss zu einem sehr hohen Preis aus.
 
Zuletzt bearbeitet:
AYAlf schrieb:
Ich traue nVidia überhaupt nicht. Egal welche Balken oder Sätze sie in ihren Artikeln verfassen.

Ist doch OK. Musst ja nicht. Die Tests werden ja irgendwann erscheinen...
Ergänzung ()

KarlKarolinger schrieb:
Der Jensen Huang hat doch gesagt, dass beim Raytracing alles von ganz alleine berechnet wird, was gibt es da denn großartig zu optimieren ohne die Berechnungen und damit die Qualität zu reduzieren?

Tja- Da macht es sich Herr Huang zu leicht. Wir haben es mit Rasterengines zu tun, die immernoch auf den gleichen Tricks basieren, wie es sie seit eh und je gibt. Die müssen sehr wohl optimiert werden, um Teilbereiche damit zu Raytracen. Teilweise werden ja durch Fakeeffekte gar keine "echten 3D" Informationen für die Projektionsmatrix hinterlegt. Wie soll denn da ein Raytracing greifen?

Bzw. wenn es greift, wie soll es dann nicht mit einem deutlichen Performanceverlust einhergehen, wenn man diese "Tricks" in die Raycasting- Matrix miteinbeziehen will?
 
ZeroZerp schrieb:
@Tapion3388
Mach das mal und schau Dir an, was möglich ist. Liebt man Computergrafik, fängt man dabei zu Träumen an.
Grüße
Zero

Ich verfolge ja auch schon seit annährend zwei Jahrzenten die technische Entwicklung, zugegebenermaßen haben mich CPUs als Gehirn immer etwas mehr interessiert.
Bei Dingen die von Nvidias Marketing-Abteilung kommen bin ich aber lieber skeptisch, bis das Gegenteil bewiesen ist. Die haben mit dem GPP, dem GTX970-Fiasko und Gameworks / Tesselation einfach zu viel auf dem Kerbholz und gegen den Konsumenten unternommen, als dass man die Aussagen für bare Münze nehmen sollte.

Zugegeben, Raytracing ist eine tolle Sache, aber Nvidia hat schon mit Tesselation Schindluder getrieben (siehe völlig übertriebene Stufen auf Beton und Steinen in Crysis2), nur um besser als die Konkurrenz darzustehen, auch wenn es die eigene Performance verschlechtert hat. Da lasse ich den Hypetrain lieber aus und gehe zu Fuß.
 
  • Gefällt mir
Reaktionen: E1nweg und .Sentinel.
Zurück
Oben