News Nvidia Turing: Spiele-Benchmarks der RTX 2080 Ti mit Fragezeichen

Oneplusfan schrieb:
PS: Der Hifi Vergleich ist ja noch schlechter als jeglicher Autovergleich. Respekt, dass muss man auch erst mal schaffen...

Natürlich ist HiFi nicht mit Gaming wirklich vergleichbar, mir ging es alleine um den ewigen Tenor wegen des Preises, entweder ich bin bereit für neueste Technologie Geld in die Hand zu nehmen oder eben nicht, ist ja nicht so als würde es keine Alternativen geben, was Power betrifft, wirklich im Preis überzogen ist doch eh nur die 2080Ti...
 
Jo - geht gar nicht. Ist auch nicht der springende Punkt.

Es geht um die Preispolitik der Hersteller.

@t3chn0 toll - echt toll das du so ein krassen PC daheim stehen hast. Bist echt ein Held. Wäre ich doch auch nur so cool ... xD
 
t3chn0 schrieb:
Also mit einer 1080Ti gewinnt man bei BF5 auch scheinbar keinen Blumentopf, wobei mich das schon sehr erstaunt:


Er hat ständig massive Framedrops, teilweise auf 70 FPS und das in FullHD.

Entweder ist BF5 ein kompletter Hardware-Killer, oder es liegt evtl. daran, dass er privat noch einen 7700K hat und gleichzeitig streamed. Wobei ich mir das kaum vorstellen kann. Er hat ja einen riesigen Channel und massig Geld. Aber performant sieht anders aus.


Komisch, also bei mir läuft die Beta ausgesprochen gut. Ultra details, gtx 1070 und zwischen 80 und 100 FPS auf Rotterdam. Ebenfalls in 1080p
 
  • Gefällt mir
Reaktionen: stoneeh
Die kleinen Ruckler sieht eher danach aus das er auf DX12 spielt. Frostbite's DX12 machte zumindest bei Battlefront 2 und Battlefield 1 herbe Probleme mit Microruckeln auf nVidia Hardware. Auf AMD Hardware war das weniger der Fall. Stellt man auf DX11 zurück, läuft es wieder geschmeidig.
 
Wadenbeisser schrieb:
Die Rechnung ist ja noch schlimmer als der Bezug auf nvidias bildliche Aufteilung.
Ein anderes Fertigungsverfahren und andere Architektur mit unbekannten Auswirkungen auf den Platzbedarf der Komponenten und Strukturen werden mit dem Vorgänger gleich gesetzt.....
Herzlich Glückwunsch, du hast herausgefunden das es eine Milchmädchenrechnung war, die nur grob verdeutlichen sollte das Turing nicht 50% von der Fläche für RT und TC aufwenden kann, weil selbst wenn die Relationen ungenau sind, man nicht annährend in die Region von 50% kommt.
 
ZeroZerp schrieb:
... sind also die Negetivbeispiele, wo die Hersteller selbst schreiben, dass die Technik nur notdürftig angeflanscht wurde "richtiger", als die Positivbeispiele.

Wie soll man das anders umschreiben als "tendenziös" oder "biased"?

Ansonsten hat danielnedles die Situation hier im Board richtig schön dargestellt.

Die "Negativbeispiele" sind klar in der Ueberzahl zum einen "Positivbeispiel" und stammen von AAA Publishern und keiner vergleichsweise kleinen russischen Spieleschmiede wie das von PCGH rosinengepickte (und Dir uebernommene) Beispiel.

Behaupten kann letztere viel wenn der Tag lang ist und damit vielleicht auf reissenden Absatz des Spiels zum Marktstart hoffen, einen Beweis sind diese bisher aber schuldig geblieben.

Ausserdem ist dann die Frage ob die RTX Implementierung bzw. der betriebene Aufwand einen sichtbaren Mehrwert wird bieten koennen (im Vergleich zu der vorherrschenden traditionellen Herangehensweise), denn zumindest fuer mich waere dass (noch) kein "must-have" Kriterium, welches ueber den Kauf entscheidet, da haben Spielgenredetailtreue, -story/-atmosphaere, -steuerung, u.a. (also die Dinge die vordergruendig den eigentlichen Spielspass begruenden) zumindest bei mir eine hoehere Prioritaet und keine (vereinzelten) Grafikhighlights.

Des Weiteren ist dann die Frage, ob noch hoehere fps nicht wichtiger waeren (in niedriger Detailstufe) als die RTX-Implementierung in dieser Spielgattung.

Wenn hier jemand eine Nischenmeinung vertritt, dann bist Du das aktuell und daran ist m.E. auch nichts auszusetzen oder daran wie oder in was Du meinst Dein Geld anlegen zu muessen.

Allerdings, nur weil Dir meine Meinung/Argumentationsweise oder die anderer Leute (der Mehrheit) hier im Forum nicht zusagt, heist das nicht, dass wir alle vorurteilsbehaftet oder "tendenzioes" waeren ;).

Das unausgegorene (mit RT-Raytracing begruendetem massiven GPU-Aufpreis) RTX Angebot ist ziemlich offensichtlich und bleibt (aktuell) unstimmig bzw. ist zum Marktstart (in ausgereifter Form) Zukunftsmusik, egal wie viel Du es Dir schoen reden magst.

Heisst das im Umkehrschluss, dass keiner darauf anspringen wird, natuerlich nicht, die Leute koennen immer noch selber entscheiden was sie machen wollen mit Ihrem Geld und das ist auch gut und richtig so.

nVidia versucht mit aller Marktmacht/-dominanz eine neue Technik einzufuehren bzw. durch zu druecken anstatt fuer das auf absehbare Zeit ersichtliche RT-Raytracing-Nischen-Feature zur Einfuehrung eben keinen exorbitanten Aufpreis zu verlangen und wenn die Masche bei genuegend Leuten zieht (wovon leider auszugehen ist), dann ist von da an massiven Preiserhoehungen aufgrund kleiner Optik-Features Tor und Tuer geoeffnet ... stellt sich die Frage, ob man so etwas unterstuetzen moechte?

Des Weiteren sind noch keine verlaesslichen/neutralen Tests zu den RTX Karten bisher im Umlauf und auch nach Fall des NDA wird man schauen muessen, wer denn da gewissenhaft testet/berichtet und wer eben nicht .... ergo, stuetzt sich vieles aktuell nur auf Vermutungen und Geruechte.

Anyway, ich habe fertig in diesem Thread :) ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi
Locuza schrieb:
Herzlich Glückwunsch, du hast herausgefunden das es eine Milchmädchenrechnung war, die nur grob verdeutlichen sollte das Turing nicht 50% von der Fläche für RT und TC aufwenden kann, weil selbst wenn die Relationen ungenau sind, man nicht annährend in die Region von 50% kommt.
Dessen Aussage basiert auf nvidias Grafik, deine basiert auf....? Was nicht sein darf das nichts ein kann?
Fakt ist das es keine genauen Angaben gibt und wenn nvidia das mit dem Bild falsch rüber gebracht hat ist das deren Problem.
 
Nun ja eine NDA ist ja nicht schlimmes , die gab es schon vorher vor diesen ominösen heise Debakel die meiner Meinung nach nur klicks erhaschen wollten

CB hat jetzt genug Zeit zum testen und darf auch über jegliche Fehler schreiben die sie finden einzig der Test darf erst zum Stichtag erscheinen , das war schön und ist schon immer so gewesen

Wenn diese Art Regulierung nicht wäre würde jeder klickgeile hust heise hust wild drauf los Posten denn man weiss ja der erste bekommt die meisten Klick und damit bares geld
 
poly123 schrieb:
Komplexere Architektur führt wohl zu erhöhten (Fertigungs-) Aufwänden und damit verbundenen Kosten, oder? Ich frag mich doch auch nicht, warum ein Golf VII mittlerweile mit annehmbarer Ausstattung locker die 30K € Grenze sprengt, wenns doch den Golf III für dieselbe Summe in DM gab?

Der Markt reguliert sich schon selber - und wenn die Vernunft siegt, wird halt keine dieser Karten gekauft.
Veränderte Rohstoff und Lohnkosten, sowie gute 20 Jahre Inflation?
 
Wadenbeisser schrieb:
Dessen Aussage basiert auf nvidias Grafik, deine basiert auf....? Was nicht sein darf das nichts ein kann?
Fakt ist das es keine genauen Angaben gibt und wenn nvidia das mit dem Bild falsch rüber gebracht hat ist das deren Problem.
Auf eine Grafik die gar nichts über den Flächenverbrauch ausgesagt hat.
Meine Aussage basiert auf dem Fakt, dass Turing mehr Transistoren und Fläche für separate INT-Ports, Caches, NVLINK2 und weiteren Dingen wie dem GDDR6-Controller oder den erweiterten Video-Engines investieren muss, sodass selbst wenn 12FFN 20% Flächeneinsparung bringt, man nicht auf 50% für RT/TC landet.
 
@Locuza
Du konntest auf dem Bild keine flächige Abgrenzung erkennen? Dann hoffe ich das du nicht selbst fährt.
Deine Aussage basiert auf einem Wunschtraum, es sei denn du hättest detailierte Einblicke in die Chip Architektur des fertigen Produkts. Der Personenkreis der solch deatilierte Einblicke hätte dürfte aber erstaunlich gering sein. *hust*
 
RaptorTP schrieb:
die 2080 Ti protzt nicht mit Leistung sondern mit dem Preis.

Das Geld fehlt nicht - aber für so viel Knete kaufe ich keine Grafikkarte
weder ne Titan V, ne RTX 2080 Ti, oder das neuste Konsum-Opfer Smartphone für 1000€

Dumme stehen genug morgens auf - ich gehöre nicht dazu

jo klar - wenns so kommt - 1080 Ti , gebraucht mit gutem Kühler - fertig ;)

RaptorTP schrieb:
Die Preistreiberei unterstütze ich nicht ... mach ich lieber Urlaub von
Du machst Urlaub? Was bist du denn für ein Konsumopfer? :D /Ironie off
 
  • Gefällt mir
Reaktionen: RaptorTP
@Wadenbeisser

Ich hoffe du fährst nicht, denn drei Textboxen über einem Bild stellen keine Flächenangabe dar.
Deine Aussagen basieren nur darauf die Zeit von anderen zu verschwenden, die primäre Aufgabe von Trollen.
 
ampre schrieb:
Spielen tust du mit 1000en von Leuten. Da sollte es in jedem Interesse sein das gute Hardware für alle Erreichbar ist.

An Gaming fand ich den sozialen Gedanken immer Cool! Das kann sich jeder Leisten weil Geld halt kaum eine Rolle spielt. Aber genau das greift NVIDIA jetzt auf und genau das ist es was in unserer Welt nicht stimmt.

Jedes Vergnügen nur noch für Superreiche.

Weil Spielen auf "High" anstatt "Ultra" oder in Auflösung kleiner als UHD bestimmt menschenunwürdig ist.

Staat hilf uns! Ich will Grafik-Asyl!
 
  • Gefällt mir
Reaktionen: Oneplusfan, _Blake_, .Sentinel. und 4 andere
Der 1:1 Performancezuwachs geht mMn für so einen Mini-Shrink in Ordnung bzw. ist sogar ausgesprochen erfreulich.

Es gab auch Leaks der RTX 2080, wo diese knapp 40% vor der GTX 1080 im 3D Mark lag, also kann man wohl davon ausgehen, dass sich die Zuwächse je nach Spiel oder Benchmark tatsächlich so zwischen ca. 25% bis max. 55% in der Spitze abspielen werden. Das würde sich ja auch mit nVidia's offiziellen +50% decken (die natürlich als Hersteller ganz optimistisch immer den Maximalwert nennen werden).

Klar sind die Preise happig, aber man muss auch sehen, dass die R&D Ausgaben für die Hersteller immer weiter steigen. nVidia hat im ersten HJ 2018 ca. US$1,12 Mrd. für R&D ausgegeben gegenüber $827 Mio. im ersten HJ 2017 (siehe nVidia Finanzberichte auf deren Webseite).

Das macht YOY Mehrausgaben von US$ 300 Mio. oder eine Steigerung des R&D Budgets von fast 40%. Das müssen die ja auch irgendwie wieder reinholen ;) .

In der 12 Monatsperiode 2017/2018 sah es ähnlich aus. Zu Ende Januar 2017 (Jahr 2016) hat nVidia rund US$1,46 Mrd. für R&D veranschlagt und in der Periode endend im Januar 2018 (Jahr 2017) waren es fast US$1,8 Mrd.

Bemerkenswert ist, dass nVidia im 1. Halbjahr 2018 schon die US$1 Mrd. Marke geknackt hat. Das Herstellen von Chips wird nun mal immer teurer. Nicht nur bei nVidia, sondern natürlich auch bei allen anderen.
TSMC zum Beispiel wendet statt NT$48 Mrd. in 2013 inzwischen NT$81 Mrd. (2017) für R&D auf und dieses Jahr wird das noch mal mehr werden. Die Kosten kennen da nur eine Richtung.

Sicher verdienen die auch gut, aber das müssen sie ja auch, um die Gewinne reinvestieren zu können und um Risiken abzusichern (so eine 10nm Katastrophe wie Intel sie sich gerade leistet, würde Unternehmen mit dünnerem finanziellen Spielraum sofort aus der Bahn werfen).

Am Ende des Tages sind das ja nun wirklich auch 1st world problems. "Buuuhuuu ich kann mir keine RTX 2080Ti leisten". Naja. Man kann auch mit GTX in gängigen Auflösungen alles gut spielen. Wer immer noch mehr, mehr, mehr will, muss eben mehr zahlen. Ganz einfach.

Und es glaubt doch bitte keiner ernsthaft, dass Konkurrenz durch AMD daran etwas ändern würde. AMD hat bei Polaris und Vega dankend die Vorlagen von nVidia angenommen und sie haben sich preislich einfach dazu gesellt. Dass AMD mit Kampfpreisen per Brechstange um Marktanteile gekämpft hat, liegt nun schon ein gutes Jahrzehnt zurück.
Außer einem riesigen Schuldenberg und bis heute völlig unrealistischen Erwartungen der Fanboys (bitte doppelt so schnell wie Intel/nVidia, aber zum halben Preis) hat ihnen das nicht viel eingebracht.

AMD wird auch diese neuerliche Preisvorlage von nVidia dankend annehmen, wenn sie dann im nächsten Jahr tatsächlich irgendwann ein Konkurrenzprodukt auf die Kette bekommen haben werden. Ich wage sogar zu vermuten, dass Lisa Su ihrem (entfernten) Onkel Jen-Hsun als kleines Dankeschön eine extragroße Kiste Champagner zukommen lassen wird ;) .
 
  • Gefällt mir
Reaktionen: [wege]mini, poly123, .Sentinel. und 2 andere
Fake. Ich glaube kaum das irgendwelche Youtube Kiddies an RTX Karten ran kommen.
 
milliardo schrieb:
Weil Spielen auf "High" anstatt "Ultra" oder in Auflösung kleiner als UHD bestimmt menschenunwürdig ist.

Staat hilf uns! Ich will Grafik-Asyl!

OK da musste ich doch mal herzlich lachen, der war gut. Gaming war immer für jeden erreichbar, ähm ja ich erinnere noch an die Aufrüstungskriege mit den ollen Gurken, ich habe mit 386er SX20 , 486er DX 4/100 , 3dfx Voodoo Karten etc. alles mitgemacht, das war ein super günstiges Vergnügen... NICHT!

Der Staat sollte Konsolen für 4K verschenken, damit das Volk vereint zusammen spielen kann, zwischendurch noch etwas Parteiwerbung, das muss doch erlaubt sein, damit alle auf Linie bleiben.

Und mir wird gesagt ich denke nicht nach....
 
@Blueline56 es geht ja in dem Fall auch nicht um den Preis alleine.
Aber von 700 auf 1300 usd zu springen kann und darf nicht unterstützt werden.

Preissteigerungen versteht man auch in einem gesunden Maß, aber knapp das Doppelte, für 30% mehr Leistung und gleich viel Vram?

Vergleich mal die 980ti mit der 1080ti.
Deutlich mehr Leistung, fast doppelt so viel Vram etc. und der Preis was ok.

Zudem kann man Hifi nicht mit einer Graka vergleichen, welche nach 2j kaum etwas Wert ist.
Ich sag ja auch nicht, boah im Designertaschenkreis regt man sich auch nicht über 3k Taschen auf ;)
 
Caramelito schrieb:
Aber von 700 auf 1300 usd zu springen kann und darf nicht unterstützt werden.

Warum nicht? Neuer Selling-Point ist eben Raytracing. Das diese Technologie eben auch was kostet sollte klar sein, vor allem wenn es doch ein Großteil des Chips ausmacht.

Wir haben halt aktuell ein Henne-Ei-Problem. Es gibt nichts was die HW nutzen kann, es gibt aber auch (noch) keine HW die es darstellen kann. Da ist Nvidia nun mal der erste Hersteller der es anbietet. Nun entscheidet eben der Markt ob Raytracing ein Erfolg wird oder nicht und nein, dass wird nicht mit der 2080 entschieden, da die Nachfolger das wohl auch haben werden.

Neue Technologie war schon immer teuer, wir hatten die letzen Jahre einfach nur Glück das 1. keine neue Innovationen dabei waren und 2. es im Prinzip immer das gleiche war nur in einer besseren Struktur/Fertigung.

Wie ich schon schrieb erst mal abwarten! Die Benches kommen wohl am 14. Sept. spätestens am 20. Sept wissen wir mehr. Die Karte muss nicht viel besser sein als die aktuellen, da das für die Karte im Prinzip nur Legacy-Support ist.

Aber wie gesagt, in 9 bzw. 15 Tagen wissen wir 100% mehr :) Also abwarten und Tee trinken :)
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben