News Nvidia Turing: Spiele-Benchmarks der RTX 2080 Ti mit Fragezeichen

Chismon schrieb:
Die "Negativbeispiele" sind klar in der Ueberzahl zum einen "Positivbeispiel" und stammen von AAA Publishern und keiner vergleichsweise kleinen russischen Spieleschmiede wie das von PCGH rosinengepickte (und Dir uebernommene) Beispiel.

Gut- Dann nehmen wir halt noch eins, dass es Beispiele werden:

Behaupten kann letztere viel wenn der Tag lang ist und damit vielleicht auf reissenden Absatz des Spiels zum Marktstart hoffen, einen Beweis sind diese bisher aber schuldig geblieben.

Genau das ist übertragbar das Problem an diesem Thread. Behaupten kann man viel. Und da niemand die Karte in der Hand hat, werden es Vermutungen und Behauptungen bleiben.

Ich kann mich nur wiederholen. Viele stellen hier ihre Vermutungen und Spekulationen als Fakt dar. Tendenziös wird immer das Beispiel rausgepickt, welches einem in die Gemütslage bezüglich Produktes XY passt.
Klar, dass man, wenn man gezielt im Internet sucht immer das finden kann, was man "beweisen" will.

So wird schnell aus einem "keiner weiss wie sich die Karten schlagen werden" dann ein in Stein gegossener Fakt:"für spiegelnde Pfützen werden wir mit 1080P und unter 60Hz in die Steinzeit katapultiert".

Und das obwohl die Hersteller entsprechender Demos, wie sie selber sagen sehr frühe Versionen der Implementation gezeigt haben und wie bei Battlefield 5 die einzelnen Punkte die noch ERHEBLICH Leistungsreserven bergen sogar aufzählen.

Das heisst, dass hier gezielt Stimmungsmache betrieben wird und ein Shitstorm losgetreten wird, weil man sich aus dem ganzen Sammelsurium an Informationen genau das raussucht, was, obwohl es sämtlichen Fakten entbeert (z.B. 1080Ti Besitzer spielen alle auf UHD Monitoren in 144Hz), das Produkt in möglichst negativem Licht dastehen lässt.

Meist, weil man sich selbst gekränkt fühlt, dass nVidia nicht das Produkt herstellt, was man selbst gerne gesehen hätte. Bzw. stellen sie es her (2080 RTX Ti schaffte endlich durchgängig 4K und 60Hz), aber man muss mehr investieren, als man sich ursprünglich erhofft hatte.

Ausserdem ist dann die Frage ob die RTX Implementierung bzw. der betriebene Aufwand einen sichtbaren Mehrwert wird bieten koennen (im Vergleich zu der vorherrschenden traditionellen Herangehensweise), denn zumindest fuer mich waere dass (noch) kein "must-have" Kriterium, welches ueber den Kauf entscheidet, da haben Spielgenredetailtreue, -story/-atmosphaere, -steuerung, u.a. (also die Dinge die vordergruendig den eigentlichen Spielspass begruenden) zumindest bei mir eine hoehere Prioritaet und keine (vereinzelten) Grafikhighlights.
Das lustige ist ja, dass von vielen gelobte Engines inzwischen schon Raytracing benutzen, wenn auch in rudimentärer Form (z.B. Engines mit Enlighten Middleware wie z.B. UE4). Die Effekte werden dann halt auf Shadern und der CPU berechnet, die das ganze dann deutlich langsamer machen.
Nenne mir mal einen Titel mit Global Illumination (selbst prebaked), der nicht auch die 1080TI in die Knie zwingt. Da ists dann nämlich auch bei weitem nix mehr mit 4K und drölfzig FPS.

Die Prebaked- Szenarien und überhautp das ganze Rasterisierungsverfahren haben zudem den großen Nachteil, dass sie ihre Qualität auf Kosten der Informationsfülle und des Speicherplatzes erlangen.

Wenn die Kritiker der neuen Technik es toll finden, dass man 150 Gigabyte für ein Spiel auf der SSD freischaufeln muss, immer schnelleren Hauptspeicher braucht und hohe CPU bzw. Input-/Outputleistung, weil inzwischen so viel vorberechnete Information über die Busse geschickt wird, dann ist ihnen nicht zu helfen.

Diese massenweise Speicherplatz, CPU und Bandbreitefressenden Features werden bei RTX allein auf der Grafikkarte generiert und dort ressourcenschonend verarbeitet. Ruckeln beim Streamen und Framedrops beim Zellenwechesel in open World Spielen gehören somit der Vergangenheit an, weil weit weniger Daten über die Busse laufen müssen.

Des Weiteren ist dann die Frage, ob noch hoehere fps nicht wichtiger waeren (in niedriger Detailstufe) als die RTX-Implementierung in dieser Spielgattung.
Mit den neuen Karten bekommt man in niedriger Detailstufe ja auch höhere FPS. Wie viel genau, weiss derzeit keiner. Man munkelt nur was von 20% mehr Shader und 50% mehr Effizienz der Shader und 30% höhere Speicherbandbreite und noch einmal zwischen 10-20% mehr Geschwindigkeit durch Einsatz von Async compute und nochwas zwischen 10 und 30% mit DLSS. Was im Mix letztenendes in der Rasterisierung dabei rumkommt werden wir in Kürze erfahren.

Wenn hier jemand eine Nischenmeinung vertritt, dann bist Du das aktuell und daran ist m.E. auch nichts auszusetzen oder daran wie oder in was Du meinst Dein Geld anlegen zu muessen.

Ich vertrete keine Nischenmeinung. Jeder der sich mit dem Thema tiefgreifender und kritischer auseinandersetzt, wird das Potenzial der neuen Technik erkennen und auch erkennen, dass deren Einsatz zukünftig mit Beschleunigung und nicht Verlangsamung von Dingen eingesetzt werden kann.

Es scheint nur so, als ob es eine Nischenmeinung sei, weil im Internet die Kritiker und Shitstormler immer die lautesten Schreihälse sind und nicht müde werden, sich in ihrem Taumel gegenseitig zu pushen.

Allerdings, nur weil Dir meine Meinung/Argumentationsweise oder die anderer Leute (der Mehrheit) hier im Forum nicht zusagt, heist das nicht, dass wir alle vorurteilsbehaftet oder "tendenzioes" waeren ;).
Siehe oben. Nur weil jemand am lautesten schreit, heisst da im Umkehrschluss nicht, dass er "neutral" wäre.
Wären die Aussagen nicht vorurteilsbehaftet, würde man auch die positiven Gegenbeispiele und die Aussagen der Entwickler bezüglich möglicher deutlicher Steigerungen der Performance in Erwägung ziehen.

Das das gezielt nicht gemacht wird, bleibt das Verhalten vorurteilsbehaftet und "tendenziös".

Das unausgegorene (mit RT-Raytracing begruendetem massiven GPU-Aufpreis) RTX Angebot ist ziemlich offensichtlich und bleibt (aktuell) unstimmig bzw. ist zum Marktstart (in ausgereifter Form) Zukunftsmusik, egal wie viel Du es Dir schoen reden magst.
Gehts schon wieder los. Du weisst doch überhaupt nicht, wie ausgegoren das ganze ist. Du weisst nicht, wie schnell die Karte ist. Du weisst nicht inwieweit Raytracing und die Tensor Cores die Dinge beschleunigen können.
So schreiben sie bei Battelfield 5, dass sie aufgrund des Zeitmangels noch nicht mal zeit hatten das gespann RT-Cores und Tensor-Cores zu nutzen, sondern ihren eigenen Shader- Berechneten Denoiser benutz haben.

Ein weiterer Hinweis darauf mit wie heisser Nadel das ganze gestrickt wurde und das auch dort wieder für eine schnelle Implementierung auf Qualität und Leistung verzichtet wurde.

Heisst das im Umkehrschluss, dass keiner darauf anspringen wird, natuerlich nicht, die Leute koennen immer noch selber entscheiden was sie machen wollen mit Ihrem Geld und das ist auch gut und richtig so.
Ich weiss nicht, ob die Karte was für mich ist. Ich hoffe dennoch, dass sie ordentliche Absatzzahlen schreibt um nVidia das Signal zu vermitteln:"Bleibt bezüglich dieser Technik am Ball".

nVidia versucht mit aller Marktmacht/-dominanz eine neue Technik einzufuehren bzw. durch zu druecken anstatt fuer das auf absehbare Zeit ersichtliche RT-Raytracing-Nischen-Feature zur Einfuehrung eben keinen exorbitanten Aufpreis zu verlangen
Irgendwo muss man anfangen. Und es braucht für die Änderung der Entwicklung in eine technische Richtung IMMER einen großen Player, der die Marktmacht hat, diese auch zu etablieren.

und wenn die Masche bei genuegend Leuten zieht (wovon leider auszugehen ist), dann ist von da an massiven Preiserhoehungen aufgrund kleiner Optik-Features Tor und Tuer geoeffnet
Oder wie es im Markt üblich ist, sinken die Preise aufgrund des Return of Invests und der irgendwann etablierten Fertigungstechnik wieder.

... stellt sich die Frage, ob man so etwas unterstuetzen moechte?
Interessant ist ja, dass es in allen anderen Bereichen z.B. der Unterhaltungselektronik völlig normal ist, dass Innovationen erstmal teuer sind und sich mit den erzielten Fortschritten dann richtung Massenmarkt bewegt.

Bei Plasmabildschirmen hat auch keiner rumgeheult, dass jetzt die Fernsehhersteller versuchen künstlich den Preis für Flachbildschirme in die Höhe zu treiben. Die LCDs waren damals schon relativ günstig zu habenund haben auch ein brauchbares Bild erzeugt.
Man hat sich die Dinger bei Markteinführung trotzdem ehrfürchtig angeschaut, entschieden dass 10.000DM zu viel sind und sich gefreut, dass das nach 10 Jahren vielleicht mal für relativ wenig Geld im eigenen Wohnzimmer stehen wird.

Des Weiteren sind noch keine verlaesslichen/neutralen [Tests zu den RTX Karten bisher im Umlauf und auch nach Fall des NDA wird man schauen muessen, wer denn da gewissenhaft testet/berichtet und wer eben nicht .... ergo, stuetzt sich vieles aktuell nur auf Vermutungen und Geruechte.

Genau deswegen verbietet es sich ja eigentlich hier Stimmungsmache egal in welche Richtung zu betreiben.
Sollte das Produkt Mist sein, kann man noch früh genug schimpfen. Und es wird auch ein nVidia zu spüren bekommen.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan, Lübke82, mr_capello und 3 andere
@Moriendor Du hast sicherlich in einigen Punkten Recht, aber du musst es auch nicht so darstellen*, als hätte NVidia jahrelang am Hungertuch genagt und müsste jetzt die übertriebenen R&D Investition der letzten Jahre mit proportional deutlich gestiegenen Preisen/Margen wieder einfahren. Die Zahlen sprechen da eine andere Sprache.
Z.B.: Hier, hier oder hier.**

Der Logik nach hätte so etwas wie die Zen Architektur in all seinen Auskopplungen (Ryzen, Threadripper, Epic) ja gar nicht funktionieren dürfen. Immerhin drückt AMD da ein neues Produkt mit viel R&D Aufwand und einer neuen Technik (per Infinity Fabric verbundene Dies) über den Preis in den Markt.

Nvidia lotet mMn momentan einfach die Grenzen aus. Dass ist marktwirtschaftlich nachvollziehbar, muss aber nicht jedem gefallen.

Ich würde beinahe so weit gehen und sagen, das die RTX Karten einfach nur der beste "Marketing Gag" seit Jahren sind.
Getreu dem Motto***:
"Mr. Huang, wir haben die neuen Quadro Karten mit RT und Tensor Cores fertig, was machen wir mit der Gaming Abteilung und der GTX Serie?

Reicht es für Real-Time-RT in Spielen?

Auf dem großen Chip mit Glück vlt. für vereinzelte Implementierungen in 1080p@60Hz.

Reicht, den Rest erledigt die Marketing Abteilung."

*bewusst übertrieben formuliert
**kurze Recherche am Smartphone, darum leider nur semi-optimale Ergebnisse
***Spekulation meinerseits und absichtlich 'flapsig' formuliert
 
  • Gefällt mir
Reaktionen: Begu
Hui jui jui, geht bald der Zerfall der 1080Ti los, Böses schwant mir da im Kopf.
Ich habe das bei meiner 650M im Notebook miterlebt, wie ältere Spiele die flüssig liefen, dann mit der Zeit nahezu unspielbar wurden. Ich sollte aufhören, die neuen Treiber runterzuladen. Ich wette drauf, dass sie die 1080Ti weniger optimieren oder gar langsamer machen mit der Zeit.
 
M1ximili1n schrieb:
Ich hoffe es ist nicht peinlich, aber mehr als 40-50 FPS merke ich auch nicht? Ich werde auch nie einen 144HZ Monitor,habe mal gelesen, dass unser Auge Limitiert ist auf etwa 25 FPS. Mal abgesehen vom Reaktionsvermögen

Da vermischt du aber einige dinge.
Die 25 Bilder bedeuten nichts anderes wie das ab jetzt dein Gehirn es nicht mehr als Einzelbild wahrnimmt, sondern als ganze Bewegung.

Man sieht sehr wohl einen Unterschied zwischen 25 Fps und 100 Fps.

Wenn du ein Handy hast das mit 60 Fps aufnehmen kann, dann kannst du es selbst testen.
30 Fps wirkt bei weitem nicht so flüssig wie die 60 Fps aufnahme.

Hier wird es gut erklärt-
Ergänzung ()

MegaDriver schrieb:
Hui jui jui, geht bald der Zerfall der 1080Ti los, Böses schwant mir da im Kopf.
Ich habe das bei meiner 650M im Notebook miterlebt, wie ältere Spiele die flüssig liefen, dann mit der Zeit nahezu unspielbar wurden. Ich sollte aufhören, die neuen Treiber runterzuladen. Ich wette drauf, dass sie die 1080Ti weniger optimieren oder gar langsamer machen mit der Zeit.

Immer wieder Foren MYTHOS!
Der schon mehrfach wiederlegt wurde.

Als ob es nicht auffallen würde das mit Treiber 2017_08 in BF1 100FPS gibt und dann mit dem Treiber 2019_01 nur 70FPS. Es ist ja nicht das man es nicht in 15 Minuten selbst testen kann.
 
  • Gefällt mir
Reaktionen: -Spectre-, t3chn0 und Dark Matter
Blueline56 schrieb:
Also ich schaue auch öfters ins HiFi Forum (nicht das auf CB), da heulen die Leute wegen den Kosten ihres Hobbys bei weitem nicht so rum wie hier und da werden ganz andere Geldbeträge ausgegeben für die entsprechenden Geräte/Boxen, bei manchen hier kommt eine Anspruchshaltung zum Vorschein, da kann man nur noch mit dem Kopf schütteln.

Also wenn man sich eine hochwertige Anlage und/oder Boxen kauft, dann behält man die mind. 10 Jahre wenn nicht sogar ein leben lang.

Aktuelle Grakas sind aber nach 1-2 Jahren veraltet und müssen, wenn man immer aktuelle Games mit Guter Grafik und hohen FPS bzw. gleichen FPS genießen möchte, dann wieder mit Grakas von 1000€ ersetzt werden. Denn die Ansprüche an die Grafikkarte steigen ja stetig.

Am Ende bezahlt man als Gamer mehr als die Leute die 5000€ für Boxen ausgegeben haben.
 
  • Gefällt mir
Reaktionen: RaptorTP
Die Pascal Architektur ist auch bei weitem nicht so aufwendig wie Turing.

Maxwell war da unglaublich bepreist und bisher das wirklich fairste Angebot.

Als die GTX970 und 980 präsentiert wurde, habe ich direkt 2x970 von Palit gekauft zum Launch Day, weil eine Karte 325 EUR gekostet und eine 970 schon schneller war, als meine 780Ti. Ich konnte die 780Ti Kingpin noch für 570 EUR eine Woche vor Launch verkaufen und habe damit quasi nur 80EUR effektiv für die 970er im SLI bezahlt und war damit auch echt sehr zufrieden.

Nvidia hat also nicht immer die Preise so enorm gesteigert. Ich denke mal, dass Turing einfach bis jetzt die mit Abstand komplexeste Architektur ist.

Demnach könnte man aber auch keine AMD Karten mehr kaufen. Zu Release von Vega wurden einem dubiose Monitore mit angeboten und die Karten waren extrem lange nicht verfügbar. Der Preis lag fast 80% über der UVP was AMD auf den Mining Boom geschoben hat. Anschließend wurde verkündet, dass man jetzt etwas dafür tun möchte, dass sich die Situation und die Preise normalisieren.

Was macht AMD daraufhin? Releasen einen Mining Treiber der den Boom nochmal richtig ankurbelt... Komplett legitim. Aber weil es AMD ist, keines Shitstorms würdig.
 
MegaDriver schrieb:
Ich habe das bei meiner 650M im Notebook miterlebt, wie ältere Spiele die flüssig liefen, dann mit der Zeit nahezu unspielbar wurden. Ich sollte aufhören, die neuen Treiber runterzuladen.

Tja lag evtl. auch daran das sich andere Parameter verändert haben wie Windows Updates, Spiele Updates, usw....

MegaDriver schrieb:
Ich wette drauf, dass sie die 1080Ti weniger optimieren oder gar langsamer machen mit der Zeit.

Und ich sage nein, dass stimmt nicht. Ich hatte vor meiner 1080 eine 660 Ti und die lief bis zum letzten Tag genau wie am ersten Tag und das für 4 Jahre.
Ergänzung ()

t3chn0 schrieb:
Ich denke mal, dass Turing einfach bis jetzt die mit Abstand komplexeste Architektur ist.

Das ist immer so bei der neusten Generation ;)
 
@ZeroZerp Der Vergleich zu anderen Techniken hinkt hier mMn, denn bei den meisten anderen, neuen Techniken macht man nicht erst 3 (Riesen) Schritte* zurück um einen (Mini) Schritt** nach vorne zu machen.

Mein Plasma konnte z.B. direkt vom Start weg Alles, was ein günstigerer LCD auch konnte. Nur besser.
Oder aktueller, ein OLED. Selbes Spiel.

*sollte sich das Gerücht bewahrheiten, dass mit eingeschalteten RT Features bei 1080p@60 Schluss ist. Und ja, Auflösung zähle ich hier als zwei Schritte zurück. 4k->1440p->1080
**gucke ich mir z.B. das DigitalFoundry Video zum neuen Spiderman Spiel an, sehe ich keinen großen Fortschritt (subjektiv) bei RT Beleuchtung (Tomb Raider) oder RT Reflexionen (BF V) gegenüber dem hier gezeigten. Beim Spielen wohl noch weniger, als bei einem Analnyse Video. Und das läuft auf einer PS4.
 
v_ossi schrieb:
@ZeroZerp Der Vergleich zu anderen Techniken hinkt hier mMn, denn bei den meisten anderen, neuen Techniken macht man nicht erst 3 (Riesen) Schritte* zurück um einen (Mini) Schritt** nach vorne zu machen.

Mein Plasma konnte z.B. direkt vom Start weg Alles, was ein günstigerer LCD auch konnte. Nur besser.
Oder aktueller, ein OLED. Selbes Spiel.
Die ersten erschwinglichen Consumer- Plasmas haben schnell an Leuchtkraft verloren. Haben sich aus der Steckdose um die 1000 Watt genehmigt und das Bild hat sich innerhalb kürzester Zeit eingebrannt.

Es waren also auch 3 Schritte zurück und einer nach vorne. OLED hat es EWIG nicht zur Marktreife gebracht, weil der Ausschuss zu hoch, die Leuchtkraft und Haltbarkeit der Panels zu niedrig war. Die ersten Produkte damit waren auch sündteuer.

*sollte sich das Gerücht bewahrheiten, dass mit eingeschalteten RT Features bei 1080p@60 Schluss ist. Und ja, Auflösung zähle ich hier als zwei Schritte zurück. 4k->1440p->1080
Ja- Es sollte zumindest noch 4K in 30Hz beherrschen.

**gucke ich mir z.B. das DigitalFoundry Video zum neuen Spiderman Spiel an, sehe ich keinen großen Fortschritt (subjektiv) bei RT Beleuchtung (Tomb Raider) oder RT Reflexionen (BF V) gegenüber dem hier gezeigten. Beim Spielen wohl noch weniger, als bei einem Analnyse Video. Und das läuft auf einer PS4.
Das liegt daran, dass alle modernen Engines inzwischen onehin schon Raytracen. Einfachstes Beispiel ist AO.
Es ist nur nicht sauber, viele Details werden verschluckt und es bezieht nicht die gesamte Szene ein, ist aber dafür ziemlich rechenintensiv für die Shader/CPU. Genau das sollte die neue RTX besser, schneller und schöner können.
 
t3chn0 schrieb:
Als die GTX970 und 980 präsentiert wurde, habe ich direkt 2x970 von Palit gekauft zum Launch Day, weil eine Karte 325 EUR gekostet und eine 970 schon schneller war, als meine 780Ti. Ich konnte die 780Ti Kingpin noch für 570 EUR eine Woche vor Launch verkaufen und habe damit quasi nur 80EUR effektiv für die 970er im SLI bezahlt und war damit auch echt sehr zufrieden.

Zufrieden? Du wurdest schön beschissen.

Einige Zeit später war dann auch jedem klar, warum die 970 trotz geringem Abstand zur 980 so viel günstiger war. Weil nur 3,5GB des VRAM schnell angebunden waren, wovon NVidia natürlich erstmal nichts gesagt hat. Erst als Nutzer es rausgefunden haben bzw. es bei zu hohem Füllstand zu Nachladerucklern kam, haben sie es eingeräumt.

Und dann noch SLI mit zwei Krüppelkarten?

Im Ernst, wie kann man da zufrieden gewesen sein?
 
  • Gefällt mir
Reaktionen: m.Kobold, stevefrogs und raphe
schöne Leistungssteigerungen, wenn sie denn so eintreten.
Aber das CB diese übernommen hat, spricht wohl deutlich dafür, wenn man mal die letzten Jahre zurück blickt wie es früher gehandhabt wurde.
Zusammen mit RT wird die neue Generation immer interessanter. Übel allerdings die bisher genannten Preise, aber warten wir es ab bis alle Tests vorliegen und sich die Preise eingependelt haben.
 
Vor 5 Jahren hat eine High End Grafikkarte ca 675€ gekostet (GTX 780 TI). Für mich wäre dann der direkte Nachfolger eher eine RTX 2070. Die soll ja 630€ kosten. Letztlich lässt NVIDIA sich jedes Jahr die Mehr Leistung ordentlich bezahlen.
 
ich habe mich mal noch ein wenig zum volta belesen, da gibt es ja mitlerweile fast alles....

https://www.heise.de/newsticker/mel...ur-ein-Meilenstein-im-GPU-Design-3712206.html

laut heise kann man die nvidia folie verwenden, um die fläche der verschiedenen cores abzuleiten. sagt zu mindest nvidia. kann natürlich sein, dass die einfach nur ganz fieß rum lügen :D

50% werden es natürlich für tc´s und rt´s nicht sein, aber dass sie zusammen fast genauso groß sind wie die shader, kann ich mir durchaus vorstellen. am ende sind es 42.135% :evillol:

mfg
 
Zuletzt bearbeitet:
Die Leistung der 2080ti im Grunde egal.
Habe mich dazu entschlossen sie zu Überspringen.
Der mögliche Wertverfall meiner aktuellen 1080ti ist mir im Grunde auch egal. Bisher wanderten meine alten Grafikkarten sowieso in den Zweitrechner.

Und soll ich mich jetzt wirklich darum Sorgen machen das meine Computerhardware nach vielleicht 5 Jahren nur noch den Bruchteil ihres Neuwertes hat?
Was soll ich dann erst bei meinem Auto sagen?
 
  • Gefällt mir
Reaktionen: MegaDriver
@ZeroZerp 1000 Watt vlt. bei einem rein weißen Standbild (bauart bedingt), nicht im Schnitt bei normalen Film oder Fernsehen.

Leuchtkraft wird zudem nicht linear wahrgenommen, auch wenn also Einbußen zu messen sind, sind die erst wesentlich später wahrnehmbar.

Gut, das Einbrennen kann man den ersten Modellen wirklich nicht absprechen.
Da kann man höchstens argumentieren, das der Fernseher 'falsch' eingesetzt wurde. Wer da Early Adopter war, hat aber sicher nicht 5 Stunden am Stück RTL (2) geguckt, sondern im Idealfall Blu-Rays.
Dann hat sich das mit dem Einbrennen schon erledigt, denn dann hat man ja wieder kein statisches Element im Bild.
Aber das ist zugegebenermaßen mit vielen Konjunktiven versehen.

@AO und andere bereits genutzte In Engine Raytracing Einsätze:
So aufwendig kann's ja nicht sein, wenn es auf einer PS4 mit ihren 1,84 Teraflops läuft*.
Wenn eine 2080Ti jetzt im Vergleich dazu 'nur' von 30 auf 60fps kommt und nur minimal besser aussieht (subjektiv), darf man sich schon Fragen, ob das der sinnvollste Nutzen für die Chipfläche ist.

*zumindest 1080p@30
 
v_ossi schrieb:
@ZeroZerp Der Vergleich zu anderen Techniken hinkt hier mMn, denn bei den meisten anderen, neuen Techniken macht man nicht erst 3 (Riesen) Schritte* zurück um einen (Mini) Schritt** nach vorne zu machen.

wenn man nur an Auflösung und FPS denkt ist es sicherlich erstmal ein Schritt zurück.
Es ist trotzdem ein Schritt der zu Begrüßen ist, weil es der nächste Schritt zur besseren und realistischeren Grafik ist. Und wie ich vor paar Seiten schon schrieb, es ist völlig egal wann sie das ganze implementieren. Hätten sie noch paar Jahre gewartet um gerade so 4k zu packen hätte jeder rumgeheult warums nicht 4k 140 FPS sind.
 
  • Gefällt mir
Reaktionen: milliardo
aber sicher nicht 5 Stunden am Stück RTL (2) geguckt, sondern im Idealfall Blu-Rays.
Dann hat sich das mit dem Einbrennen schon erledigt, denn dann hat man ja wieder kein statisches Element im Bild.
...was ist mit den Wintersportfans? Überwiegend weißes Bild durch Schnee und statische Elemente.
Ich habe wirklich viele Plasmas gesehen bei denen es dieses Einbrennen gegeben hat. Wenns damals richtig dumm gelaufen ist, bist Du vielleicht einfach nur vorm TV eingeschlafen und morgens war dann das Gerät ruiniert mit eingebrannten Elementen.
Vernünftige Bildschirmschoner waren bei den ersten Geräten ja auch nicht immer vorhanden.
 
Pfff, ich hab einen der billigsten 60" Plasmas und auch schon nen Tag lang CNN laufen gehabt. Ja sieht man dann halt das CNN Logo teilweise fuer 1-2 Tage, aber nach etwas Zeit gehts wieder weg.
 
Banned schrieb:
Zufrieden? Du wurdest schön beschissen.

Einige Zeit später war dann auch jedem klar, warum die 970 trotz geringem Abstand zur 980 so viel günstiger war. Weil nur 3,5GB des VRAM schnell angebunden waren, wovon NVidia natürlich erstmal nichts gesagt hat. Erst als Nutzer es rausgefunden haben bzw. es bei zu hohem Füllstand zu Nachladerucklern kam, haben sie es eingeräumt.

Und dann noch SLI mit zwei Krüppelkarten?

Im Ernst, wie kann man da zufrieden gewesen sein?

Was soll ich jetzt darauf antworten? Ich mache mich einfach mal komplett beliebt. Ich habe die 2x970er von Palit wieder verkauft, habe mir davon 2x980er "FE" geholt. Diese habe ich hier im Marktplatz wieder verkauft und mir anschließend eine FuryX geholt. Die habe ich wieder verkauft und mir davon wieder 2x970er SSC+ von EVGA geholt ^^.

Und im Gegensatz zu den meißten Hatern die dieses 3.5GB Gate so hochgekocht haben, war ich mit dem SLI extrem zufrieden. Ich habe damals viele Videos gemacht als dieser Skandal hochgekocht ist. Mir persönlich war das komplett egal, denn die Karten haben extrem gut performed. Damals hatte ich einen 1920x1080P 27" 144Hz Monitor von Asus und habe in der Auflösung bei meinen Spielen GAR KEINE Probleme mit den 3.5GB gehabt.

BF4, Diablo3, Overwatch und Far Cry 3(glaube ich) liefen PERFEKT mit SLI. Ich habe dann sogar extra Far Cry Videos gemacht wo ich in 4K spiele mit DSR Emulation. Mit einer 970 nahezu unspielbar mit 25 FPS, mit 2x970ern immer schön 40-50 FPS durchgehend. Das wurde mir jedoch nicht geglaubt und deshalb habe ich dann angefangen Videos zu machen als Beweis. Die wurden dann aber einfach ignoriert, weil es viel toller war zu haten ^^.
 
  • Gefällt mir
Reaktionen: MegaDriver
HerrRossi schrieb:
Launchpreis GTX 980 ti: $ 649
Launchpreis GTX 1080 ti: $ 699
Launchpreis GTX 2080 ti: $ 1.199
(jeweils Founders Edition)

Noch Fragen?
Die 2080ti und 1080ti haben ganz unterschiedliche Marktsituationen gehabt (es gab beim Release der 1080 die Titan und die Ti kam viel später auf den Markt)
Mach den Vergleich bitte mal mit 2070/1070/970 und 2080/1080/980 dann merkst du das eigentlich nur der Preissprung von der 900 auf die 1000er statt gefunden hast.
Die neue Ti erbt hier den Status der Titan, die heute eher einen halb professionellen Markt anspricht und mit 3000€ nicht mehr in den Gamer Markt passt.
 
Zurück
Oben