Bericht Turing TU102, -104, -106: Die Technik der Nvidia GeForce RTX 2080 Ti, 2080 & 2070

Ich weiß nicht wo das Problem der Preisdiskussion ist. Das muss immer wieder angesprochen werden. nVidia schiebt ihre Karten momentan ja fast bei jeder Generation eine Preisklasse höher. Hier geht es nicht nur darum das die "Luxus-Karten" im Preis steigen, sondern irgendwann die Mittelklasse Karten a la x060 dann plötzlich in Preisregionen einer gehobenen Mittelklasse Karte wie der 1070 vorstoßen werden. Denn die 2070 wurde ja eindeutig schon wieder eine hochgestuft.

Hier geht es darum das Mittelklasse auch zukünftig im bezahlbarem Bereich bleibt und wer nicht erkennt das nVidia die Karte gerne alle als Highend-Karten verkaufen möchte, dem kann man nicht mehr helfen.
 
  • Gefällt mir
Reaktionen: Seeadler79, Birke1511, Mracpad und 2 andere
@Aldaric87
Kann ja aber auch sein, dass nVidia diesmal die Mittelklasse garnicht weiter antreibt, sondern die ältere Generation dann einfach im Preis redzuiert und "rebranded". Ist ja übliches Vorgehen bei allen Grafikakrtenherstellern.

Hat man ja auch schon öfter munkeln hören. Insofern würde dann auch diesbezüglich alles seinen gewohnten Lauf gehen.
Mit der neuen Generation hätte man dann nichts anderes gemacht, als eine neue Klasse einzuführen. die sonst auf dem Titan Niveau agiert und das Namensschema um eine klasse nach oben zu verschieben.
 
@ZeroZerp
Und die Folge-Generation? Da geht dann das Spielchen von vorne los, wenn eben nicht rebranded wird und die Preisklasse wieder hochgeschoben wird. Nur von der 2xxx Serie auszugehen bei der Preisdiskussion ist naiv.
 
Aldaric87 schrieb:
Hier geht es darum das Mittelklasse auch zukünftig im bezahlbarem Bereich bleibt und wer nicht erkennt das nVidia die Karte gerne alle als Highend-Karten verkaufen möchte, dem kann man nicht mehr helfen.

Das Problem an dieser Diskussion ist, dass noch immer der Geldbeutel entscheidet was der Kunde kauft und der Geldbeutel wächst nicht proportional zu den Grafikkartenpreisen. Wenn die 4080Ti irgendwann mal 4000€ kostet, was interessiert es mich?

Das Problem was in vielen Köpfen feststeckt ist der Wachstum über alles. Heute hat 1080p noch gereicht, morgen muss es schon 2160p sein und übermorgen 2160p mit mindestens 300fps, was aber Bullshit ist und uns immer wieder nur durch die Werbeindustrie herbeigeredet wird.

Nehme einfach einen normalen 1080p Monitor und spiele so wie du gewohnt bist zu spielen. Das entspricht der Masse und benötigt (von RTX abgesehen) kein High-End und auch keine Mittelklasse mehr. Der Kaufpreis für die dafür benötigte Grafikkarte ist über die Jahre auch nicht gestiegen.

Niemand wird gezwungen sich jedes Jahr eine größere Wohnung zu nehmen und es wird auch niemand gezwungen jedes Jahr einen noch größeren Monitor mit einer höheren Auflösung zu kaufen, aber genau damit argumentieren manche hier. Ich will grösser, ich will schneller, ich will höher nur kosten darf es nicht mehr..... :kotz:
 
  • Gefällt mir
Reaktionen: Vitec, kisser und .Sentinel.
Nvidia plant schon mal vor es braucht ja demnächst noch ne Turing Titan, und in ca. einem Jahr ne 2080 Ti Platinum und ne 2070 Ti. Wenn 2080 und 2070 auf dem gleichen Chip basieren bleibt ähnlich wie bei Pascal wenig Luft für eine 2070 Ti
 
Den lange ueberfaelligen Ausbau der GPU-Architektur bei nVidia mit Turing im Vergleich zu Pascal (als getunten Maxwell Shrink) kann man nVidia sicherlich anrechnen, aber - wie schon im Artikel erwaehnt - ist es fraglich in welchem Ausmass die neuen Shadertechniken, Hybrid-Raytracing-Rasterization(HRR) oder auch noch SLI per NVLink sich (bei vielen Entwicklern) etablieren werden und (wann?) beim Kaeufer ankommen/genutzt werden.

Auch aufgrund der durch Turing/nVidia demnaechst massiv steigenden GPU-Preise (die wohl nur nVidianer, Early Adopter und Hobby-Enthusiasten anfaenglich bereit sein werden zu zahlen, zumal ja kaum daraufhin optimierte Spiele zum Marktstart vorhanden sein werden) werden voraussichtlich relativ wenige Leute auf Turing RTX Karten umsteigen.

Selbst wenn es eine RTX 2060 (mit mittelklassekaeuferschaft-tauglicherem Preis?) geben sollte, wuerde das darin enthaltene RTX Feature wohl eher ein eingeschraenkter Gimmick/ziemlich unbrauchbar sein, weil die Rohleistung von Anfang an schon in Full-HD (bei den RTX 2070/2080er Modellen) nicht genuegend reissen koennte und die Frames zu sehr einbrechen wuerden.
So gesehen ist es wahrscheinlich, dass bspw. eine GTX 1070Ti zu einer GTX 2060 umfunktioniert werden koennte (alter Wein in neuen Schlaeuchen eben).

Die RTX 2070 (mit moeglichen spaeteren "light" oder "Ti"-Varianten) ist durch den TU 106 Chip (trotz der deutlich gewachsenen/notwendig gewordenen Groesse) dann auch endgueltig in die (obere) Mittelklassrolle geschliddert und keine untere Ober-/Performanceklasse-GPU mehr (die Ober-/Performanceklasse hat nun den neuen TU 104 Chip der RTX 2080 und von dessen Varianten; darueber findet sich dann mit der RTX 2080Ti wie gewohnt die Enthusiasten-/Luxusklasse mit dem TU 102 Chip) und das ist dann schon ein massiver Preissprung und ich bin gespannt, wie sich die schwachbruestigste RTX GPU (an RTX Einsteiger gerichtet) bei den heftigen Preisen verkaufen wird.

Die verbesserte Speicherkompression ist zwar schoen und nett, aber dadurch werden die GPUs nicht wirklich langlebiger werden (stagnieren auf dem Level der Pascal Generation speichertechnisch), insbesondere dann, wenn irgendwann doch Samsung GDRR6 mit doppelter Kapazitaet (16 Gbit, 2 GB pro Chip) genommen werden sollte anstelle des Micron GDDR6 Speichers (oder eben von Micron oder auch SK Hynix, wenn diese eben auch doppelte Kapazitaet bei GDDR6 liefern koennen).

Daneben herrscht nicht Klarheit, ob nVidia noch im kommenden Jahr einen 7nm Refresh mit (in etwa) gleicher Architektur bringen wird - je nachdem wie stark oder schwach AMDs/RTGs Navi GPUs ausfallen werden - und wenn dem so waere, dann waere man mit dem Kauf der ersten Turing GPU-Generation schon angeschmiert, denn nicht nur Verbrauch aber auch Leistung duerften in 7nm deutlich steigen gegenueber 12nm (wie man es ja bei Pascal im Vergleich zu Maxwell gut ablesen kann).

Der Spieler muss wiederum GeForce Experience installieren, da das Tool die Ergebnisse der KI herunterladen und über die NGX-API integrieren kann. Theoretisch können auch über das Spiel selbst (per Patch) oder über den Grafiktreiber die Algorithmen ausgeliefert werden. Nvidia sieht aktuell aber anscheinend nur die Variante per GeForce Experience vor.

Tja, und dann gibt es zu guter Letzt natuerlich noch den angekuendigten Zwang zu GeForce Experience (Datenspionage inklusive) und ob man darauf Lust hat (als moeglichen ersten Schritt und evt. weiterer Gaengelung durch das "Treue"-Programm danach, von dem man sich abhaengig macht) oder nVidia mit den eigenen System-Daten trauen moechte, obwohl es eigentlich per Integrierung ins Spiels (per Patch) oder Treiber moeglich sein sollte, ist dann noch ein weiterer Knackpunkt.

Es gibt voraussichtlich Licht bei den kommenden Turing RTX Grafikkarten aber eben auch viel Schatten ;).
 
Zuletzt bearbeitet:
startaq schrieb:
Heise hat ja diesen unsäglichen NVidia NDA nicht unterschrieben, deswegen dürfen sie berichten: https://www.heise.de/newsticker/mel...fuegig-schneller-als-GTX-1080-Ti-4165622.html

Komisch nur das sie Pünktlich zum Fall des NDA genau so den Technik Artikel zu Turing bringen wie die anderen Seiten.
https://www.heise.de/newsticker/mel...raet-mehr-zur-Technik-von-Turing-4165369.html
Wenn sie die Infos vorher hatten hätten sie sie ohne NDA auch vorher veröffentlichen können.
Auch wenn heise die allgemeine NVidia NDA nicht unterzeichnet hat geh ich davon aus das sie eine Turing-NDA unterschrieben haben.

@Topic
Turing ist was die Hardware angeht wirklich spannend. Ich bin sehr auf die Leistung mit DLSS gespannt und was die Raytracing Effekte in einem Objektiven Vergleich an Optikverbesserungen wirklich bringen.
Raytracing ist denk ich die Zukunft.
Vermute das wir in den nächsten Generationen kaum noch mehr FB32 Shader bekommen und nur die TC und RT Cors ausgebaut werden.
 
  • Gefällt mir
Reaktionen: CBL und .Sentinel.
Aldaric87 schrieb:
@ZeroZerp
Und die Folge-Generation? Da geht dann das Spielchen von vorne los, wenn eben nicht rebranded wird und die Preisklasse wieder hochgeschoben wird. Nur von der 2xxx Serie auszugehen bei der Preisdiskussion ist naiv.
Wenn man den Zyklus, wie er jetzt über etliche Jahre hinweg praktiziert wurde weiterführt, dann wird uns so ein "Schub" wieder über viele Jahre erspart bleiben, bis das nächste große Ding einschlägt.

Zudem weiss man nicht, wie stark die Abschläge der nachfolger- Generation werden und auch nicht, wie sich die Marktpreise der neuen Karten entwickeln werden.

Wie immer- Man kann das übelste Szenario annehmen, das günstigste und das, welches auf den Erfahrungen der letzten Jahre beruht (der für mich vernünftigste Weg).

Grüße
Zero
 
floh667 schrieb:
Es entspricht aber nicht automatisch 64x supersampling. Und die Datenbank erstellt sich auch nicht einfach so von selbst.
Wie DLSS funktioniert kannst du hier nachlesen:
http://www.3dcenter.org/news/die-ne...vidias-turing-deep-learning-super-sample-dlss
`Selbst wenn's nur 8xSSAA wäre bzw. einfach eine schärferes und weniger für Artefakte anfälliges TAA, führt es dazu, daß man nicht in 4K spielen muss, um ein vernünftiges Bild zu erhalten.

Ich schätze, das könnte mit 1440p so gut oder besser aussehen, wie die meisten anderen PostFX-AA-Methoden mit 4K.
 
xexex schrieb:
Das Problem was in vielen Köpfen feststeckt ist der Wachstum über alles. Heute hat 1080p noch gereicht, morgen muss es schon 2160p sein und übermorgen 2160p mit mindestens 300fps, was aber Bullshit ist und uns immer wieder nur durch die Werbeindustrie herbeigeredet wird.

Nehme einfach einen normalen 1080p Monitor und spiele so wie du gewohnt bist zu spielen. Das entspricht der Masse und benötigt (von RTX abgesehen) kein High-End und auch keine Mittelklasse mehr. Der Kaufpreis für die dafür benötigte Grafikkarte ist über die Jahre auch nicht gestiegen.

Bin ganz froh über das Wachstum, da wenn es keins gäbe, wir alle immer noch mit Pfeil und Bogen rum laufen müssten...

Also ich muss sagen ich könnte nicht mehr mit 60 Hertz spielen. Es wirkt zum Beispiel auf 144 Hertz alles viel flüssiger und das ist kein Märchen der Werbeindustrie.... Wurde oft genug bewiesen.

Ich bin ganz froh darüber das wir höhere Auflösungen haben. Wenn man 4K mal in Aktion gesehen hat ist das schon eine ganz andere Liga wie Full HD. Mittlerweile bei über 30 Zoll großen Geräten ist 1080p reiner Pixelmatsch... Sorry, aber das geht gar nicht. Um die 110 ppi ist ein relativ guter Richtwert finde ich...

Jetzt wird es echt Zeit das der Test erscheint, die ewigen Berichte nerven auch irgendwann ein Stück weit... Will endlich Klarheit was die Karten auch ohne Raytracing und DLSS leisten...
 
  • Gefällt mir
Reaktionen: DanHot und TheBear1517
Mal kurz zum Thema Preis und Luxus und so:

Ich hab ne GTX 960 drin, und kann mit der jedes aktuelle Spiel in 60fps auf 1080p spielen.
Hinreichendes AA, Umgebungsverdeckung, super-krasse Weitsicht, und Schnickschnack wie Hairworks sind damit natürlich i.d.R. nicht drin. Aber man muss auch nicht auf Low zocken.

Je nach Spiel kann ich sogar 1440p fahren (da sieht dann selbst FXAA schon nicht mehr so schlecht aus), oder eben das meiste auf "Hoch" stellen.

Ja, bei so ziemlich jedem Titel muss man Kompromisse eingehen und entweder auf hinreichende Kantenglättung oder schöne Effekte verzichten. Aber man kann wirklich JEDES Spiel mit 60fps zocken (doppelt so viel wie auf den Konsolen).



Mich ärgert es auch, daß die neuen Karten so teuer sein werden, da ich mich eigentlich darauf gefreut hatte, dies mal richtig Geld in die Hand zu nehmen und High End zu kaufen. Aber nun ist das HighEnd wieder deutlich teurer geworden.
Ich hatte die Hoffnung, daß mit dem abflauenden Mining-Hype und der neuen Generation ein riesen Sprung für annehmbares Geld möglich sei. Das wird nun nicht so sein. Ärgert mich sehr.

Aber das ist eben wirklich ein Luxus-Problem.
Ich werde auch noch locker 1 Jahr mit der GTX 960 weiter zocken können, ohne daß es irgendwo hakt.
 
Zotac2012 schrieb:
Das streitet doch auch niemand ab, wenn ich Nvidia wäre würde ich sofort den Preis der RTX 2080Ti auf 2000,00 Euro erhöhen und bei der nächsten Generation direkt verdoppeln auf 4000,00 Euro. Es würde ja nichts ausmachen, denn wir wollen so eine blödsinnige Diskussion nicht führen, soll doch jeder kaufen was er will.

das kann Nvidia gern machen und das werden sie auch wenn sie zb nur wenig 7nm Karten beschaffen können. Sowas regelt Angebot und Nachfrage von allein. Wenn die Nachfrage beim 4000€ Modell da ist aber das Angebot stark begrenzt ist, dann verlangt man 4000€ klar.

Ich beschwere mich ja auch nicht dass es nur ka, 2000 Ferrari Enzo gibt und die dann 3 Mio / Stück kosten. Ich kauf einfach keinen.

Dass der Markt jetzt extrem einseitig geworden ist (so einseitig wie nie da bisher immer die Topmodell nah beieinander lagen) pasts mir auch nicht da es eben den Fortschritt dermaßen ausbremst. Entweder weil er unbezahlbar teuer wird oder weil einer von beiden die neuen produkte zurückhält da man mit den alten noch genug einfährt:

Grund des Übels: Mangelnder Konkurrenzdruck. Bestes Beispiel ist doch die lange Durststrecke bei den Cosumer Intels und die Wiederauferstehung mit Ryzen.
 
Ich verstehe die Diskussion mit den Preisen nicht so ganz.

Als die 1080 rauskam, hat sie auch ~800€ gekostet. Das wird fast genau dem Preis der 2080 entsprechen.

Eine Ti wurde bisher nicht parallel gebracht. So konnte die XX80 im Preis fallen, was sich dann logischerweise auch auf den Preis der Ti auswirkt.

Eine 1080Ti kostet (für die vernünftigen Modelle) momentan etwa 300€ mehr als die 1080.

Rechnet man vom Release-Preis der 1080, hätte die 1080Ti bei parallelem Release auch 1100€ gekostet.
 
Zotac2012 schrieb:
Die würden sicherlich genauso weg gehen wie warme Semmeln, wie jetzt auch und nach Deiner Logik wäre es ja auch egal, was eine Grafikkarte kostet, weil wir darüber nicht Diskutieren wollen!

das würden sie nicht und das weiß Nvidia. Es würden welche weggehen, aber eben vergleichsweise wenig. Nvidia konnte das ja auch mit 3000€ teuren TITAN recht gut ausloten.

Nvidia hat ja auch wenig davon wenn sie bei TSMC 100000 Chips bestellen und nachher nur 2000 davon weggehen. Die Kunst ist ja da den Preis da so zu setzen dass es etwa die Nachfage gibt die man auch anbieten kann.

Anders als AMD muss Nvidia auch nicht Marktanteile massiv ausbauen. bei High End macht man das eh nicht, aber würde man Marktanteile brauchen gäbe es sowas wie eine rechtgünstige RTX 2060.
Ergänzung ()

Zotac2012 schrieb:
aber man muss doch darüber diskutieren können, wenn mit der Turing Grafikkarte ein RTX 2080Ti so viel kostet, wie vorher eine Titan.

Das ist richtig. Bin euch bei dir dass die Preise deutlich angezogen haben.

Nvidia hätte die Karte auch RTX TITAN nennen können, aber wäre das dann besser gewesen?

 
Krautmaster schrieb:
Ich beschwere mich ja auch nicht dass es nur ka, 2000 Ferrari Enzo gibt und die dann 3 Mio / Stück kosten. Ich kauf einfach keinen.
Och nö, nicht wieder diese bescheuerten Autovergleiche die in allen Bereichen hinken, Sorry! Es interessiert doch auch keinen, ob es einen Ferrari für 3 / 5 oder 20 Millionen gibt, weil nur 5% in diesem Land sich ein solches Fahrzeug aus ihrer Portokasse bezahlen / leisten können. Und Du willst jetzt echt eine RTX 2070 /2080 und 2080Ti mit einem Ferrari vergleichen?

Krautmaster schrieb:
Dass der Markt jetzt extrem einseitig geworden ist (so einseitig wie nie da bisher immer die Topmodell nah beieinander lagen) pasts mir auch nicht da es eben den Fortschritt dermaßen ausbremst. Entweder weil er unbezahlbar teuer wird oder weil einer von beiden die neuen produkte zurückhält da man mit den alten noch genug einfährt:
Man kann aber auch mal als Kunde / Käufer sagen, OK bis hier hin, aber das geht mir doch jetzt zu weit und kaufe dann mal nicht das Produkt und wenn das die Mehrheit mal wirklich so durchziehen würde, glaube mir, wie schnell man eine RTX 2080Ti auch für 700,00 Euro bekommen kann und dadurch würde Nvidia sicherlich nicht am Hungertuch nagen!

Krautmaster schrieb:
Grund des Übels: Mangelnder Konkurrenzdruck. Bestes Beispiel ist doch die lange Durststrecke bei den Cosumer Intels und die Wiederauferstehung mit Ryzen.
Das ist aber auch nur die halbe Wahrheit, so lange aber jeder sich auf die neuen Produkte von Nvidia stürzt und das egal zu welchem Preis, werden die natürlich immer auch die Preisschraube weiter nach oben drehen. Ich würde einfach mal jedem empfehlen, für den Preis einer RTX 2080Ti mal 2 Wochen als Kanalreiniger zu arbeiten [kommt ungefähr vom Stundenlohn hin!] und wenn Du nach 14 Tagen durch Berge von Sch.... gewartet bist in den stickigen Tunneln unter der Stadt, dann bekommt man auch wieder eine ungefähre Vorstellung von der Summe und dem Wert des Geldes.

So manchen würde ein solcher Erfahrungsschritt wirklich guttun und dann würde man auch bezüglich des Geldes vielleicht ein wenig anders argumentieren. Denn dann bekommt man auch wieder mal eine realistische Einstellung, was man für solche Summen einer RTX 2080Ti an Leistung erbringen muss!
 
Zuletzt bearbeitet:
Rock Lee schrieb:
Also alles schön und gut, aber ich habe eine Verständnisfrage bezüglich der Chips.
Die Packdichte ist ja bei Turing mehr oder weniger identisch bei allen Chips.
TU106 ist ist eigentlich jeder Hinsicht ein halber TU102 im Vollausbau mit Ausnahme des Speicherinterface und ROPs.

Aber TU106 hat ca. 60% der Fläche vom TU102 und dennoch das kleinere Speicherinterface. Machen die ROPs wirklich so viel aus, was die Chipfläche angeht, oder stimmen die Daten zum TU106 Vollausbau evtl. nicht, so dass sogar die RTX 2070 zum Teil beschnitten ist?

Ich bin mir nämlich ziemlich sicher,dass eine 2070ti kommt. Also entweder mit einem noch weiter beschnittenen TU104, oder mit einem TU106 im WIRKLICHEN Vollausbau.

Expertenmeinungen hierzu?

Hab mir meine Frage grad selbst beantwortet. GP104 ist in vielerlei Hinsicht ein doppelter GP106, aber nur 57% größer. Scheinbar macht das "drumherum" im Chip doch ne Menge aus.
Gab ja mal den Leak von AdoredTV
nVidia-Turing-Spezifikationen-von-AdoredTV.png
Da ist zum Beispiel TU106 für die RTX 2070 richtig, wobei da nur 7GB stand.
Also war meine Überlegung: Nvidia hat sich umentschieden, dass 7GB für den Nachfolger einer Karte mit 8GB (1070) nicht ganz so geil sind und einfach ein Gigabyte drangeflanscht wie bei den 512MB der 970 ;), so dass der Chip kein TU106 Vollausbau wäre, sondern beschnitten mit 224bit+32bit.
Ein TU106 Vollausbau ala RTX 2070ti hätte dann volle 256bit und 8 Gigabyte + mehr Shader.

Aber nun gut. Ist ja jetzt wohl hinfällig. Wäre aber witzig gewesen die Diskussion erneut in den Foren zu haben ;)
 
IXI_HADES_IXI schrieb:
Ich bin ganz froh darüber das wir höhere Auflösungen haben.

Wir "haben" sie nicht, wir kaufen sie uns.... Es ist ja nicht so, als wäre das Spielen mit der bestehenden Auflösung plötzlich teurer geworden, nur dein Wunsch nach mehr und noch mehr ist "plötzlich noch mehr" teurer geworden. Wachstum bis zum platzen von Gier getrieben ist ungesund....

Ich bin an dieser Stelle sowieso gespannt, was die Leute machen wenn es keinen "Wachstum" mehr gibt, weil man die Chips nicht noch kleiner machen kann und man 8K Auflösungen nur noch 10cm vor der Nase unterscheiden kann... Geht es dann wie bei der CD weiter als einige schwören konnten, sie würde besser klingen wenn man sie vorher ins Eisfach legt? Schwören wir dann auf Kabel aus Echtsilber, die angeblich die Daten "besser" übertragen können? Alles schon erlebt als es im Hifi Bereich plötzlich kein "Wachstum" mehr gab. Menschen können sich echt viel einbilden, wenn ihr Hirn erst durch Werbung weichgekloppt ist.

Zotac2012 schrieb:
Es interessiert doch auch keinen, ob es einen Ferrari für 3 / 5 oder 20 Millionen gibt, weil nur 5% in diesem Land sich ein solches Fahrzeug aus ihrer Portokasse bezahlen / leisten können.

Lustigerweise kriegst du es hin zu realisieren, das es Dinge gibt die sich nur einige Wohlhabende leisten können, pochst aber auf billige Preise für die teuersten Spielergrafikkarten? Genau hier liegt doch der Punkt, wer sich etwas teures nicht leisten kann oder will, braucht es auch nicht zu interessieren.

Niemand wird gezwungen einen Ferrari zu kaufen und genauso wenig die teuerste Grafikkarte.
 
Zuletzt bearbeitet:
Was einige wohl nicht mehr auf dem Schirm haben ist GeForce now, wenn ich dlss höre und das es nur über experince geht läutet mein Spinnensinn!
Rtx 20xx zu teuer? Ja!
Es gab ja die leaks und hochrechnungen preis/zu leistung
Werden Leute sie trotzdem kaufen? Ja!
Und wenn die Benchmarks kommen muss man zwei Version davon machen nämlich der den viele ansprechen der Generation Wechsel 1080zu2080 aber auch der Preissektor 1080zu2060! Ja ihr habt richtig gelesen 1080 (460€) zu 2060 (400-500€).
Eine 2070 (640€) zu 1080ti (700€)
Nicht ohne Grund werden hier die Benchmarks zurückgehalten und wer auf die Marketing Überraschung von Nvidia rein fällt der soll sich doch über den Tisch ziehen lassen. Allein das schon in der Präsentation gelogen worden ist bei dem Benchmark ue4 in 4k das eine 1080ti das nicht Schaft, der braucht nur auf YouTube gehen und wird sehen das eine 1080ti das durchaus Schaft zwar nicht permanent, aber teilweise auch mehr. Technik und Fortschritt in allen Ehren aber ich hoffe das Nvidia böse auf die Schnauze fällt!
Randnotiz Jahrlanger Nvida Kunde seit geforce256
 
xexex schrieb:
Niemand wird gezwungen sich jedes Jahr eine größere Wohnung zu nehmen und es wird auch niemand gezwungen jedes Jahr einen noch größeren Monitor mit einer höheren Auflösung zu kaufen, aber genau damit argumentieren manche hier. Ich will grösser, ich will schneller, ich will höher nur kosten darf es nicht mehr..... :kotz:

Sorry, also das ist ja wohl ziemlich kurzsichtig betrachtet. Mit diesem Argument könnte man jeden Fortschritt in jeder Disziplin als Rechtfertigung für stete Preiserhöhungen betrachten.

Auf diese Weise schauen wir noch in 10 Jahren SD TV und zahlen einen kleinen Aufpreis für HD, einen mittleren für UHD und einen fetten für XYZ Extra. Das gleiche gilt für mobiles Datenvolumen, die Geschwindigkeit von Internetanschlüssen und und und.

Der Wohnungsgrößenvergleich ist hahnebüchen solange der Fortschritt bei der Planetenvergrößerungstechnik weiterhin stagniert. ;)

Und selbstverständlich werden Displays im Laufe der Zeit immer hochauflösender und es ist absurd vorzuschlagen man solle doch auf den Fortschritt in dieser Hinsicht verzichten damit einen der Preiswahnsinn bei Grafikkarten nicht mehr so stört. :rolleyes:
Ergänzung ()

xexex schrieb:
Niemand wird gezwungen einen Ferrari zu kaufen und genauso wenig die teuerste Grafikkarte.

NVIDIA vermarktet mit der xx70 aber keinen Ferrari, sondern stuft den Fiesta "jede Generation" (bzw. diese Generation, denn es geht ja um die Befürchtung dass dies ein Trend sei) um eine Preisklasse weiter nach oben.
Ergänzung ()

DanHot schrieb:
Was einige wohl nicht mehr auf dem Schirm haben ist GeForce now, wenn ich dlss höre und das es nur über experince geht läutet mein Spinnensinn!

Das ist auch der entscheidende Punkt in diesem Artikel gewesen. Selbst wenn ich vorhätte eine solche Menge Geld auf den Tisch zu legen sind es solche Kundenunfreundlichkeiten, welche mich von diesem Gedanken wieder wegschieben!
 
  • Gefällt mir
Reaktionen: Unnu, stevefrogs, Seeadler79 und 2 andere
Zurück
Oben