News Nvidia Pascal: Die letzten Tage der GeForce GTX 1080 (Ti) sind gezählt

Status
Für weitere Antworten geschlossen.
Markttaktisch klug: die neue Gen so teuer verkloppen, das man die Lager mit den 1080/1080TI leeren kann und keine Alternative mehr bleibt. Eindeutig ne win/win Situation für Nvidia. Wenn die Preise dann aber nicht fallen und die teuersten Karten den Hitzetod sterben, möcht ich nicht zugreifen.
 
FCK-THIS schrieb:
In einem Jahr könnten wir ähnliche Preise bei der RTX 2080 Ti sehen (699$).

Ha ! Der war gut. Du glaubst doch nicht ernsthaft das der Preis in diesem Ausmaß fallen wird....
 
m.Kobold schrieb:
Ich kann wirklich nicht verstehen wieso hier einige meinen 8GB würde nicht mehr reichen, das ist totaler schwachsinn für die "meisten" PC User, viele zocken noch nicht mal in 1440p und fakt ist auch in 1440p bekommst du die 8GB VRAM nie und nimmer voll.

Final Fantasy 15 bringt den Speicher der 1080 Ti auch ohne Probleme zum Platzen, auch ne Titan mit ihren 12 GB reicht da nicht.
 
Aber aber, das heißt doch nur das dass Spiel schlecht optimiert ist :king::king:
Es ist einfach eine Frechheit das NVidia bei einer neuen GPU-Generation genauso viel VRAM verbaut wie bei der letzten Generation.
 
Pisaro schrieb:
Aber aber, das heißt doch nur das dass Spiel schlecht optimiert ist :king::king:
Es ist einfach eine Frechheit das NVidia bei einer neuen GPU-Generation genauso viel VRAM verbaut wie bei der letzten Generation.

Am besten anstatt überflüssigen 11GB direkt überflüssige 16GB verbauen, damit die Leute die nichts davon verstehen sich denken können:

„Ich hab den Größeren“ ... manche Leute muss man nicht verstehen.

AMD bietet auch nur 8GB, die bis auf 4K nie voll belegt werden. Und?
HBCC ist kein Argument oder hatte die GTX 970 plötzlich doch 4GB? :freak:

Für alles bis auf 4K und von mir aus FF 15, das schon bei 1080p fast 8GB belegt und somit eindeutig schlecht optimiert ist, sind 8GB mehr als ausreichend, deshalb verbauen AMD, sowie Nvidia bis auf die Ti „nur“ 8GB, ansonsten belege mir bitte das Gegenteil.

Aber FF15 ist natürlich ein Grafikblockbuster :evillol::evillol:

GDDR6 bietet im Vergleich zu GDDR5X mehr Bandbreite, was im Gegensatz zu unbelegtem VRAM auch einen Nutzen hat.

W0lfenstein schrieb:
Ha ! Der war gut. Du glaubst doch nicht ernsthaft das der Preis in diesem Ausmaß fallen wird....

Warum? Der Preis der GTX 1080 ist auch innerhalb einem Jahr um fast 30% gefallen (Release 699$ - ein Jahr später 499$).

Bis auf den Mining Boom gibt es wenige Beispiele, wo es nicht so war. Und ein erneuter Mining-Boom ist eindeutig ausgeschlossen, da es mit Grafikkarten nicht mehr rentabel ist. Dort nimmt man nun ASIC Miner.

Soll das bei der RTX 2080 Ti nun nicht möglich sein, nur weil du es sagst? :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: m.Kobold
  • Gefällt mir
Reaktionen: FCK-THIS
Pisaro schrieb:
Es ist einfach eine Frechheit das NVidia bei einer neuen GPU-Generation genauso viel VRAM verbaut wie bei der letzten Generation.

Das ist es, aber einige haben sich schon so schön damit arrangiert und gehen nVidia damit gerne auf dem Leim bzw. wurden über Jahre wohl bestens daraufhin konditioniert :rolleyes:.

Ansprüche als Kunde auf Langlebigkeit darf man wohl gar keine mehr mittlerweile hegen, auch nicht in hochpreisigen Segmenten/GPU-Leistungsklassen, weil gewissen Leuten das Geld zu locker in der Tasche sitzt, der Konsumrausch/die Computerspielsucht/das "Statussymbol" ruft, oder was weiss ich :freak:.

Deswegen muss der Nicht Hobby-Enthusiast oder Nicht-Early Adopter bitteschön auch so weltfremd, markenhirnverbrannt, technikgeil um jeden Preis, o.ä. denken (?)... nein, ich glaube da tickt die breite Masse zum Glück (noch) anders und ist nicht komplett "lederjacken-hörig" :cool_alt:.

Wenn 12+GB 7nm Karten in der Oberklasse Realität würden könnte man ggfs. noch die veranschlagten Mondpreise akzeptieren, aber so (für Katze im Sack-Features mit bisher kaum Mehrwert)?

Ich denke das sieht die Mehrheit der Foristen hier schon richtig/nicht unkritisch, schade dass es für die mit großem Abstand beste Pascal GPU, der GTX 1080Ti, keinen (preis-leistungstechnisch) würdigen Turing Nachfolger gibt und vermutlich auch nicht mehr geben wird.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
Chismon schrieb:
Das ist es, aber einige haben sich schon so schön damit arrangiert und gehen nVidia damit gerne auf dem Leim bzw. wurden über Jahre wohl bestens daraufhin konditioniert :rolleyes:.

Ansprüche als Kunde auf Langlebigkeit darf man wohl gar keine mehr mittlerweile hegen, auch nicht in hochpreisigen Segmenten/GPU-Leistungsklassen, weil gewissen Leuten das Geld zu locker in der Tasche sitzt, der Konsumrausch/die Computerspielsucht/das "Statussymbol" ruft, oder was weiss ich :freak:.

Deswegen muss der Nicht Hobby-Enthusiast oder Nicht-Early Adopter bitteschön auch so weltfremd, markenhirnverbrannt, technikgeil um jeden Preis, o.ä. denken (?)... nein, ich glaube da tickt die breite Masse zum Glück (noch) anders und ist nicht komplett "lederjacken-hörig" :cool_alt:.

Wenn 12+GB 7nm Karten in der Oberklasse Realität würden könnte man ggfs. noch die veranschlagten Mondpreise akzeptieren, aber so (für Katze im Sack-Features mit bisher kaum Mehrwert)?

Ich denke das sieht die Mehrheit der Foristen hier schon richtig/nicht unkritisch, schade dass es für die mit großem Abstand besten Pascal GPU, der GTX 1080Ti, keinen (preis-leistungstechnisch) würdigen Turing Nachfolger gibt und vermutlich auch nicht mehr geben wird.

"lederjacken-hörig"? Verbaut AMD nun ebenfalls 11GB oder sogar mehr oder habe ich etwas verpasst?
Immer dieses "Fanboy" Gelaber, ich hatte bereits einige AMD/ATI Karten in Verwendung, bin ich nach deiner Religion nun "unrein"?
Ein "Nicht Hobby-Enthusiast" mit Hirn vergleicht die Grafikkarten beider Anbieter und kauft das Modell mit dem besseren Preis-/Leistungsverhältnis. Gibt es keine Konkurrenz, wie aktuell im oberen Segment bei Nvidia, ist man deiner Meinung nach direkt "lederjacken-hörig" wenn einem eine Vega 64 nicht ausreicht? Clevere Logik :freak:

Solange FF15 das einzige Beispiel ist, dass mehr als 8GB@1440P benötigt, sehe ich keinen Grund mich nach einer Grafikkarte umzuschauen, die mehr benötigt. Das wird die Masse genau so handhaben. Mehr Leistung/Speicher/etc. als ich benötige, sind auch nicht notwendig - ganz einfach.

Besitze selbst eine GTX 1080 Ti und habe bei 1440P noch nie über max. 7xxx MB in Verwendung gesehen und das war bereits die absolute Ausnahme - habe den Großteil der aktuellen Spiele installiert gehabt. Mit DSR etc. ist alles möglich, ich rede aber von Leuten, die mit über 60 FPS spielen möchten.
 
Zuletzt bearbeitet:
Ich habe auch noch ARK gebracht. Aber ja, auch schlecht optimiert, ändert aber nichts daran es es VRam ohne Ende schluckt. Tomb Raider ist hart an der Grenze, läuft noch gerade mit 8GB und an dem Spiel ist mal nichts schlecht optimiert.

übrigends war es fast immer sinnvoll, gleich mehr VRam zu kaufen. Meine alte HD 7850 gab es mit 2GB und mit 1GB. Ich hatte irgendwann beide da. Da, wo die 2GB noch lief, ruckelte die 1GB Version vor sich hin. Das selbe auch bei der GTX 780. Nur das hier schon von den "Herstellern" mehr RAM angeboten wurde. Ist übrigens auch für die Zukunft sehr sinnvoll. Was viele vergessen: Auch in Zukunft werden Texturen KEINE Leistung benötigen sondern NUR RAM.

Es ist allerdings doch SEHR auffallend, wie oft du NVidia verteidigst :). Ich als NVidia-Kunde kann nur sagen: Bei einer schnelleren Generation gleich viel RAM zu verbauen ist einfach lächerlich.
 
  • Gefällt mir
Reaktionen: Otsy, Zitterrochen und Hatsune_Miku
Ein weiterer Marketing Fehler von Nvidia die neuen Fails zu verkaufen, und dreist zu meinen der Preis dafür wäre in Ordnung. Nur weiter so Hochmut kommt vor den Fall.
Nur nebenbei was macht ihr mit den Dies die von
nicht Profitablem Mining zurück gekommen sind?
 
Pisaro schrieb:
Ich habe auch noch ARK gebracht. Aber ja, auch schlecht optimiert, ändert aber nichts daran es es VRam ohne Ende schluckt. Tomb Raider ist hart an der Grenze, läuft noch gerade mit 8GB und an dem Spiel ist mal nichts schlecht optimiert.

übrigends war es fast immer sinnvoll, gleich mehr VRam zu kaufen. Meine alte HD 7850 gab es mit 2GB und mit 1GB. Ich hatte irgendwann beide da. Da, wo die 2GB noch lief, ruckelte die 1GB Version vor sich hin. Das selbe auch bei der GTX 780. Nur das hier schon von den "Herstellern" mehr RAM angeboten wurde.

Es ist allerdings doch SEHR auffallend, wie oft du NVidia verteidigst :). Ich als NVidia-Kunde kann nur sagen: Bei einer schnelleren Generation gleich viel RAM zu verbauen ist einfach lächerlich.

Stimmt, das sagst du, für die meisten Käufer hat es allerdings keine Relevanz.
Weshalb wurden bei der Vega dann keine 12GB verbaut, obwohl bereits seit der R290X 8GB verbaut wurden?
Nach deinem Beispiel müsste dort auch mehr VRAM verbaut worden sein. Und erzähl uns jetzt nichts von HBCC :evillol:
Wäre die Diskussion nicht genau so sinnfrei?

Mehr VRAM wird verbaut, wenn ein Großteil der Spiele es auch benötigt, das sehen AMD und Nvidia wohl ähnlich.
Immer nur "Ich hab den Größeren" bringt dir nichts (Preis steigt) und dem Hersteller nichts (Umsatz sinkt aufgrund höherem Preis).
 
Alle reden von einem "Fail" aber von einem Fehlschlag oder einem Scheitern sehe ich bislang noch nichts.
Wir haben gerade erst den aller ersten Titel, in dem Raytracing noch völlig im Alpha-State ist, gesehen und die Performance ist, auch wenn nicht ausreichend für einen Shooter, dennoch beachtlich - so als Lösung ohne wirklich viel Optimierungsarbeit. Das war früher etwas anders als eine Highend-GPU mit neuem Featureset auf einmal nicht mal mehr spielbare Ergebnisse geliefert hat.

Auf der anderen Seite haben wir einen Titel mit Shadow of the Tomb Raider, der schon länger auf dem Markt ist, bislang aber noch keine Ankündigung für DLSS/Raytracing seitens Square Enix publiziert wurde. Das wird ziemlich interessant in der Kombination mit DLSS, das es bei Battlefield nicht gibt. Die sind immer noch mit Bugfixes und Performanceproblemen bei spezifischen Hardwarekonstellationen beschäftigt.
 
  • Gefällt mir
Reaktionen: FCK-THIS
@FCK-THIS Und da ist das Problem der heutigen Gesellschaft. Einfach das nehmen was da ist, ohne sich zu beschweren. Siehe die Konsolengeneration. Die kaufen, kaufen und kaufen. Merken dabei nichtmal das es teilweise hart ruckelt. Naja.
 
  • Gefällt mir
Reaktionen: hurcos, Hatsune_Miku und W0lfenstein
Pisaro schrieb:
@FCK-THIS Und da ist das Problem der heutigen Gesellschaft. Einfach das nehmen was da ist, ohne sich zu beschweren. Siehe die Konsolengeneration. Die kaufen, kaufen und kaufen. Merken dabei nichtmal das es teilweise hart ruckelt. Naja.

Wenn Bekannte bei mir zum ersten Mal spielen, sind diese auch begeistert.
Sobald ich denen jedoch den Aufpreis im Vergleich zu einer Konsole nenne, kippen diese fast vom Stuhl.

Das hat weniger mit der heutigen Gesellschaft zu tun, als dass die Masse einfach "casual gamer" sind und das Geld lieber anderst investieren. Konsolen könnten heute für 599€ auch deutlich besser sein, wie sich das verkauft haben wir bei der Playstation 3 damals gesehen.

BTT: Ich beschwere mich erst, wenn ich in einem Großteil der Spiele die Texturen zurückschrauben muss. Und das auch erst, wenn es keine Option gibt eine Grafikkarte mit mehr VRAM zu kaufen.

Solange ich nur bei FF15 und ARK, was beides keine Spiele sind, in denen es sich mit der Grafikpracht erklären lässt, den Texturen Regler von "Ultra" auf "Very High" stellen muss, ist für mich die Welt noch in Ordnung.
 
  • Gefällt mir
Reaktionen: TheUngrateful und Pisaro
Pisaro schrieb:
@FCK-THIS Und da ist das Problem der heutigen Gesellschaft. Einfach das nehmen was da ist, ohne sich zu beschweren. Siehe die Konsolengeneration. Die kaufen, kaufen und kaufen. Merken dabei nichtmal das es teilweise hart ruckelt. Naja.
Was tun wenn Alternativen fehlen?

Zudem kann man gerade bei VRAM-Nutzung wohl kaum von fehlender Optimierung sprechen. Je mehr größere/hochauflösende Texturen man nutz, je höher die VRAM-Nutzung. Die Alternative wären blurred oder ständig wieder kehrende Texturen ...

Siehe Fallout 76: Gerade die Verwaschenheit der Texturen stört viele. Alternativ wäre halt doppelt so viel VRAM nötig ...
 
  • Gefällt mir
Reaktionen: TheUngrateful und Pisaro
FCK-THIS schrieb:
Weshalb wurden bei der Vega dann keine 12GB verbaut, obwohl bereits seit der R290X 8GB verbaut wurden?
Nach deinem Beispiel müsste dort auch mehr VRAM verbaut worden sein. Und erzähl uns jetzt nichts von HBCC :evillol:

Also ich weiß ja immer noch nicht so recht. Deine Scheinargumentationen hat doch hier mittlerweile jeder durchschaut. Das ist lächerliches Lederjockl-Gehabe was du hier an den Tag legst.

Viele hier erzählen das AMD keine High-End Produkte hat, aber du baust deine Argumentation darauf aus, dass Vega nur 8 GB hat ? Na und ? Die sind ja auch keine High-End GPU's, sondern maximal gehobene Mittelklasse.

Aber wieso HBCC kein Argument sein darf, aber RT bei den RTX Karten ist eins? HBCC sorgt aktiviert immerhin dafür, dass die Performance nicht fällt, auch wenn man mal mehr als 8 GB belegt hat. Dieses Argument ist aber keins, weil nVidia kein Gegenstück dazu parat hat ?

Eine 700 + € Karte mit 8 GB Vram die eine 1080 Ti mit 11 GB beerbt, wow.

PS: Es gab ja in den anderen Threads zu dieser Speicher-Thematik schon genügend Beispiele wo auch die 8 GB schon für Probleme sorgen. Auf YouTube und anderen Review Seiten gab es sogar Videos dazu, wie SotTR unter heftigsten Nachladerucklern litt, weil der Speicher vollgelaufen ist und das mit einer 700+ € Karte....ach hätte sie doch nur mal HBCC. :evillol:
 
  • Gefällt mir
Reaktionen: Zitterrochen, Chismon und Hatsune_Miku
floTTes schrieb:
Was tun wenn Alternativen fehlen?

Zudem kann man gerade bei VRAM-Nutzung wohl kaum von fehlender Optimierung sprechen. Je mehr größere/hochauflösende Texturen man nutz, je höher die VRAM-Nutzung. Die Alternative wären blurred oder ständig wieder kehrende Texturen ...

Dass es aktuell keine Alternativen gibt ist schade für die Preisentwicklung im Allgemeinen, mehr VRAM hätte uns AMD aber auch nicht gebracht, Spielestudios, die diese auch sinnvolll belegen, schon gleich 2 mal nicht.

Nein, Texturen werden immer komprimiert, ansonsten bräuchten wir bereits 32GB VRAM.
Manche Entwickler können das ganz gut, andere weniger.
Und Ark und FF15 sind nun wirklich keine guten Beispiele für hochauflösende Texturen ...
Ergänzung ()

Aldaric87 schrieb:
Also ich weiß ja immer noch nicht so recht. Deine Scheinargumentationen hat doch hier mittlerweile jeder durchschaut. Das ist lächerliches Lederjockl-Gehabe was du hier an den Tag legst.

Viele hier erzählen das AMD keine High-End Produkte hat, aber du baust deine Argumentation darauf aus, dass Vega nur 8 GB hat ? Na und ? Die sind ja auch keine High-End GPU's, sondern maximal gehobene Mittelklasse.

Aber wieso HBCC kein Argument sein darf, aber RT bei den RTX Karten ist eins? HBCC sorgt aktiviert immerhin dafür, dass die Performance nicht fällt, auch wenn man mal mehr als 8 GB belegt hat. Dieses Argument ist aber keins, weil nVidia kein Gegenstück dazu parat hat ?

Eine 700 + € Karte mit 8 GB Vram die eine 1080 Ti mit 11 GB beerbt, wow.

PS: Es gab ja in den anderen Threads zu dieser Speicher-Thematik schon genügend Beispiele wo auch die 8 GB schon für Probleme sorgen. Auf YouTube und anderen Review Seiten gab es sogar Videos dazu, wie SotTR unter heftigsten Nachladerucklern litt, weil der Speicher vollgelaufen ist und das mit einer 700+ € Karte....ach hätte sie doch nur mal HBCC. :evillol:

Was haben RT und HBCC miteinander zu tun? Ich dachte wir sprechen hier von VRAM?

HBCC ist nur eine Auslagerung in der Hauptspeicher, mit echtem VRAM hat das wenig zu tun.

Ich habe lediglich jemanden zitiert, der meinte Nvidia wäre ein "Drecksverein" da sie nur 8GB anbieten, nichts gegen deine Religion mein Freund ;)
 
@Aldaric87 : Bin da eigentlich bei dir, allerdings wird die 1080 TI von der RTX 2080 TI beerbt. Die RTX 2080 ist dann der Nachfolger der 1080. Wie zum Teufel kommt man darauf dass die 2080 der Nachfolger der 1080 Ti ist? GTX 1070 war auch nicht der Nachfolger der 980 TI, dass war die 1080 TI.

Zu AMD: Nun, bis jetzt hat AMD eigentlich in jeder Generation bis auf ein paar Ausnahmen mehr VRAM gebracht als NVidia.
 
  • Gefällt mir
Reaktionen: Zitterrochen und FCK-THIS
Status
Für weitere Antworten geschlossen.
Zurück
Oben