Test GeForce RTX 3080 Ti im Test: Vollgas bei der GPU, Sparflamme beim Speicher

Cohen schrieb:
Ich habe diese Woche mal wieder "Indiana Jones and the Fate of Atlantis" in 320x200 durchgespielt und viel Spaß damit gehabt.
Letzten Monat "Labyrinth" (Lucasfilm Games) auf dem C64-Emulator in glorreichen 160x200. Und ein paar SNES-Spiele auf der Switch in 256x224.
Genau so.
Habe neulich "Flight of the Amazon Queen" und auch "Indy Fate of Atlantis" gespielt
und es hat richtig Spass gemacht :daumen:

Mir persönlich macht ja eine geringe Auflösung bei kultigen Games nichts aus.
Wollte ja nur darauf hinaus, dass für die 4K-Enthusiasten (Fetischisten ?)
alle Auflösungen unter 4K "Schrott" ist.
 
sethdiabolos schrieb:
Du kannst gerne auch wieder auf einen Fernseher mit 712*584, 60hz und in 55-70cm Diagonale wechseln. Damals gab es viele, die LCDs mit HD Ready als unnütz angesehen haben, danach war Full-HD unnütz, größer als 37 Zoll macht kein Sinn, größer als 55 Zoll macht kein Sinn, UHD macht keinen Sinn, OLED ist eh nur Mist, 120hz braucht keiner etc. Glaub mir, wenn Du einmal UHD hattest wirst Du keine geringere Auflösung auf dem Monitor haben wollen, hast Du mehr als 60 Hz genossen nimmst Du nie wieder weniger.

Ich empfinde 24 Zoll und 1080p durchaus auch als Pixelmatsch und würde das maximal zum Zocken im Notfall nutzen. Daran arbeiten oder im netz surfen würde ich nicht mehr wollen.
HD-Ready war schon immer unnütz. Das sehe ich so.
Und zum kleineren alten Röhren-TV möchte ich auch nicht mehr zurück :D.

Das mit der Auflösung, Grösse etc. kommt wahrscheinlich auch darauf an
wie nah man am PC sitzt.

Ich arbeite und zocke im Abstand von max. 80 cm.
Da kann ich mit viel grösseren Monitoren nix anfangen.
Bekomme ich ja garnicht mehr alles mit auf dem Schirm :lol:.

Habe auch schon mal meinen PC am TV ("leider" nur 40 Zoll und FHD :heul:;))
laufen lassen zum zocken.
Finde ich aber persönlich extremst anstrengend und hat mir nicht
so richtig Freude gemacht.

Muss halt jeder sehen was er braucht und unterschiedliche Ansprüche sind ja normal.
 
Da muss man schon Downsampling nutzen. (kann ja dafür das normale AA reduzieren)
Gerade bei alten Games ist Downsampling Nicer als 8x MSAA)
 
  • Gefällt mir
Reaktionen: 0ssi
DagdaMor schrieb:
HD-Ready war schon immer unnütz. Das sehe ich so.

HD-Ready war für Xbox 360 und PS3 ideal. Mehr als 720p wurde bei den meisten Spielen eh nicht angeboten und 1280x720p sah um Welten besser aus als PAL- oder NTSC-Auflösung.

Einige DVD-Spieler hatten auch HDMI-Anschlüsse und recht gute Scaler, so dass DVDs per HDMI 720p besser aussahen als über analoge Signale.
 
Zuletzt bearbeitet:
orlof schrieb:
Wären die AMD-Karten nicht so stark, hätte Nvidia den Leistungsabstand der 3080 zur 3090 bestimmt größer gewählt. Dann hätte die TI auch besser dazwischen gepasst. So ist die TI einfach nur komisch.
Das ist keine neue Karte, die zwischen der 3080 und 3090 angesiedelt ist,
das ist einfach nur eine 3090 mit nur halb bestücktem Speicher und etwas Alibi Abzügen damit nicht exakt die gleiche Leistung der 3090 rauskommt.

Ich bleibe bei der Meinung das eine 3080 mit doppeltem Speicher (20GB), die für Spieler bessere Wahl gewesen wäre.

Der (Spiele-)Leistungsunterschied zwischen den drei Karten ist nicht so riesig. Letztlich hat sich schon vorher die 3090 nur über den großen Speicher definiert.

Bei der 3080ti ist der Aufpreis für, absolut gesehen, immer noch wenig Speicher nicht passend. Karten die UVP über 1000€ kosten sollten dem Kunden gegenüber keine Kompromisse eingehen. Ich finde die Karte überzeugt einfach nicht.
 
  • Gefällt mir
Reaktionen: puppy123, ChrisMK72 und matty2580
/singn

Und mit deiner Meinung stehst du ja bei Weitem nicht allein da.
Fast 80% der 800 Posts in dem Thread hier sind deiner Meinung......
Die 3080ti und 3070ti sind absolut unnütze GPUs, die die Welt nicht braucht......

ps: Und es wäre sehr unklug von der Redaktion, wenn sie die Masse der User beim Test der 3070ti weiter ignoriert, wirklich sehr unklug......
 
matty2580 schrieb:
/singn

Und mit deiner Meinung stehst du ja bei Weitem nicht allein da.
Fast 80% der 800 Posts in dem Thread hier sind deiner Meinung......
Selektive Wahrnehmung. Wenn du in einer Shisha Bar 30 Leute fragst, wie sie zu Wasserpfeifen stehen, wirst du vermutlich eine andere Antwort bekommen als wenn du in der Fußgängerzone 30 random Personen fragst.
matty2580 schrieb:
ps: Und es wäre sehr unklug von der Redaktion, wenn sie die Masse der User beim Test der 3070ti weiter ignoriert, wirklich sehr unklug......
Die (aus meiner Sicht kluge) Redaktion wird schon das richtige machen und nicht auf deine tollen Ratschläge reagieren. Die Verkaufszahlen der 3070 (und voraussichtlich auch der Ti) sprechen für sich.
 
matty2580 schrieb:
Die 3080ti und 3070ti sind absolut unnütze GPUs, die die Welt nicht braucht......

Oh da hat "die Welt" dich aber eines besseren belehrt.

Ganz klar, die 3070ti und 3080ti sind Cashgrabs von Nvidia, damit man die Chips nicht weiter stutzen muss und günstiger als 3080 oder 3070 verkauft.

Aber sie werden hervorragend vom Markt angenommen, also macht es überhaupt keinen Sinn, etwas anderes auf den Markt zu werfen. Wenns die Leute kaufen, sind sie selber Schuld.

Ganz ehrlich, ich hätte die Karte an Nvidias stelle für 200$ mehr auf den Markt geworfen, es hätte keinen Unterschied gemacht. Und Preise senken kann man hinterher immer noch.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße und foo_1337
OK...., um mit einer Metapher zu antworten, weil millionen Lemminge über die Klippe springen, soll ich jetzt hinterher springen.....
Und um deine nächste Frage gleich zu beantworten, dass werde ich auch zukünftig nicht machen....

Aber ich habe mich angepasst an den aktuellen Markt, und spiele jetzt lieber mit einer PS5, die ich völlig problemlos seit Release bei Amazon gekauft habe, plus modernen 4k TV für 649€ bei Otto, schon im November letzten Jahres.

Und anders als viele PC-ler genieße ich echtes 4k seit letztem Jahr.....
https://www.gamepro.de/artikel/ps5-spiele-4k-und-60-fps,3360087.html
https://www.psu.com/news/guide-ps5-...ry-ps4-ps5-game-with-enhanced-graphics-modes/
https://thenewstrace.com/all-ps5-games-that-can-be-played-at-60-fps-and-4k/133561/

Also spielt ihr lieber in Full HD oder WQHD weiter, während ich echtes Next Gen spiele in 4k, HDR, und auf einem relativ großen TV......

Und laut Steam ist 4k nach wie vor eine absolute Nische beim PC, und wird es in nächster Zeit auch bleiben.....
 
Zuletzt bearbeitet von einem Moderator:
Langsam nervt das PS5 Gelaber. Muss das denn in jedem Thread sein? Wir wissen, wie super zufrieden du damit bist.
 
  • Gefällt mir
Reaktionen: HEADZOTS und Oneplusfan
GerryB schrieb:
Natürlich wird gerade bei max Fps das Powerlimit entscheidend,
Hat überhaupt Einer von Euch schon mal gebenched?
Was hat das eine mit dem anderen zu tun?
Du siehst es ja auch an der 6700XT, dass sie wegen des Cashes in 4K gegenüber der 3070/2080Ti um 6% einbricht, obwohl sie mehr Speicher hat.
Das Powerlimit ist hier völlig egal, das verändert sich nicht und bleibt über alle Auflösungen gleich hoch.

In dem Video wird das Thema Bandbreite behandelt.

GerryB schrieb:
Setz mal das PL auf +15 und schau Dir den Unterschied an = 255Wx1,15=293W+47Rest =340W@6900ref,
Was immer noch 10W weniger wäre als bei der 3080Ti FE.
OC hat mit dem Thema null zu tun.
 
Cohen schrieb:
HD-Ready war für Xbox 360 und PS3 ideal. Mehr als 720p wurde bei den meisten Spielen eh nicht angeboten und 1280x720p sah um Welten besser aus als PAL- oder NTSC-Auflösung.

Einige DVD-Spieler hatten auch HDMI-Anschlüsse und recht gute Scaler, so dass DVDs per HDMI 720p besser aussahen als über analoge Signale.
Ok. Falsch ausgedrückt.
Am TV habe ich HD-Ready immer als sinnfrei empfunden.
 
Ich muss sagen, Nvidia kann all ihre aktuellen Karten gerne behalten, was mich angeht.

Wenn ich mir eine Grafikkarte in einem Preisbereich von über 700€ kaufe (gemeint ist jeweils die UPE, nicht der aktuelle Straßenpreis), dann habe ich gewisse Erwartungen in pucto langer Nutzbarkeit.

Mit dieser stoisch demonstrierten Einsparung im VRAM Bereich über alle Kartenserien hinweg erreicht man es, dass die Karten viel schneller unbrauchbar werden als nötig. Der Kunde wird schneller gezwungen, neu zu kaufen, und zurück bleibt mehr Elektroschrott. Aber für die Einnahmen von Nvidia natürlich nicht schlecht.

Spieler, die gerne gemoddete Spiele spielen, stoßen schon heute längst an die Grenzen von 8, 10 und jetzt 12 GB VRAM.

Und wenn ich mir eine Karte für 1200€ kaufe, erwarte ich - sagen wir bei 4k 60Hz - eine Brauchbarkeit von mindestens 8 Jahren (mit zwischenzeitlicher Reduktion der Details von Ultra -> Very High -> High), bevor ich auf "mittel" lande und mich nach einer neuen Karte umsehe. Für 720€ erwarte ich selbiges bei (U)WQHD 144 Hz.

Ich sehe das weder für 1200€ mit 12 GB VRAM für 4K 60Hz noch für 720€ mit 10 GB VRAM für (U)WQHD 144 Hz gegeben. Vielmehr ist meine Vermutung, dass den Grakas schon bedeutend früher, nach 3-5 Jahren, die Puste ausgeht.

Und darin sehe ich die Strategie Nvidias, seine Kunden abzuzocken. Betriebswissenschaftlich formuliert nennt man so etwas eine versteckte Preiserhöhung. Und zwar eine, die mit solcher Vehemenz betrieben wird, dass es einem schon aus den Augen springt! Richtig dreist gemacht und doch begreift es kaum einer.

Ich hatte die letzten 15 Jahre nur Nvidia Karten und konnte mich nie über mangelnde Haltbarkeit oder dergleichen beschweren. Ein Fanboy des anderen Teams bin ich nicht. Aber Nvidia hat bei mir erstmal so richtig verschissen. Dieser unerträgliche Speichergeiz zu Lasten der Kunden, zu Lasten der Umwelt und nur zur Profitmaximierung geht mir gegen den Strich.

Und das sage ich, der ich selbst Unternehmer bin.
 
Zuletzt bearbeitet:
Dominion schrieb:
Betriebswissenschaftlich formuliert nennt man so etwas eine versteckte Preiserhöhung.
Also erstens gab es eine mehr oder weniger offene Preiserhöhung in den letzten Jahren und zweitens würde ich weder sagen, dass NVidia jemals wirklich spendabel mit Speicher war, noch, dass die Karten immer sonderlich gut gealtert sind.

8 Jahre? Bei relativ geringer Reduktion der Details? Das ist selbst angesichts einer verlangsamten Entwicklung sehr optimistisch, Speicher hin oder her, egal für wieviel Geld auch immer.

Eine GTX780Ti oder eine Titan hat vielleicht noch 20-25% Leistung einer 3080, moderne Funktionen mal außen vorgelassen. Und selbst die damals üppigen 6GB der Titan sind heute eher lächerlich.

Ja der Speicher der Karten könnte größer sein, Nachhaltigkeit schön und gut.
Aber die wenigsten Enthusiasten, die bereit sind, sich Highendkarten zu holen, werden damit 4-5 Generationen lang weiter spielen.
Da wird eher auf das nächste Modell upgegradet, vielleicht läßt man auch mal eine Generation aus, als Details zu sehr runterzuschrauben oder gar eine niedrige Auflösung/Framerate zu akzeptieren.

Preis/Leistung kann man immer kritisch betrachten und als mündiger Bürger auch mit Nichtkauf quittieren.

Aber zumindestens gefühlt, wird hier ein ziemliches Luxusproblem aufgebauscht, dass dann für viele effektiv doch nicht wirklich relevant werden dürfte und den Verkaufszahlen nach auch nicht ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BatCatDog, Cohen und Tornavida
Dominion schrieb:
Mit dieser stoisch demonstrierten Einsparung im VRAM Bereich über alle Kartenserien hinweg erreicht man es, dass die Karten viel schneller unbrauchbar werden als nötig. Der Kunde wird schneller gezwungen, neu zu kaufen, und zurück bleibt mehr Elektroschrott.
Also wenn deine Signatur noch aktuell ist, bist du über die gesamte letzte Konsolengeneration mit einer 4-GB-Grafikkarte ausgekommen (davon 3,5 GB schnell angebunden).

Mit PS5 und Xbox Series X wurde die Performance gegenüber der PS4 + Xbox One vervielfacht (von Xbox One zu Series X fast verzehnfacht, von PS4 auf PS5 mindestens verfünffacht), die Speicherausstattung nach 7 Jahren aber lediglich verdoppelt (von Xbox One auf Series S sogar nur um 25% gesteigert).

Warum sollte in den nächsten Jahren Grafikkarten mit 8 - 10 GB VRAM unbrauchbar werden, wenn 99% der "Triple-A-Spiele" Multiplattformentwicklungen sind, die auch auf PS5, Series X und in vielen Fällen sogar Series S (10 GB Unified RAM) laufen müssen?

Zum "Neukauf gezwungen" werden dann höchstens die Leute, die bei der Texturstufe immer die höchste Einstellung haben müssen, egal ob der optische Mehrwert zur zweithöchsten (oder sogar dritthöchsten) Einstellung verschwindend gering ist.

Mich würde mal ein Blindtest interessieren, in denen die Tester VRAM-lastige Spiele in den drei höchsten Texturstufen vorgesetzt bekommen (z. B. very high / extreme / insane/psycho/can-it-run-crysis, restliche Einstellungen natürlich identisch) und sie die Texturstufe benennen sollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex und M-7MkF7-D
matty2580 schrieb:
Also spielt ihr lieber in Full HD oder WQHD weiter, während ich echtes Next Gen spiele in 4k, HDR, und auf einem relativ großen TV......
Geiles Next Gen mit 60fps und lass mich raten 60Hz TV? Dann noch monatlich bezahlen für eine Playstation + Mitgliedschaft nur um online zu zocken? Dann noch diese popeligen Controller mit denen man keine Shooter spielen kann ohne Crossplay auszustellen weil man sonst von den bösen PC'lern auf den Sack bekommt? Keine Freiheit alle Spiele spielen zu können die man will, sondern nur das was auf PS5 released wird? Keine Möglichkeit Third Party Programme wie Teamspeak oder Discord zu nutzen? Während dem zocken auf nem zweiten Screen einen Stream schauen oder im Browser surfen?

Ne sorry da bleib ich lieber PC'ler mit 144Hz auf FullHD und verheize Konsolenspieler der Reihe nach in Crossplay Titeln.

------

Noch was zum eigentlichen Thread: Ich bin durchaus bereit für eine Ti der neusten Generation bis 999€ zu bezahlen, alles dadrüber ist einfach nur noch frech. Damals hab ich ne GeForce 4 Ti 4200 für 400DM bekommen...
 
FeeLX1337 schrieb:
Ne sorry da bleib ich lieber PC'ler mit 144Hz auf FullHD und verheize Konsolenspieler der Reihe nach in Crossplay Titeln.
Hoppla, das musst Du mir beibringen, in Warzone werde ich immer kräftig von den Konsoleros nach Strich und Faden verprügelt, Movement (& AutoAim) ist bei denen echt klasse! Lässt mich manchmal doch wünschen, eine der "leicht verfügbaren" PS5 erwischt zu haben ;-)

BTT: Ich hätte mir durch die 3080TI am liebsten eine leichte Entspannung der Marktsituation gewünscht. Schade, dass sich alle bösen Vorahnungen zu bewahrheiten scheinen und wir bis 22 und länger auf dem Trockenen sitzen werden.
Auf Bots & Tricks beim Kartenkauf habe ich überhaupt keine Lust.
 
FeeLX1337 schrieb:
Geiles Next Gen mit 60fps und lass mich raten 60Hz TV?

Ne sorry da bleib ich lieber PC'ler mit 144Hz auf FullHD und verheize Konsolenspieler der Reihe nach in Crossplay Titeln.

------

Noch was zum eigentlichen Thread: Ich bin durchaus bereit für eine Ti der neusten Generation bis 999€ zu bezahlen, alles dadrüber ist einfach nur noch frech. Damals hab ich ne GeForce 4 Ti 4200 für 400DM bekommen...
Obwohl das ja hier zuvor schon diskutiert wurde, haben es die letzten tv Spieler immernoch nicht gerafft, uhd+55“ = 82 ppi = FHD+27“ und das in nem Technik Forum. Von 60hz/FPS Begrenzung mal abgesehen. 🙈
Konsole bleibt immer ein Kompromiss, mittelmäßige Leistung zu günstigem Preis, aber dafür zocken ohne sich mit Technik auseinandersetzen zu müssen.

Hatte auch ne 4200 damals, schon übel wie hart sich der Wert des Geldes verringert hat.
 
  • Gefällt mir
Reaktionen: Cyberbernd
Bekommen für 1.799, Palit. Geht doch.

Die 2.500+ für die 3090 sind mir ein bisschen viel gewesen, die knapp 2000 für eine 3080 auch. Aber die Preise für die 3080ti sind - ausgehend vom UVP der Partnerkarte - deutlich humaner als bei der 3080, die ich schon immer gerne gehabt hätte.

Ich vermute, das liegt dann doch auch an LHR, denn ohne ETH-Mining muss man das Geld für die Karte erst einmal wirklich nackt auf den Tisch legen.
 
Zurück
Oben