Test GeForce RTX 3080 Ti im Test: Vollgas bei der GPU, Sparflamme beim Speicher

Oneplusfan schrieb:
Dafür bringt der Infinity Chache so seine eigenen Problemchen mit (allen voran die geringe Größe, weshalb die Top End Nvidia Karten in 4k vergleichsweise gut gegen die Top End Karten von AMD abschneiden.
Merkt man Das bei den minFps, wenn man mal bei 270W vergleicht?
(Eher sind Reviews in 4k = Vergleiche zwischen Äpfel und Birnen bei unterschiedlich viel Watt.)

270W-Test ohne SAM: mit rBar/SAM ist normalerweise RDNA2 noch etwas besser als NV
 

Anhänge

  • 270W_minFps.JPG
    270W_minFps.JPG
    115,6 KB · Aufrufe: 295
DagdaMor schrieb:
dann solltest Du ggf mal einen Augenarzt Deines Vertrauens konsultieren :D;).
Nur nen gutgemeinter Tipp, bevor das noch schlimmer wird
Ich glaube dann hast du noch nie vernünftiges 4K gesehen :). Nicht nur Full HD ist das Problem, sondern für mich auch so ein Mini 24" Bildschirm. Keine Ahnung, da muss man ja 20cm davor sitzen damit man nicht die Wand bzw den Raum dahinter sieht :)

Noch dazu kommt das man bei Auflösungen höher als 1920x1080 auch vom Spiel selbst einfach mehr sieht. Da ist z.b. Titan Quest oder Grim Dawn (dienen nur als Beispiel) zu nennen. Man kann mit höherer Auflösung echt heftig rauszoomen. Full HD kommt mit mittlerweile sehr übertrieben ausgedrückt so vor wie damals mein Gameboy.
 
Zuletzt bearbeitet:
Seit ich meinen neuen 50 Zoll LG TV auch als Computerbildschirm nutze, und ich sitze ca. 1 Meter davon entfernt, will ich nie wieder auf 1080p zurück.^^

4k macht schon Spass, auch wenn es beim PC leider eine Nischenauflösung ist.

Aktuell freue ich mich auf das PS5 Update von FF 7 Remake, und den Yuffie DLC.
Und das Erste was ich einstellen werde ist 4k. ^^
 
  • Gefällt mir
Reaktionen: Pisaro
matty2580 schrieb:
4k macht schon Spass, auch wenn es beim PC leider eine Nischenauflösung ist.

Warum ist 4K am PC eine Nieschenauflösung? Wenn du 4K hast kannst du doch am PC jedes Spiel in 4K spielen?
 
Laut Steam wird 4k beim PC kaum genutzt, ist damit also (noch) eine Nische.

Pisaro schrieb:
Wenn du 4K hast kannst du doch am PC jedes Spiel in 4K spielen?
Ich habe erst jetzt gesehen, dass du noch etwas ergänzt hast.
Mein PC ist mit 4770k und GTX 580 schon sehr alt.
4k kann ich nur für den Desktop einstellen, aber für Games nicht.
Wenn es irgendwann einmal, in ferner Zeit, wieder normale Grafikkartenpreise gibt, wird sich dass hoffentlich bei mir ändern.

Für einen EU-Renter auf Hartz IV Niveau sind die aktuellen Preise, selbst gebraucht, einfach nur noch utopisch. Aber so ergeht es ja auch vielen Anderen hier im Forum, und ich stehe mit meinem "Problem" absolut nicht allein da.

Dafür kann meine PS5 aber in einigen Games 4k, was ich auch intensiv nutze. ^^
 
Zuletzt bearbeitet von einem Moderator:
DagdaMor schrieb:
Ich kenne ja noch 640x480, 800x600 und 1024x768.
DAS ist heutzutage Pixelmatsch.

Ich habe diese Woche mal wieder "Indiana Jones and the Fate of Atlantis" in 320x200 durchgespielt und viel Spaß damit gehabt.
Letzten Monat "Labyrinth" (Lucasfilm Games) auf dem C64-Emulator in glorreichen 160x200. Und ein paar SNES-Spiele auf der Switch in 256x224.
 
  • Gefällt mir
Reaktionen: DagdaMor, -Stealth-, foo_1337 und eine weitere Person
Bruder_Joe schrieb:
Wurde doch durch den Infinity Cache mehr als nur ausgeglichen, das ist auch einer der Gründe für den viel niedrigeren Energiebedarf, weil man das Interfaceproblem mit dem Cache umgangen hat.
Die 384-bit sehen ja nur auf den ersten Blick besser aus...
Anhang anzeigen 1088117

Der Infinity-Cache ist schön und gut, ist mit 128MB bzw. 96MB jetzt aber schon zu klein. Wenn er voll ist bricht die Performance im Gegensatz zu einer Karte ein, die ohne Zwischencache auskommen muss ein. Bei den großen Karten von AMD ist das der Grund warum die Performance in UHD im Vergleich stärker einbricht.
Ergänzung ()

DagdaMor schrieb:
27 kommt irgendwann mal, aber eher unnütz mMn.
Wenn Du meinst das diese Monitorgröße(n) Mini ist/sind oder das FHD/WQHD Pixelmatsch ist,
dann solltest Du ggf mal einen Augenarzt Deines Vertrauens konsultieren :D;).
Nur nen gutgemeinter Tipp, bevor das noch schlimmer wird :p

Du kannst gerne auch wieder auf einen Fernseher mit 712*584, 60hz und in 55-70cm Diagonale wechseln. Damals gab es viele, die LCDs mit HD Ready als unnütz angesehen haben, danach war Full-HD unnütz, größer als 37 Zoll macht kein Sinn, größer als 55 Zoll macht kein Sinn, UHD macht keinen Sinn, OLED ist eh nur Mist, 120hz braucht keiner etc. Glaub mir, wenn Du einmal UHD hattest wirst Du keine geringere Auflösung auf dem Monitor haben wollen, hast Du mehr als 60 Hz genossen nimmst Du nie wieder weniger.

Ich empfinde 24 Zoll und 1080p durchaus auch als Pixelmatsch und würde das maximal zum Zocken im Notfall nutzen. Daran arbeiten oder im netz surfen würde ich nicht mehr wollen.
Ergänzung ()

matty2580 schrieb:
Seit ich meinen neuen 50 Zoll LG TV auch als Computerbildschirm nutze, und ich sitze ca. 1 Meter davon entfernt, will ich nie wieder auf 1080p zurück.^^

Wobei Du in 50 Zoll mit 1m Abstand gegenüber 24 Zoll mit 60-70cm Abstand nichts gewinnst außer die Größe des Bildschirms und effektiv mehr Arbeitsfläche. Um beim Zocken zu profitieren müsstest Du eher um die 2 Meter davon entfernt sitzen, ansonsten ist das Pixelraster zu nah am Auge und der Effekt verpufft. Einen 50 Zoll Monitor könnte ich mir nur mit 8K vorstellen.
Ergänzung ()

matty2580 schrieb:
Mein PC ist mit 4770k und GTX 580 schon sehr alt.
4k kann ich nur für den Desktop einstellen, aber für Games nicht.

Die GTX 580 unterstützt doch maximal nur 2560x1600 als Ausgabe oder hast Du DSR dazugeschaltet? dann wäre das Bild auf dem Desktop aber wahrscheinlich ziemlich weichgewaschen. Oder meinst Du die RX 580 von AMD, damit gehen einige ältere Spiele (bis ca. 2014) durchaus auch in 4K gut zu spielen.
 
Zuletzt bearbeitet:
sethdiabolos schrieb:
Der Infinity-Cache ist schön und gut, ist mit 128MB bzw. 96MB jetzt aber schon zu klein. Wenn er voll ist bricht die Performance im Gegensatz zu einer Karte ein, die ohne Zwischencache auskommen muss ein. Bei den großen Karten von AMD ist das der Grund warum die Performance in UHD im Vergleich stärker einbricht.
NO

siehe weiter oben in Post#761
Bei gleichen W ist RDNA2 sogar schneller als Ampere. (minFps ohne Einbrüche)
(4k scheint noch ausreichend gut zu funzen mit dem IFC)
 
  • Gefällt mir
Reaktionen: Pro_Bro
GerryB schrieb:
NO

siehe weiter oben in Post#761
Bei gleichen W ist RDNA2 sogar schneller als Ampere. (minFps ohne Einbrüche)
(4k scheint noch ausreichend gut zu funzen mit dem IFC)


In 4K greift es imo noch nicht so, weil an sich auch noch keine Next-Gen-Titel auf dem Markt sind. Es wird sich in Zukunft zeigen müssen. In 8K kann man es jetzt schon beobachten, wo eine 6900XT gegenüber einer 3090 verliert und das teils um fast 50% (FS 2020). Das liegt dann aber nicht nur am Infinity Cache, die Leistung bricht ja effektiv nur auf ein 256bit Interface ein. Schnell ist die Karte ja trotzdem. Lassen wir uns überraschen, der Cache wird bestimmt auch bei Nvidia Einzug halten zzgl. dem breiteren Interface, VRAM-Ausstattung wird sich in der nächsten Gen bei Nvidia u.U. verdoppeln (da endlich ausreichend 2GB GDDR6X-Chips da sind), rBar ist dann Standard und DLSS bzw. FSR sowie RTX haben dann auch beide Hersteller. Noch ein Jahr, bis die neuen Karten angekündigt werden könnten, bei verlängertem Zyklus noch min. 2 Jahre.

 
Keine Ahnung auf welcher Grundlage immer diskutiert wird aber zumindest die AMD haben seit Release gut an Performance gewonnen.,jedenfalls mehr als bei NV was ich beobachten konnte .Werden die Test z.B. jetzt wie bei der 3080ti eigentlich geupt,also mit neuesten Chipsatz und Grafiktreibern bei AMD oder nimmt man die Werte von vor paar Monaten?
 
  • Gefällt mir
Reaktionen: CptBabossa
Wer kauft denn ne 6900 für 8k ?
Da fehlt dann doch Rohleistung.(wie FSR ausschaut muss man abwarten .. bitte kein Diskusssion jetzt)

Immer wird ein Käse für Vergleiche herangezogen, würde eher schauen wo viel Vram@4k benötigt wird.


Godfall nutzt @4k mit RT+HDR schon gut Vram.


Kann leider nur Bilder mit RT only oder HDR only für Ampere zeigen:
(RT+HDR wird dann evtl. noch mehr Vram nutzen)
 

Anhänge

  • Godfall_HDR.jpg
    Godfall_HDR.jpg
    473,3 KB · Aufrufe: 272
  • Godfall RT ohne HDR.jpg
    Godfall RT ohne HDR.jpg
    329,8 KB · Aufrufe: 266
Zuletzt bearbeitet:
Tornavida schrieb:
Keine Ahnung auf welcher Grundlage immer diskutiert wird aber zumindest die AMD haben seit Release gut an Performance gewonnen.,jedenfalls mehr als bei NV was ich beobachten konnte .Werden die Test z.B. jetzt wie bei der 3080ti eigentlich geupt,also mit neuesten Chipsatz und Grafiktreibern bei AMD oder nimmt man die Werte von vor paar Monaten?

Dem kann ich nur zustimmen. Versteh daher nicht wie man noch auf nvidia aktuell setzen kann. Sobald ich eine 6800XT bekomme, bin auch weg vom nvidia Lager nach über 20 Jahren.

Nehmen wir mal als Beispiel The Division 2 :

Beim Release war meine 2080 RTX schneller als eine RX5700.

Mittweile stinkt meine Karte sowas von ab.

Ich dümpel bei Ultra auf 2k mit 60 FPS rum, während mein RX5700 Kollege mittweile mich um 40 FPS schlägt da er stabile 100 FPS bekommt.

Zeigt ja wer sich mehr um seine vorhandene Kundschaft kümmert.

Jedenfalls wird es bei mir keine nvidia mehr und schonmal gar nicht bei dem Stromverbrauch.

LG
 
  • Gefällt mir
Reaktionen: Pro_Bro
matty2580 schrieb:
Seit ich meinen neuen 50 Zoll LG TV auch als Computerbildschirm nutze, und ich sitze ca. 1 Meter davon entfernt, will ich nie wieder auf 1080p zurück.^^

4k macht schon Spass, auch wenn es beim PC leider eine Nischenauflösung ist.

Aktuell freue ich mich auf das PS5 Update von FF 7 Remake, und den Yuffie DLC.
Und das Erste was ich einstellen werde ist 4k. ^^
50" bei UHD ergibt ja weniger (88) ppi als 24" mit FHD, da hast du ja sogar einen Rückschritt gemacht, zumal du so nah davor sitzt^^
Hauptsache 4k 🙈
 
Robert. schrieb:
IMHO kann man auf die aktuellen Grafikkartengeneration komplett scheissen (sorry für das Wort...)

Solang die Preise nicht halbwegs in UVP nähe sind, macht das keinen Sinn. Und wenn sie in UVP Nähe kommen, sind die Nachfolger bereits in den Startlöchern. Ich würde selbst, wenn ich eine Graka bräuchte, lieber auf RDNA3 bzw. RTX 4xxx warten.

Lächerlich, Preise von 1900€+ ...
Das lese ich hier öfters. Einfach warten bis sich der Markt beruhigt oder auf die nächste Generation warten. Das Mining der Kryptos selbst hat doch überhaupt keine Begrenzung ? Solange Menschen in Kryptos investieren wird unsere Halbleitertechnik dafür missbraucht werden. Der Treibstoff war immer Spekulation und jetzt kommt die Angst vor der Inflation hinzu. Den Hardwareherstellern dürfte es ziemlich egal sein und den Spieleherstellern erst recht. Sie verdienen doch wesentlich mehr Geld wenn jeder einzelne Gamer nicht mehr in der Lage ist seine Spiele lokal zuhause zu berechnen und zwecks bezahlbarer Alternativen auf deren Cloud zugreifen müssen. Wäre das zweite nicht auch Umweltfreundlicher ? Keine Ahnung. Noch bin ich nicht bereit mich in die Stadiacloud zu begeben aber bald wird auch meine RX 480 über den Jordan springen und mir bleibt nichts mehr anderes übrig oder ich lege ordentlich Geld auf den Tisch. Das wäre kein Problem aber ist es das noch wert ? Ich denke auch die Konsolenpreise werden früher oder später auch nach oben ziehen weil Sony/Microsoft noch günstige Verträge vor Jahren abschließen konnte.
 
matty2580 schrieb:
Seit ich meinen neuen 50 Zoll LG TV auch als Computerbildschirm nutze, und ich sitze ca. 1 Meter davon entfernt, will ich nie wieder auf 1080p zurück.^^

4k macht schon Spass,

Wobei die Pixeldichte auf die Fläche gerechnet ungefähr gleich bleibt, eher sogar noch schlechter is, bei 50" 4k vs. einem stinknormalen 24" 1080p Monitor.

23.jpg


Also zu der Zeit, zu der ich auf 4k gehe, werd' ich wahrscheinlich eher eine Größe von etwa 30" wählen.

Das wären dann knapp 150 ppi vs. meinen jetzigen knapp 92.

edit:

24.jpg


Aber wenn ich auf 4k wechsel', brauch ich nicht nur ne 3080Ti, oder 3090, da mir die zu langsam dafür sind, sondern eher ne 5090. ;)
Hat noch Zeit. 2025 vielleicht.

Eine 3080Ti wäre mir definitiv zu langsam für 4k.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -Stealth- und Pro_Bro
Hallo,

ich rede mal jetzt von mir. Ich komme so langsam raus aus dem Alter wo der PC mir wichtig war. Sollten die Preise so hoch bleiben, wird der Computer ganz einfach abgeschafft.

Es gibt genug andere Sachen die man machen kann.

LG
 
Mir reicht 28". ... Man kann ja auch mal seinen Sitzabstand an den Moni anpassen.
 

Anhänge

  • 4K@28_PPI.PNG
    4K@28_PPI.PNG
    9 KB · Aufrufe: 255
ChrisMK72 schrieb:
Wobei die Pixeldichte auf die Fläche gerechnet ungefähr gleich bleibt, eher sogar noch schlechter is, bei 50" 4k vs. einem stinknormalen 24" 1080p Monitor.

Aber wenn ich auf 4k wechsel', brauch ich nicht nur ne 3080Ti, oder 3090, da mir die zu langsam dafür sind, sondern eher ne 5090. ;)
Hat noch Zeit. 2025 vielleicht.

Eine 3080Ti wäre mir definitiv zu langsam für 4k.
Habe im Freundeskreis selbst jemanden der die ganze Zeit von 4K redet (4k, 4k, 4k so geil^^) aber sogar nur mit 82 ppi, da 55", spielt und relativ nah davor sitzt, habe dem das jetzt nach 2 Jahren oder so mal vorsichtig erklärt damit das aufhört^^. Manche checken das leider gar nicht mit der Pixeldichte und noch schlimmer merken das nicht mal, da sieht man mal was Marketing ausmacht^^.

Spiele lieber QHD mit vielen FPS mit der 6900XT, als UHD mit 70 FPS in zum Beispiel Gears5. Wenn es das Spiel hergibt halt intern auf UHD rendern, bei Warzone zum Beispiel gehen ja auch UHD ~140 FPS, aber die Anforderungen sind hier auch sehr niedrig.
Bei der nächsten oder übernächsten Generation ist das aber ne Überlegung, wenn man UHD auch easy 144 FPS schafft, ohne die Regler nach links zu schieben. Mir ist die 6900XT dafür auch noch zu langsam.
 
  • Gefällt mir
Reaktionen: ChrisMK72
Zurück
Oben