News GeForce RTX 3080 Ti: GPU-Foto und Screenshot machen heiß auf Mai

Laphonso schrieb:
Nein.
Und das angesprochene Video lief mit 3080 unter 1440p.
Dein Beispiel beweist, dass VRAM gerade nicht das Problem ist, sondern Godfall ist Godfail an der Stelle mit akuten Problemen, hardwareübergreifend.
Und schon wieder machst du den selben Fehler.
Die Texturen liegen in 4K vor, egal ob man auf 1440p herunterskaliert! Die müssen im Speicher liegen!
Dies ist nicht so wie früher, als es maximal nur HD-Texturen gab.

Godfall wird mit 12GB Empfehlung beworben.
https://wccftech.com/godfalls-4k-ultra-textures-on-pc-to-require-12gb-vram-says-dev/
Noch weitere Fragen? 😊
 
  • Gefällt mir
Reaktionen: ldos und iron_monkey
Ist ja auch vielleicht egal, wenn man in 1-2 Jahren sich die nächste Top-Grafikkarte kaufen möchte. Wenn man aber weiter als zwei Jahre denkt sind 8-12 GB einfach sehr wenig und die 16GB bei AMD deutlich zukunftsfähiger.
 
DarkerThanBlack schrieb:
Und schon wieder machst du den selben Fehler.
Die Texturen liegen in 4K vor, egal ob man auf 1440p herunterskaliert! Die müssen im Speicher liegen!
Dies ist nicht so wie früher, als es maximal nur HD-Texturen gab.

Godfall wird mit 12GB Empfehlung beworben.
https://wccftech.com/godfalls-4k-ultra-textures-on-pc-to-require-12gb-vram-says-dev/
Noch weitere Fragen? 😊
Du solltest einfach die neuen Artikel dazu mal zitieren, denn das Thema hat sich zerschlagen, und ich weiß nicht warum du auf alten Informationen rumreitest.
Godfall ist das Problem, nicht irgendwelche 4K Texturen oder Vram.
Und natürlich schiebt man schlecht Optimierung sehr gerne auf das VRAM. Bekannter Fallstrick.

„Speaking of textures, the game did not require more than 8GB of VRAM at 4K/Epic settings. So yeah, despite Counterplay’s claims, Godfall can run smoothly on GPUs that have 10GB of VRAM“
 
Dann hier noch etwas zum Nachlesen, wenn du schon nicht auf das hören möchtest, was ich schreibe.

Zitat:
Und 12 GB sind nicht nur besser als 6 GB, sie zeigen auch, dass 8 GB mit Raytracing heutzutage selbst in Full HD bei vollen Details nicht mehr ausreichend sind, und katapultieren die GeForce RTX 3060 in zwei Titeln sogar vor die GeForce RTX 3070 mit 8 GB.
Zitat ende:

Quelle:https://www.computerbase.de/2021-02/geforce-rtx-3060-asus-msi-test/5/#abschnitt_fazit

Noch weitere Fragen? 🤨
 
  • Gefällt mir
Reaktionen: iron_monkey, GERmaximus, lnnz und eine weitere Person
Meiner Meinung nach hätte dies die normale 3080 sein sollen, zumindest was den vram angeht. 2017 habe ich für weniger als die Hälfte eine 1070 mit 8gb bekommen. 2021 präsentiert Nvidia mir eine 3080 mit 10gb für 1000€ und nun eine 12gb Variante für 1200/1500 Finde ich extrem schade, dass die Kunden diese Preisspirale so mitgehen.
 
  • Gefällt mir
Reaktionen: Ayo34
Wenn ich daran denke, dass eine günstige 1070 im Jahre 2016 für unter 400€ schon 8GB RAM hatte, ist 8 - 12GB bei einer 3070ti/3080ti einfach (zu) wenig!

edit: zum gleichen Zeitpunkt der gleiche Gedanke :)
 
  • Gefällt mir
Reaktionen: Agba
DarkerThanBlack schrieb:
Dann hier noch etwas zum Nachlesen, wenn du schon nicht auf das hören möchtest, was ich schreibe.

Zitat:
Und 12 GB sind nicht nur besser als 6 GB, sie zeigen auch, dass 8 GB mit Raytracing heutzutage selbst in Full HD bei vollen Details nicht mehr ausreichend sind, und katapultieren die GeForce RTX 3060 in zwei Titeln sogar vor die GeForce RTX 3070 mit 8 GB.
Zitat ende:

Quelle:https://www.computerbase.de/2021-02/geforce-rtx-3060-asus-msi-test/5/#abschnitt_fazit

Noch weitere Fragen? 🤨
Ja, wie gehst Du damit um, dass Deine Aussage nonstop widerlegt wird? Auch da steht nix von 12 GB VRAM, was mein Punkt war.
Die 3080 ist kein Problem, die 10 GB VRAM auch nicht.
Was mein Punkt war.

Dein Godfall Beispiel taugt nichts für diese Debatte.
Was mein Punkt war ;)
Ergänzung ()

PS828 schrieb:
Sorry aber das überhaupt nichts mit den Sachen zutun welche ich angeführt habe
Weil sogar die Fachpresse beim Testen der 3080 die Q&A Aussage Nividas nicht widerlegen konnte, dass das VRAM usage (NICHT Allokation) sogar unter 4K im Rahmen von 4 GB bis 7 GB VRAM bei aktuellen Titeln liegt.

Die 10 GB GDDR6X samt Speicherbandbreiten Kombination der 3080 stellten sich bis dato als "non issue" heraus.

Wenn Du also die 1080Ti ins Feld führst mit VRAM Technik aus 2016 und 2017, dann haben diese "Sachen" etwas mit der Realität zu tun: Dem Usecase u.a. des Texturen Streamings, der swapping und der I/O Prozesse und sogar mit den Treibern

Die 1080 TI verreckt in jedem Test gegen eine 3080, und was genau nützen da jetzt 11 GB VRAM der vorletzten GPU Generation?
Genau. Nix.
 
Laphonso schrieb:
Godfall ist das Problem, nicht irgendwelche 4K Texturen oder Vram.

Leicht widersprechen möchte ich aber gerne. Godfall keine Ahnung, hab ich nicht. Jedoch habe ich andere Games, neuere aber auch ältere wie Skyrim und wenn ich bei letzterem NATIVE 4k Texturen per Mod installiere, steigt der VRAM Bedarf merkbar an, je mehr (native) 4k Texturen umso mehr VRAM, nicht umsonst kann man Skyrim, was offiziell 2 GB VRAM benötigt (out of the Box) auf bis zu 8 GB per Texturen und Grafik Mods hochpreschen. Selbiges bei GTA V (erwähne da gerne Natural Vision Evolved). Von daher wenn ein Game einmal native 4k Texturen bietet (ob Godfall das nun hat oder wie programmiert ist weiß ich nicht), steigt der VRAM Verbrauch merkbar - auch unter geringeren Auflösungen wie 4k. Textur und Grafik Mods zeigen das ja aktuell ja schon.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Laphonso schrieb:
Ja, wie gehst Du damit um, dass Deine Aussage nonstop widerlegt wird? Auch da steht nix von 12 GB VRAM, was mein Punkt war.
Die 3080 ist kein Problem, die 10 GB VRAM auch nicht.
Was mein Punkt war.
Von was wiederlegt? Träum mal schön weiter... 🙃
In meinem Zitat steht doch ganz klar für jeden zu lesen. 12GB sollten es mindestens Heute sein. Oder kannst du nicht lesen, weil du die Augen zu machst?
 
MMIX schrieb:
Leicht widersprechen möchte ich aber gerne. Godfall keine Ahnung, hab ich nicht. Jedoch habe ich andere Games, neuere aber auch ältere wie Skyrim und wenn ich bei letzterem NATIVE 4k Texturen per Mod installiere, steigt der VRAM Bedarf merkbar an, je mehr (native) 4k Texturen umso mehr VRAM, nicht umsonst kann man Skyrim, was offiziell 2 GB VRAM benötigt (out of the Box) auf bis zu 8 GB per Texturen und Grafik Mods hochpreschen. Selbiges bei GTA V (erwähne da gerne Natural Vision Evolved). Von daher wenn ein Game einmal native 4k Texturen bietet (ob Godfall das nun hat oder wie programmiert ist weiß ich nicht), steigt der VRAM Verbrauch merkbar - auch unter geringeren Auflösungen wie 4k. Textur und Grafik Mods zeigen das ja aktuell ja schon.
Ich pointierte das: Wir hatten bisher NULL Spiele und Tests in denen die 10 GB VRAM der 3080 als Problem oder Bremse deklariert worden sind. Weder bei Computerbase noch bei PCGH noch bei wcftech oder bei den Youtubern.
Das ist die Botschaft.

Und das stelle ich gegen die VRAM Hysterie :)
Ergänzung ()

DarkerThanBlack schrieb:
Von was wiederlegt? Träum mal schön weiter... 🙃
In meinem Zitat steht doch ganz klar für jeden zu lesen. 12GB sollten es mindestens Heute sein. Oder kannst du nicht lesen, weil du die Augen zu machst?
Ergibt sich aus nicht einem Test der 3080 und erst recht nicht aus DEINEM Youtube Beispiel, mit dem Du kurioserweise Deine eigene Sichtweise direkt widerlegt hast. ;-)
 
MMIX schrieb:
Von daher wenn ein Game einmal native 4k Texturen bietet (ob Godfall das nun hat oder wie programmiert ist weiß ich nicht), steigt der VRAM Verbrauch merkbar - auch unter geringeren Auflösungen wie 4k. Textur und Grafik Mods zeigen das ja aktuell ja schon.
Genau so ist es. Auch wenn es offenbar manchen nicht verstehen wollen.
Next-Gen nutzt native 4k-Texturen. Da sind 8GB-Speicher schon sehr sehr grenzwertig und sollten einfach nicht mehr verwendet werden.
Eine RTX3070ti mit 8GB-Speicher ist da wirklich unangebracht.
Ergänzung ()

Laphonso schrieb:
Ergibt sich aus nicht einem Test der 3080 und erst recht nicht aus DEINEM Youtube Beispiel, mit dem Du kurioserweise Deine eigene Sichtweise direkt widerlegt hast. ;-)
Wieviel Beweise brauchst du noch?
Ich kann dir noch ein paar Games aus YouTube heraussuchen, wo sich Streamer über Nachladeruckler beschweren. Resident Evil 3 z.B....
Aber hey. Sind ja alles Fakes. Richtig? 😊👍
 
DarkerThanBlack schrieb:
Wieviel Beweise brauchst du noch?
Ich kann dir noch ein paar Games aus YouTube heraussuchen, wo sich Streamer über Nachladeruckler beschweren. Resident Evil 3 z.B....
Aber hey. Sind ja alles Fakes. Richtig? 😊👍
Ich habe mit einem 5950x und einer 3090 und zwei M2, also dem nonplusultra aktueller Gamingtechnik ohne "Flaschenhals", auch in manchen Games "Ruckler", weil die miserabel optimiert sind.

Wer das nicht versteht, konstruiert dann halt Beispiele und schiebt das auf das VRAM einer 3080.
Ist klar.

Oder ist jetzt meine 3090 das Problem?! 😲🤔
Denn [insert 27 GB Skyrim Mod here] zeigt ja: nvidia hat hier geknausert 🤣

So nervig es ist, manche Games sind schlicht besch....eiden optimiert.
Ergänzung ()

DarkerThanBlack schrieb:
Resident Evil 3 z.B....
EInfach mal nicht Beispiele nehmen, die sofort bekannt werden durch grottenhafte Optimierung:

https://segmentnext.com/2020/04/03/resident-evil-3-remake-crashes-fix/

Man findet zu RE3 seitenweise performance und stutter Probleme. Spoiler: Liegt nicht am VRAM.
 
Zuletzt bearbeitet:
@Laphonso ich habe nie über gaming gesprochen. Liest du meine Beiträge überhaupt?
 
time-machine schrieb:
Das ist aber sehr spekulativ was du da schreibst @andr_gin
man kann nicht davon ausgehen einerseits das miner ihr komplett gefarmtes ether verkaufen um die hardwarekosten zu decken. Bei uns in Deutschland bist du bei ungefähr 50€ wenn du 24/7 laufen lässt.
Bleibt ein Gewinn von circa 150€ Im Moment und davon auszugehen jeder miner verkauft sofort all seine coins, ist reine Spekulation.
In anderen Ländern hast du noch mehr gewinn da der Strom günstiger ist.

andererseits schreibst du doch selbst das mining farmen profit generieren wollen und ihre treiber selbst schreiben.
Was hält die davon ab ihre treiber sofern sie gut sind weiter zu verkaufen? Dann hat Nvidia gar nichts gewonnen.

Die Nachfrage der cryptos steigt doch stetig, der bitcoin wäre lange weg gewesen nach dem crash 2017, er ist aber noch da stärker als zuvor. Das nun visa und musk und paypal auch in cryptos investieren zeigt doch das Potential da ist und an den Aktienmärkten einfach nicht mehr das große Geld verdient wird.

Deinen letzten Punkt, das die karte schrott ist nach 2 Jahren kann ich nicht unterschreiben, ne mining karte hat mit weniger lastspitzen zu kämpfen, als ne karte mit der du dauernd zockst und ständig zwischen idle/last warm/kalt wechseln muss.
Eine karte mit der du zockst geht dir eher kaputt als ne undervoltete 3080 mit der du 24/7 schürfst.
1.) Der Anteil von daheim geschürften Kryptowährungen geht gegen 0. Bei Bitcoin ist es gar nicht sinnvoll möglich, bei Ethereum ist es eine kleine Minderheit.
Die überwiegende Mehrheit sind milliardenschwere Unternehmen, die riesige Miningfarmen betreiben und diese haben Kosten, die sie decken müssen. In der ersten Phase sind das Anschaffungskosten für neue Hardware. Nvidia will für ihre Karten echtes Geld.

2.) Weil dieses BIOs und Treiber dann nur mehr zum minen geeignet ist. Da wird dann kein Spiel mehr vernünftig darauf laufen.

3.) Dass Kryptowährungen gerade steigen hat nichts mit Musk etc. zu tun. Das liegt daran, dass auf Grund der Pandemie alles andere so stark an Wert verloren hat und Investoren ihr Geld, das sie vorher vielleicht in Immobilienspekulationen angelegt hätten nun zum Teil in Kryptowährungen veranlagen. Dass der große Crash kommt weiß von denen jeder nur ist derzeit noch zum Großteil die Auffassung, dass es noch nicht so weit ist und man es wie bei jeder Blase vorher schafft den Schaden den privaten Kleinanlegern umzuhängen, die üblicherweise dann beginnen zu kaufen wenn es schon am Gipfel ist.

4.) Musk macht hier einfach seine mediale Bekanntheit zu Geld. Das Schema ist das: Er kauft ganz billig wertlosen Ramsch, dann twittert er "kommt kauft XY". Dann kaufen alle wie die wahnsinnigen, was den Kurs anheizt und weil das alle wissen wird gekauft (Selbsterfüllende Prophezeiung). Oben an der Spitze verkauft Musk wieder, streicht den Gewinn ein und wenn der Hype nachlässt fällt der Kurs wieder. Die Geschädigten sind dann die die ganz oben noch teuer gekauft haben weil sie das System nicht verstanden haben, wobei ich hier ehrlich gesagt auch wenig Mitleid habe weil wenn man vom Aktienmarkt nicht einmal die Grundzüge verstanden hat sollte man eben nicht mitmachen.

5.) Strom kostet dort wo die Miningfarmen stehen um die 2 Cent/KWh. Da wird keine 3080 schön niedrig auf 100 Watt betrieben. Die laufen alle auf Anschlag. Das mit dem Undervolten wird erst ein Thema nach dem Crash für die Karten, die man weiter laufen lässt.
 
Laphonso schrieb:
EInfach mal nicht Beispiele nehmen, die sofort bekannt werden durch grottenhafte Optimierung:

https://segmentnext.com/2020/04/03/resident-evil-3-remake-crashes-fix/

Man findet zu RE3 seitenweise performance und stutter Probleme. Spoiler: Liegt nicht am VRAM.
Zitat aus deinem Link:
For many players, their GPU’s VRAM could be causing micro stutters. If your graphics card has a total VRAM of 4GB, make sure to turn the settings down to avoid this issue.

Und das soll nun von dir ein Beweislink sein, für schlechte Optimierung? 🤪
Das Grafikkarten mit nur 4GB-Speicher Probleme machen, sollte wohl klar sein oder?
Bitte noch mehr solcher Beweise von dir. 😊👍
 
PS828 schrieb:
@Laphonso ich habe nie über gaming gesprochen. Liest du meine Beiträge überhaupt?
Wir sind hier im 3080TI Thread im kompletten Gamingkontext. Du listest GTX Karten auf. Die 1080Ti ist eine deklarierte GAMING Karte.
Du bist also unzufrieden, dass Gaming GPUs nicht Deinen VRAM Bedarf einer Arbeitskarte" decken. In einem 3080Ti Thread. Die fürs Gaming gebaut wird.

Na gut.
Ergänzung ()

DarkerThanBlack schrieb:
Zitat aus deinem Link:
For many players, their GPU’s VRAM could be causing micro stutters. If your graphics card has a total VRAM of 4GB, make sure to turn the settings down to avoid this issue.

Und das soll nun von dir ein Beweislink sein, für schlechte Optimierung? 🤪
Das Grafikkarten mit nur 4GB-Speicher Probleme machen, sollte wohl klar sein oder?
Bitte noch mehr solcher Beweise von dir. 😊👍

Vielleicht entscheidest Du Dich mal, bevor Du goalpost willkürlich verschiebst. DEIN Video referenzierte auf eine 3080 mit 10 GB VRAM in einem nicht optimierten Game, das hardwareübergreifend Probleme macht (Wie z.B. auch RE 3.). Das angeblich 12 GB VRAM "braucht". Was Unsinn war.


Du hast Du doch selbst widerlegt, was soll ICH Dir da noch "beweisen". Absurd, findest Du nicht? ;)
Eben.
Ergänzung ()

Übrigens witzig wie Du meiner Frage ausweichst bzgl meines Systems ;)
 
Zuletzt bearbeitet:
@Laphonso wer Redet denn davon dass eine Karte mit dieser Rechenpower nur fürs gaming taugen soll? Ampere zeichnet sich doch vor allem durch hohe Anwendungsleistung aus (was Sogar in jedem Test hervorgehoben wird)

Im gaming glänzt Ampere vor allem durch Auslastungsprobleme besonders bei kleineren Auflösungen.

Aber selbst in 4k.. noch nie gabs so wenig FPS für so viele TFLOPs.

Die 3080Ti ist da keine Ausnahme. Das ist weder OT noch irrelevant. Es ist ein Aspekt der beleuchtet und getestet wird.

Das tut den guten Features der Karten doch auch keinen Abbruch, aber je nach dem welche Anwendungen man hat spielt es halt doch eine Rolle zu Wissen was die Karte eben sonst so kann.

Und das ist ziemlich beeindruckend eben abseits der Tatsache dass Nvidia es sich hier durch die Bestückung selbst verbaut noch besser zu sein.
 
  • Gefällt mir
Reaktionen: Laphonso
Agba schrieb:
Meiner Meinung nach hätte dies die normale 3080 sein sollen, zumindest was den vram angeht. 2017 habe ich für weniger als die Hälfte eine 1070 mit 8gb bekommen. 2021 präsentiert Nvidia mir eine 3080 mit 10gb für 1000€ und nun eine 12gb Variante für 1200/1500 Finde ich extrem schade, dass die Kunden diese Preisspirale so mitgehen.
Wäre natürlich schön gewesen, aber an einem 320 bit Speicherinterface kann man nicht ohne weiteres 12 Chips mit je 32 bit verbauen. Technisch möglich müsste es sein, aber wird wahrscheinlich aus gutem Grund nicht getan.

Das heißt, NVidia hatte hier die Wahl zwischen mehreren schlechten Optionen:

1) Volles 384 bit Speicherinterface bei der 3080 und damit die Ausbeute vermindern
2) 20 GB Speicher verbauen, die eigentlich nur im Profibereich interessant sind
3) 10 GB Speicher verbauen
 
PS828 schrieb:
@Laphonso wer Redet denn davon dass eine Karte mit dieser Rechenpower nur fürs gaming taugen soll?
Da hast Du 100% Zustimmung, und der Mining Wahn kann ja also Argument genau dafür genutzt werden, dass gefühlt 80% aller Ampere Karten eben nicht fürs Gaming gekauft worden sind.

Aus den Prosumer Foren hatte ich entnommen, dass man die 3090 für "nur" 1500 Euro gefeiert hat, weil viele in ihren CAD/Blender/Design Apps nun keine Titan Preise mehr zahlen müssen (edit: sofern sie keine "Titan workflows + Profitreiber" benötigen) und 24 GB VRAM hier eine gute Brücke sind. Siehst Du das auch so oder anders?
 
@Laphonso die 3090 ist tatsächlich exzellent in allen Bereichen die man sich wünschen kann. Hier gibt's Sogar noch Luft für zwei Modelle mit shared VRAM und damit 48GB.

Das ist definitiv ein Fortschritt. Die noch stärkere A6000 im Vollausbau gibt's ja auch noch mit 48GB.

Das einzige was gaming Ampere fehlt wäre halt noch EEC VRAM welchen die Ampere Karten Haben. Das ist für Rechnungen wichtig damit man nicht Fehler verschleppt. Aber gut das gab's bei consumerkarten auch noch nie.

Letztlich ist es aber gut jetzt auch noch eine 3080Ti zu bringen da man so nicht jeden 3090er Chip dem nur ein paar SMs fehlen nicht gleich zu einer 3080 degradieren muss. Deshalb ist der Schritt schlüssig und mich würde nicht wundern wenn Nvidia schon seit release der 3090 Chips für die 3080Ti sammelt
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben