News GeForce RTX 3080 Ti und 3070 Ti: Ampere-Grafikkarten sollen am 1. Juni vorgestellt werden

0ssi schrieb:
Um es auf den Punkt zu bringen: Eine RTX4080 mit 12GB wäre um Welten besser als eine RTX3090 mit 24GB.
Die Aussage ergibt in dem Fall leider überhaupt keinen Sinn.

Denn, dass eine RTX 4080 von der Rohleistung und Performance vor einer RTX 3090 aus der Vorgängergeneration landen wird ist nur logisch.

Ob 12 GB RAM aber auch in 2022/23 noch reichen werden steht in den Sternen.

Zum Thema 60 fps vs 120 fps: Wenn ein Spiel sauber und ohne Ausreißer bei den Frametimes mit fixen 60 fps auf einem Monitor mit 120 Hz läuft, läuft es absolut flüssig.

Selbst absolute Profis liegen da im Blindtest zu 50% daneben und können 120 nicht von 60 fps unterscheiden. Aber das muss jeder für sich selbst wissen.

Spätestens wenn man eine GPU wie die 3080 oder 3090 dann auch mal als Compute-GPU einsetzt, sind 8, 10 und 12 GB ganz schnell [zu] knapp bemessen.

Aber es spricht ja nichts dagegen mit 8, 10 oder 12 GB zufrieden zu sein. Jeder kann mit seinem Geld machen was er mag.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, A.Xander und matty2580
Irgendwie ist das süß, du versucht egal wie stark der Strom gegen dich fließt, die Unbelehrbaren zu überzeugen wie wichtig viel VRAM ist.

Viel besser als sinnlose Diskussionen ist aber ein eigener Test von euch dazu. ^^
 
Zuletzt bearbeitet von einem Moderator:
SV3N schrieb:
Selbst absolute Profis liegen da im Blindtest zu 50% daneben und können 120 nicht von 60 fps unterscheiden.
Eine kuriose Aussage denn wer sich an 100FPS+ gewöhnt hat für den sind 60FPS eine Ruckelorgie
aber wie gesagt, man hat halt unterschiedlich Ansprüche. Ich habe lieber mehr FPS als mehr VRam.
 
  • Gefällt mir
Reaktionen: ALDeeN1982
0ssi schrieb:
Eine kuriose Aussage denn wer sich an 100FPS+ gewöhnt hat für den sind 60FPS eine Ruckelorgie
Das ist keine kuriose Aussage, so funktioniert das Auge halt, da lässt die Biologie des menschlichen Auges keinen Spielraum für gefühlte Wahrnehmung. Ganz im Gegensatz zu Werbung und Konsum.
Du kannst es auch nicht, wenn man dich einem Blindtest unterzieht bist du nicht in der Lage den Unterschied zu erkennen.

Jake Grafton schrieb:
wirklich genug VRAM (der einzige Grund sich was anderes zu kaufen) ist immer noch nicht da, außer bei der 3090.
naja 12GB sind gerade ausreichend für die Leistungsklasse der 3070 und 6700XT, ist also schon alles da und verfügbar, aber halt nicht von Nvidia. ;)
Beim spielen wird der Ram einfach mit Daten gefüllt wenn genug Ram da ist. (siehe Bild 5,5gb sind gefordert HZD nimmt sich 11gb). Benötigt werden sie aber nicht um ruckelfrei zu spielen.
vram horizon.jpg
Meiner 6700XT geht bei CP 2077 auf 4K mit RT ultra nicht der Ram aus, allerdings fehlt der GPU da natürlich Dampf. Ist ja auch keine 4k Karte. Auf UWQHD ist noch alles entspannt.
Wie gesagt eine halbwegs kundenorientierte Firma hätte die FE´s der Karten wie die Ti´s releast und jetzt die Ti´s mit wesentlich mehr Ram rausgehauen. Mal sehen wie unverschämt Nvidia die Kunden abmelkt.
Ich bin gespannt wann die 30.. Super Duper Proper Ti´s mit angemessenem RAM und mit automatisch rückwarts in den PCI-e Slot einparkfunktion kommen.

matty2580 schrieb:
Hier geht es also nicht darum das Lineup sinnvoll auszubauen, sondern um Veräpplung der Endkunden, und Gewinnmaximierung.
So sieht es aus, Business as usual. Wenn man nicht verar.... werden will muss man sich vorher umfassend informieren und wissen was man will/braucht.
Ist aber immer so egal ob Staubsauger, Waschmaschine, TV oder Grafikkarte.
Wer darauf reinfällt ist es halt selber schuld, die meisten merken es eh nie.
 
Nein, es fängt schon bei den Lebensmitteln an, wo wir ständig seit Jahrzehnten veräppelt werden....

In der "Marktwirtschaft", die übrigens eine "Erfindung" der CDU ist, ist es üblich die Endkunden zu veräppeln, so extrem dass kaum noch Jemand durch sieht was echt ist. Niemand ist zuzumuten da noch einen Durchblick zu haben. Das kann ein einzelner Bürger bei der begrenzten Zeit pro Tag gar nicht mehr schaffen sich selbst in allen relevanten Bereichen zu informieren.....

Die Schuld liegt hier also bei der Politik, die seit Jahrzehnten völlig versagt ihre Bürger zu schützen.....
 
Zuletzt bearbeitet von einem Moderator:
Naja ich sehe das ganze etwas anders, der mündige Bürger kann da schon viel selber ändern, für viele kommt es einfach nicht in Frage ihre Komfortzone zu verlassen und so lässt sich dann auch nichts ändern.
Und wenn es nur ne Mail ist die man zb Aldi schickt um sich über ihre Fake Bioprodukte zu beschweren oder ähnliches. Aktiv werden hilft da schon. Das jetzt nur der Marktwirtschaft und der Politik in die Schuhe zu schieben finde ich jetzt echt zu einfach.
Allerdings ist das hier im Thread nicht nur OT, das CB-Forum ist für solche Themen auch nicht der richtige Ort.
Daher gibt es dazu nicht mehr von mir als meine fuffzig Cent.
 
Als Bürger müsste ich jeden Tag Stunden damit verbringen mich über Produkte zu informieren die ich regelmäßig benutze, und nach passenden Alternativen zu suchen.

Das kann doch nicht im Ernst normal für dich sein. :(

Nein, hier ist die Politik gefordert.
Welche andere Gruppe kann da sonst helfen?
Und die Politik wirbt ja damit, dass sie das angeblich macht, und versagt trotzdem seit Jahrzehnten.
Hier einmal zwei Bsp. aus dem Bereich Lebensmittel dazu:

 
Zuletzt bearbeitet von einem Moderator:
matty2580 schrieb:
Das kann doch nicht im Ernst normal für dich sein. :(
abgesehen von meiner Quali als Ex-Koch und Ex-LM Techniker und der damit erworbenem Allmacht jede Zutatenliste wie Superman zu durchleuchten (leider nur noch mit Clark Kent Brille :D) habe ich hier schon von einer Komfortzone zu einer anderen gewechselt und kaufe so wenig wie möglich davon und koche selber mit unverarbeiteten Lebensmitteln. Wurst und Fleisch sowie Brot und Brötchen gibt es eh in besserer Qualität beim Handwerksfleischer und Bäcker.
Mein Gemüse/Asiawarenhändler hat auch wesentlich regionalere und frischere Ware direkt vom Großmarkt.
Damit zeigst du der LM Industrie den Mittelfinger, weil du nichts mehr von denen kaufst, wenn du dann noch andere dazu motivierst, es dir gleich zu tun, wozu brauchst du dann noch die Lobbyknutscher aus der Politik.
Ein entspannteres Leben hast du auch weil du dir eine nervende Tätigkeit vom Hals schaffst und relaxter einkaufen kannst.

Um zurück zum Thema zu kommen ich muss leider meine Aussage revidieren
A.Xander schrieb:
Meiner 6700XT geht bei CP 2077 auf 4K mit RT ultra nicht doch der Ram aus,
es war zwar ein hochschrauben auf RT Psycho nötig bei 4k (3840x2160) um eine Auslagerung in den SYS Ram zu erzwingen, aber bei 4096x2160 war es dann eindeutig mit deutlichen Anstieg um 3 GB SysRam auf 14gb statt vorher 11gb. Aber naja ist halt schon etwas extrem, blieben noch 6 fps übrig.:heul:
 
A.Xander schrieb:
Das ist keine kuriose Aussage, so funktioniert das Auge halt, da lässt die Biologie des menschlichen Auges keinen Spielraum für gefühlte Wahrnehmung. Ganz im Gegensatz zu Werbung und Konsum.
Du kannst es auch nicht, wenn man dich einem Blindtest unterzieht bist du nicht in der Lage den Unterschied zu erkennen.
Da bist du aber gewaltig auf dem Holzweg denn das menschliche Auge dürfte in der Lage sein 1000 FPS
wahrzunehmen und im direkten Vergleich ist es ein Kinderspiel den Unterschied zwischen 60 und 120FPS
zu erkennen. Auch 120 gegen 240FPS ist für uns kein Problem solange das Panel schnell genug dafür ist.
denn auf einem langsamen VA Panel wird der Vorteil von mehr FPS quasi durch Motion Blur verschmiert.
 
0ssi schrieb:
Da bist du aber gewaltig auf dem Holzweg denn das menschliche Auge dürfte in der Lage sein 1000 FPS
wahrzunehmen
Es soll möglich sein im peripheren Sichtfeld bis zu 500 Bilder pro Sekunde wahrzunehmen, mit einer tatsächlichen Bildwahrnehmung hat es aber gar nichts mehr zu tun, sondern man erkennt bestenfalls Lichtreflexe. Als ich jung war konnte ich noch 60Hz Flackern erkennen, wenn ich am Monitor vorbei geschaut habe, aber etwa 75Hz war es dann für mich nicht mehr möglich.

Die Behauptung man könnte noch zwischen 120Hz und 240Hz unterscheiden, halte ich für ein Märchen, von dem bestenfalls Hersteller entsprechender Monitore profitieren.
 
Zuletzt bearbeitet:
Also ich sehe auf meinem 240Hz Monitor einen Unterschied zwischen 120 und 240 FPS obwohl er
einer der langsamsten VA ist, sprich auf IPS oder TN ist der Unterscheid deutlich besser sichtbar.

In wie fern LCD aufgrund seiner technischen Limitierung der Panel Reaktionszeit bei 360Hz oder
zukünftig 480Hz einen Vorteil liefert wird sich zeigen aber ich befürchte dazu braucht man OLED.
 
Das wäre aber unfair weil ich habe ja offensichtlich gentechnisch modifizierte High FPS Augen. :freaky:
 
Erinnert mich son bisschen an die Blindtests, bei denen suggeriert wird, dass Flasche a ganz teures Wasser enthält und Flasche b das Billige, woraufhin die meisten der Meinung waren, dass Wasser a besser schmeckt. Am Ende war in jeder Flasche natürliches das Gleiche, billige drin. Long story short - dein Hirn kann dich ganz gut verarschen. Deswegen sind Blindtests bei solchen Aussagen unabdingbar, um zu argumentieren, dass man selbst ja direkt den Unterschied bemerkt.
 
  • Gefällt mir
Reaktionen: A.Xander
0ssi schrieb:
Da bist du aber gewaltig auf dem Holzweg denn das menschliche Auge dürfte in der Lage sein 1000 FPS
wahrzunehmen
Nope kann es nicht. Wurde ja schon erklärt von @xexex.
0ssi schrieb:
Also ich sehe auf meinem 240Hz Monitor einen Unterschied zwischen 120 und 240 FPS
Den siehst du nicht den fühlst du. Was ein Blindtest ist scheint dir nicht bewusst zu sein. Damit wird man sich halt bewusst was wirklich nötig ist und was einfach nur der Beeinflussung von aussen geschuldet ist.
wenn man nicht gerade zu den besten Competive Spielern gehört die ausreichend viel trainieren, ist es halt einfach nur unnötig. Teuer High fps zu betreiben und Triple A auf 240fps zu spielen bringt es nun gar nicht, sieht ja dann aus wie Grütze aufgrund der mangelnden Details, da nützt es nur insofern dass das Elend gefühlt schneller vorbei ist, bevor der wachsende Augenkrebs zu Erblindung führt. ;)
Aber naja so hat jeder seine eigene Welt, ich mag meine lieber mit mehr Details und weniger gefühltem High Speed.
 
PTS schrieb:
wer kauft sich bitte eine 3080 für fullhd oder nur wqhd? das ergibt gar keinen sinn was du schreibst. so eine karte holt man sich eher für 4k etc.
Nein, für 4K sollte es schon eine RTX 3090 sein. Für WQHD die RTX 3080 und auch da bekommt man den VRAM ohne Probleme voll. Wobei es da auch sicher ganz und gar auf das Spiel ankommt. Fakt ist, ich bekomme auf meiner RTX3070 ohne Probleme unter WQHD den Speicher voll bzw. sollte der VRAM ja idealerweise eh nur bis 80% befüllt werden, um unnötiges Auslagern zu vermeiden. In manchen Spielen (glaube bei CoD BO CW) kann man den Zielgrad der VRAM Auslastung auch einstellen.
 
Zuletzt bearbeitet:
BorstiNumberOne schrieb:
Nein, für 4K sollte es schon eine RTX 3090 sein. Für WQHD die RTX 3080 und auch da bekommt man den VRAM ohne Probleme voll. Wobei es da auch sicher ganz und gar auf das Spiel ankommt. Fakt ist, ich bekomme auf meiner RTX3070 ohne Probleme unter WQHD den Speicher voll bzw. sollte der VRAM ja idealerweise eh nur bis 80% befüllt werden, um unnötiges Auslagern zu vermeiden. In manchen Spielen (glaube bei CoD BO CW) kann man den Zielgrad der VRAM Auslastung auch einstellen.
also ich habe eine 3440x1440er auflösung mit 144hz und gsync, lustigerweise habe ich "nur" eine 1070gtx und selbst diese reicht für alle spiele die ich spiele auf ultra details mit der nativen auflösung(ausser cyberpunk).
Daher sage ich dir reicht eine 3080 auch für 4k aus ;) - selbst Cyberpunk funktioniert in 4K mit DLSS und ray tracing auf ultra.

wozu also eine 3090 in 4k? Sehe hier kein Spiel was die Masse spielt wo man dies bräuchte.
Vor allem ist eine 3090/Titan für nen Gamer komplett overpowered, das mal dazu gesagt.
 
PTS schrieb:
also ich habe eine 3440x1440er auflösung mit 144hz und gsync, lustigerweise habe ich "nur" eine 1070gtx und selbst diese reicht für alle spiele die ich spiele auf ultra details mit der nativen auflösung(ausser cyberpunk).
Daher sage ich dir reicht eine 3080 auch für 4k aus ;) - selbst Cyberpunk funktioniert in 4K mit DLSS und ray tracing auf ultra.

wozu also eine 3090 in 4k? Sehe hier kein Spiel was die Masse spielt wo man dies bräuchte.
Vor allem ist eine 3090/Titan für nen Gamer komplett overpowered, das mal dazu gesagt.

Sorry, das zeig mal bitte mit ingame Screenshots, weil bei mir lief es mit dem 8700K und der 1080 spielbar, aber nicht gut. Erst mit meiner RTX 3070 konnte ich auf Ultra mit DLSS auf Qualität, aber ohne RT gehen. Dann hatte ich mit dem 8700K in 98% der Fälle 60fps.
Und glaube mir, es läuft nicht mit allen Details auf 4K mit einer RTX 3080 immer flüssig. Zwei Freunde von mir haben eine RTX 3090 und das zieht in 4K mit allen Details, DLSS auf Qualität und RT on und da dropt es gern mal. Einer spielt mit 32“ WQHD und der andere mit 4K. Der letztere hat extra Tests gelesen, dass es wohl mit allen Details, RT on und unter 4K usw. sogar durch einen Achtkerner limitiert wird. Deshalb haben beide auch einen R9 5900X und einen i9 10850K. Und unter 4K bekommt man ohne Probleme bei einigen Spielen die 80% der 10 GB VRAM voll.

Achja: Ein anderer Freund hat es mit i7 4770K und GTX1070 gespielt und da hatte er bei Low-Mid Detail in WQHD so um die 35fps. Ich vermute mal, dass sie noch einiges am Spiel optimiert haben und je nach Hardware an Details im Spiel begrenzt wird. Wir hatten damals alle noch Version 1.04 gespielt und da waren unsere Erfahrungen auch denen hier im Forum gleich. Das war aber vor einem halben Jahr.
 
Zuletzt bearbeitet:
lynx007 schrieb:
Falls ja hat das sowieso Comicgrafik und zieht meistens nur deshalb Leistung weil die Engine leider einfach Müll ist....

Fotorelismus war gestern... leider...
Würde mich sehr über neue Spiele mit realgrafik und unrealengine freuen. Für Polygonarme und Texturschonde Comicgrafik brauvcht man echt keine 3080ti

Aber entweder ist die Grafik rotze... oder es ist ein für Casuals konzepierter Grafikblender der mich auch nicht mehr wirklich vor den PC locken kann

lynx007 schrieb:
 
A.Xander schrieb:
Den siehst du nicht den fühlst du.
Den Unterschied von 120FPS@240Hz und 240FPS@240Hz sieht man deutlich weil das Bild flüssiger ist
aber wie gesagt braucht man dazu ein schnelles Panel denn sonst bringt Motion Blur zu viel Unschärfe.

Lediglich fühlen aber nicht sehen tut man den Unterschied von 120FPS@120Hz und 240FPS@120Hz
weil mehr FPS zwar den Input Lag verringern aber ohne mehr Hz nicht gesehen werden können. ;)
 
Zurück
Oben