VR- der allgemeine Diskussions-Thread für alles

Ne, brauchen wird er die auch nicht, es sei denn man kann absolut nicht damit leben einen Regler nicht ganz auf Anschlag zu haben.
Ich hoffe zudem, dass sich direct storage (bei Nvidia RTX IO) auch auf den Bedarf an Grafikkartenspeicher auswirkt.
Wenn der VRAM nämlich nicht mehr sämtliche Texturen, sondern nur noch die aktuell gerade wirklich benötigten speichert, dann sollten 10 GB mehr als ausreichend bleiben, auch zukünftig.
Aktuell müssen ja immer die gesamten Texturen eines Levels in den VRAM geladen werden, da die Bandbreite mit der Daten in den VRAM geschrieben werden nicht groß genug ist um das quasi "on the run" zu machen. Ist der VRAM voll und müssen Texturen nachgeladen werden, dann sacken die FPS ab.
Durch Direct Storage müssen Texturen aber nicht mehr erst durch den (verhältnismäßig) langsamen RAM um zum VRAM zu kommen, sondern die Daten werden direkt von der SSD in den VRAM geschrieben.
 
  • Gefällt mir
Reaktionen: branhalor
cleric.de schrieb:
Wenn ich mir bei einer brandneuen Grafikkarte, die momentan ca. 800 Euro aufwärts kostet, schon hier und jetzt die Frage stellen muss, ob die 10GB reichen bzw. wie lange, dann läuft irgendwas falsch.
Einerseits hast Du Recht 👍

Auf der anderen Seite wiederum ist bspw. ne High-End-GraKa wie die 3090 mit 24 GB in meinen Augen noch maßlos übertrieben - ich kann mir ehrlich gesagt derzeit kein Szenario vorstellen, in dem ein Spiel selbst in 5K oder 3x 4K verteilt über drei Bildschirme bis zu 24 GB schluckt - außer, der Gamer hat die Details dann auf medium oder gar lowest Setting runtergestellt und/oder gibt sich mit ner Ruckelorgie zufrieden, weil der Rest des Systems und die GPU selbst nicht mehr hinterherkommen. Und falls doch, betrifft das vielleicht wirklich nur 1% der Anwendungsfälle bzw. Käufer.

Maximal um die 12-16 GB sind, meiner Einschätzung nach, die nächsten zwei bis drei Jahre noch locker ausreichend, und viele, die sich heute ne High-End-Karte kaufen, behalten die eh nicht länger als drei, max. vier Jahre, in aller Regel, wenn überhaupt so lange. Bis dahin fließt dann wieder viel Wasser den Berg runter. Auch in punkto der übrigen GraKa-Technologien und -Geschwindigkeit: Was nutzt mich ne Karte, die vielleicht für die nächsten sechs Jahre genug VRAM hat, aber in zwei oder drei Jahren Raytracing, VR und andere Dinge nen Sprung gemacht haben, weswegen ich trotzdem wieder wechseln müßte... wenig ... ;)

Von daher ist die Diskussion darüber, ob 10 GB ausreichend sind oder nicht - bei aller Grenzwertigkeit - irgendwo auch marketing-/medien-/konsumgetrieben und typisch dafür, daß wir in unserer heutigen Gesellschaft alle dem (Irr)Glauben erliegen, mehr sei zwangsläufig immer und "alternativlos" ;) besser und müßte daher unter allen Umständen immer zwingend sein. Klar gibt's Aspekte, wo das richtig ist - aber nicht zwangsläufig immer "alles" und "in jedem Fall immer" - mit Maß an den richtigen Stellen, dort dann auch volle Pulle - aber alles darüber hinaus ist einfach nur ineffizient.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Erzi73
branhalor schrieb:
Auf der anderen Seite wiederum ist bspw. ne High-End-GraKa wie die 3090 mit 24 GB in meinen Augen noch maßlos übertrieben
Ich kann ja nichts für NVIDIAs komisches Produktportfolio.

Ich gehe da relativ rational nach Preis/Leistung. Wenn die 1080 Ti mit 11GB vor über 3 Jahren mit 699 US-Dollar Highend war und mir NVIDIA im Jahre 2020 eine Grafikarte, die im Produktportfolio im gleichen Segment platziert ist und offiziell die gleiche UVP hat, mit 10GB vor die Nase hält, dann sag ich persönlich -> nicht mit mir.

Gleichzeitig schaut man sich mal an, wie die Spiele-Installationen in den letzten Jahren vor allem aufgrund immer aufwendigerer Grafik explodiert sind. Dann empfinde ich eine Highend-Karte 2020, die weniger Speicher hat als eine Highend-Grafikkarte 2017, ehrlich gesagt als unzureichend.

Bei wem natürlich das Geld locker sitzt und wer mit so einer Grafikkarte eh nur bis zur nächsten GPU-Generation plant, der mag damit kurzfristig glücklich werden. Aber für mich ist das wie gesagt nichts.
 
  • Gefällt mir
Reaktionen: branhalor
@cleric.de
Da hast Du unbestritten Recht.
Ich hatte bei meiner Argumentation in der Tat auch mehr die Stimmen im Hinterkopf, die sofort auf 20 oder 24 GB hinauswollten und wo ich mich wirklich frage, womit man die in den nächsten zwei oder wahrscheinlich auch vier Jahren ausschöpfen will - auch, wenn der Speicherbedarf sowohl an RAM als auch Festplatte/SSD ordentlich angestiegen ist, hat das schon so wenigstens fünf sechs Jahre gedauert, wenn ich so zurückblicke.

Aber in der Tat hätte ich der 3080 auch wenigstens die 11 der 2080 Ti oder sogar 12 spendiert.
So gesehen ist die Produkt- bzw. VRAM-Politik von NVidia ziemlich unlogisch.
Aber da bekommt man den Hals wahrscheinlich nicht voll und sagt sich, daß man die 3080 Ti mit mehr VRAM dann in ein paar Monaten zu nem nochmal leicht höheren Preis auch gut verkauft bekommt.

Bei wem natürlich das Geld locker sitzt und wer mit so einer Grafikkarte eh nur bis zur nächsten GPU-Generation plant, der mag damit kurzfristig glücklich werden. Aber für mich ist das wie gesagt nichts.
Ja, so hab ich auch 20 Jahre lang gedacht - bis ich die Büchse der VR-Pandora geöffnet habe - seitdem fahre ich permanent am Leistungsmaximum 😂 Das wird, befürchte ich, auch noch etliche Kartengenerationen lang so bleiben. Da ist dann die einzige Frage, ob die 800-1000 € je nach Karte für rund 20% Leistungszuwachs "lohnen" oder nicht - aber groß mit Reserve planen oder so geht da schlicht (noch) nicht - was an da Leistung da ist, wird sofort gebraucht und umgesetzt.
 
cleric.de schrieb:
Wenn ich mir bei einer brandneuen Grafikkarte, die momentan ca. 800 Euro aufwärts kostet, schon hier und jetzt die Frage stellen muss, ob die 10GB reichen bzw. wie lange, dann läuft irgendwas falsch.
Danke fürs Zurechtrücken der Maßstäbe.
Ergänzung ()

pitu schrieb:
zudem ruckelt deren Seite auf meinem betagten IpadAir durch die tausenden Werbebanner.
In den Suchtreffern auf google haben die sich offenbar auf die ersten PLätze gekauft. Andere Seiten, die eigenhändig testen und sich die primäre Arbeit machen, landen irgendwo auf den hinteren Plätzen. So sollte das nicht sein.
 
Nvidia hat sich die 10GB ja nicht einfach frei ausgedacht, das hängt vom Speicherinterface ab. Es wären nur 10gb oder 20gb möglich.
 
  • Gefällt mir
Reaktionen: MrChronos
Theoretisch ja. Praktisch ist alleine die jetzige 3080 nicht lieferbar und da der Performanceunterschied aktuell bei +- 0% liegen würde wäre das ziemlich schwer zu vermarkten.
 
  • Gefällt mir
Reaktionen: MrChronos
Zudem wo preislich ansetzen? 999 USD? Dann kannibalisiert sie die 3090, die hätte dann nämlich wirklich nur noch 5-10% Mehrleistung + 4 GB mehr VRAM für 500 USD mehr.
1.199? Dann hätte es einen Aufschrei gegeben, wie Nvidia für 10GB mehr VRAM 500 USD Aufpreis verlangen kann.
Und dann ist da ja noch AMD der konkurriert.
 
Cleric.de hat dazu das Nötige geschrieben. Ich will mich bei highend zu highend-Preisen nicht damit vertrösten wollen, daß der knappe Speicher "aktuell" reicht. Ich respektiere das, wenn Leute das Beste wollen und nicht so auf den Preis gucken und auch von gen zu gen bzw von Mondpreis zu Mondpreis hoppen, aber es gibt noch andere Leute, die das nicht mitmachen wollen und für highend-Preise auch highend-Specs haben wollen, die die vorige gen nicht noch unterbieten.
 
  • Gefällt mir
Reaktionen: Cleric
kellerbach schrieb:
aber es gibt noch andere Leute, die das nicht mitmachen wollen und für highend-Preise auch highend-Specs haben wollen, die die vorige gen nicht noch unterbieten.
aber hatte die vorherige Generation nicht "nur" 8GB RAM ?
was meinst mit unterbieten..
die hat ja jetzt eh 10GB und somit mehr, nicht weniger
 
  • Gefällt mir
Reaktionen: branhalor
Scho richtig, ich vergleiche hier ti mit non ti, aber ich nehme mir das quasi heraus wegen der Preise, auch wenn nvidia da diesmal vielleicht nich für kann. Meine Perspektive ist die Endverbraucher-Preisleistungsperspektive. Ich will für saftige 800 Euro nicht weniger, sondern mehr Speicher habe, wenn ich von meiner vorvorigen 1080ti wechsele.
 
Kraeuterbutter schrieb:
aber hatte die vorherige Generation nicht "nur" 8GB RAM ?
was meinst mit unterbieten..
die hat ja jetzt eh 10GB und somit mehr, nicht weniger
Jepp, das ging mir zwischenzeitlich nämlich auch noch durch den Kopf.
Die 3080 folgt erstmal nur auf die 2080, nicht auf die 2080 Ti.
 
Kraeuterbutter schrieb:
die hat ja jetzt eh 10GB und somit mehr, nicht weniger
Ich mache mir mal einen Vergleich aus einem anderen Forum zu eigen. Bzw. das wurde vermutlich schon überall rauf- und runtergebetet.

2080 hat die Leistung einer 1080 Ti, bietet aber weniger Speicher.
3070 hat die Leistung einer 2080 Ti, bietet aber weniger Speicher.
3080 soll das "Flagschiff" sein, bietet aber weniger Speicher als eine 1080 Ti und eine 2080 Ti.

Das nennt man dann Fortschritt.

Entweder brauche ich für eine bestimmte Leistungsklasse den passenden Speicherausbau oder nicht. Solche Rückschritte seh ich angesichts der über Jahre gestiegenen Preise nicht mehr ein. Mittelklasse ist ab 500 Euro aufwärts? :rolleyes:

branhalor schrieb:
Jepp, das ging mir zwischenzeitlich nämlich auch noch durch den Kopf.
Die 3080 folgt erstmal nur auf die 2080, nicht auf die 2080 Ti.
Sorry, aber das ist NVIDIAs Marketing-Sprech, weil sie vor allem damals den Vergleich 2080 zur 1080 Ti nicht haben wollten. Dann wäre das Downgrade zu sehr aufgefallen.

Denn der Vergleich passt halt perfekt.

2080 = Leistung der 1080 Ti = gleiche UVP von 699 US-Dollar

Nur dass die 2080 mit weniger Speicher auskommen musste.

Gamersnexus hat sich damals freundlich darüber aufgeregt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: surtic, Mr. Rift und kellerbach
kellerbach schrieb:
Scho richtig, ich vergleiche hier ti mit non ti, aber ich nehme mir das quasi heraus wegen der Preise, auch wenn nvidia da diesmal vielleicht nich für kann. Meine Perspektive ist die Endverbraucher-Preisleistungsperspektive. Ich will für saftige 800 Euro nicht weniger, sondern mehr Speicher habe, wenn ich von meiner vorvorigen 1080ti wechsele.
Naja, aber das war zuletzt am cb-Retro-Artikel über die AMD's aus den vergangenen sieben Jahren wunderbar zu sehen:

Die Preise sind in der Zeit sowieso jenseits von Gut und Böse angelangt.
Was ich auch ziemlich scheiße finde.
Wenn ich mir überlege, daß ich 2007 das damalige Highend-Modell von Ati, die HD3570, am Release-Tag noch für 230€ bei Alternate bekommen habe, kann ich mittlerweile echt nur noch mit dem Kopf schütteln, was ich für die letzten zwei Karten - 1080 und 2080 Ti - hingelegt habe. Und zwar noch Monate nach Release.

Ich vermute mal, da hat u.a. der Kryptomining-Boom mit zu beigetragen - wenn man durch den Kauf einer schweineteuren Grafikkarte Geld verdienen und seine Investition wieder rausbekommen kann, spielt der Betrag nur noch eine untergeordnete Rolle ... gekniffen sind die "ehrlichen" Gamer 😤

Solange das nicht aufhört und solange es genug Käufer gibt, die für egal welchen Zweck auch 20-50% Aufpreis via ebay zu zahlen bereit sind, werden die Preise nicht wieder runtergehen.

Ist auch mir absolut unverständlich, aber so Leute gibt's, und jedem das seine 🤷‍♂️

Aber ja, im Grundsatz sind wir uns einig, daß ich für den Preis auch ne Karte in Händen halten will, die ihre Zeit überdauert - wo da jeder seine Grenze zieht, ist dann wieder ne individuelle Sache.
Ergänzung ()

cleric.de schrieb:
Sorry, aber das ist NVIDIAs Marketing-Sprech, weil sie vor allem damals den Vergleich 2080 zur 1080 Ti nicht haben wollten. Dann wäre das Downgrade zu sehr aufgefallen.
Das ist sowieso alles Marketing, sind wir uns doch einig.
NVidia geht es in erster Linie um's Geld-verdienen.
Und deswegen wird's noch ne "echte" Ti mit mehr Speicher geben.
Genauso, wie die offizielle Speerspitze ja bei den 3000ern auch zunächst eben nicht 3080 Ti heißt, sondern direkt 3090.
Der wiederum wahrscheinlich ebenfalls nochmal in irgendeiner Form ne Ti oder sogar ne Titan haste-nich-gesehen folgen wird, wenn sich nur genug Käufer dafür finden.

Und ja:
Das IST Scheiße.

Umso wichtiger, daß AMD da hoffentlich den Anschluß hinkriegt.
Und mit der nächsten Generation auch teilweise mal wieder vorbeizieht mit irgendwas und nicht wieder außer Puste gerät und doch wieder zurückfällt...
Derzeit kann NVidia echt noch machen, was sie wollen.
 
Zuletzt bearbeitet:
branhalor schrieb:
Derzeit kann NVidia echt noch machen, was sie wollen.
Naja, nicht wirklich. Es gibt ja auch bei Ampere immer mehr Gegenwind.

Das Problem für mich? Irgendwie sitzt man zwischen den Stühlen. AMD ist wieder dran, endlich wieder Konkurrenz. Aber im Moment muss man ganz klar sagen, dass NVIDIA in VR einfach mehr macht. Da kann man nur hoffen, dass AMD dieses Thema mehr auf den Schirm bekommt.

Ich mag jedenfalls NVIDIAs Produkt- und Preispolitik nicht mehr. Das ist mittlerweile bzw. seit Jahren einfach nur noch fixiert auf Gewinnmaximierung und immer weniger ausgerichtet auf die Zufriedenheit der Kunden.

Und trotzdem kann es sein, dass man als VR-Enthusiast doch wieder in den sauren Apfel beißen und auf NVIDIA zurückgreifen muss.
 
  • Gefällt mir
Reaktionen: branhalor
branhalor schrieb:
Die Preise sind in der Zeit sowieso jenseits von Gut und Böse angelangt.
Was ich auch ziemlich scheiße finde.

du kriegst eine Mittelklassekarte wie ne 3060 oder 2060 für um die 300 Euro
damit läut heute 99% der Spiele
heute haben auch alle Spiele die viel Leistung brauchen Regler um da bissal zurückzudrehen

ich glaub was heute "Highend ist" kann man einfach nicht mehr vergleichen mit vor 10-15 Jahren

Wenn ich mir überlege, daß ich 2007 das damalige Highend-Modell von Ati, die HD3570, am Release-Tag noch für 230€ bei Alternate bekommen habe, kann ich mittlerweile echt nur noch mit dem Kopf schütteln,
ja, wenn ich diese HD3570 in der Hand halte und dann eine aktuelle GTX 10xx oder RTX 20xx
dann seh ich nicht so recht, warum die damals so teuer war ;)


Solange das nicht aufhört und solange es genug Käufer gibt, die für egal welchen Zweck auch 20-50% Aufpreis via ebay zu zahlen bereit sind, werden die Preise nicht wieder runtergehen.
ich glaub eher, dass die Kundschaft heute bereit ist mehr für Gaming und co auszugeben

siehe Smartphones: wir haben heute so gute Smartphones, Kameraleistung etc für wenig Geld..
und doch gibts die Modelle die das doppelte oder dreifache kosten, ja bis 1000Euro+
und es gibt Leute die für diese weiteren 10-20% mehr an Leistung eben den 3fachen Preis bezahlen

wenn du dir heute ne 2070 Super für knapp 500 Euro kaufst, kannst alles spielen..
hi und da mal einen Regler zurückregeln..

(VR und ihre Anforderungen (G2, Pimax 8kx) sind ein Sonderfall)

das Ding ist, dass heute die Leute halt immer "das Maximum" haben wollen.. nur das Maximum ist gut genug
- aber bitte, geiz ist geil - zum günstigsten Preis im Netz

und wenn Nvidia eine 30100 rausschmeissen würde, die nochmal 500 Euro mehr kostet weil sie nochmal 10% schneller wäre... auch das würde gekauft werden..
man würde sich zwar aufregen, aber es würde gekauft werden..

umgekehrt: wenn Spiele die Graka nicht richtig ausnutzen wird auch gejammert..
sprich: die Spiele müssen auch mitziehen.. schließlich hat man ja für xy Euro eine teure Graka gekauft
 
  • Gefällt mir
Reaktionen: branhalor
Ja, ich kann mich noch gut an Zeiten erinnern, da kamen Spiele raus, da gab es schlicht keine aktuelle Hardware, welche die maximalen Grafikeinstellungen flüssig darstellen konnte.
Crysis war da so ein Kandidat, oder Witcher 2 (hatte ne Grafikeinstellung für Super Sampling, was damals noch völlig revolutionär war).
Oder wenn wir ganz weit zurück gehen, Wing Commander, Ultima 9 oder Falcon 4.0...
Ja, ich weiß, ich bin ein alter Sack :D Und heute sogar ein Jahr älter geworden :freak:
 
  • Gefällt mir
Reaktionen: Thomas-3D und branhalor
Zurück
Oben