Selanius schrieb:
1. Neue Technologien verteufelt hier glaube ich keiner. Das Problem was viele haben, ist für die neue Technologie zu zahlen ohne einen passenden Gegenwert (in dem Fall genügend Spiele, die die neue Technologie unterstützen) zu haben.
Muss ja keiner machen. Wenn einer mit dem Kurs der technisch notwendig ist, nicht zufrieden ist, dann kauft er einfach nicht, hört auf zu zocken oder was auch immer. Hat ja jeder die Wahl.
Was bringen denn einem Käufer der neuen Karten die neuen Technologien, wenn man diese über Monate (wenn nicht sogar Jahre bei DLSS im nicht 4k Bereich) nicht nutzen kann. Und auch das die Konkurenz alle diese Technologien integriert haben/werden, das musst sich erst einmal zeigen.
Wenn einer die Karten nicht braucht bzw. deren Geschwindigkeitssteigerungen, dann sollte er sie auch nicht kaufen. Wer mehr Speed und zukünftige Beschleunigungstechnologien haben will, dann schon.
Ich verstehe es nicht, dass einige es fast schon als Zwang ansehen in festen Abständen immer etwas deutlich besseres und schnelleres haben zu müssen.
Auch diese Forderungen der Forschung und Industrie gegenüber in welchem Tempo was zu passieren hat ist absurd. Und wenn die Industrie einem das nicht liefert, natürlich auch noch zu dem Preis der einem selbst angenehm ist, dann wird der Shitstorm losgetreten.
Verkehrte Welt....
Also eine GTX1070(ti) würde ich jetzt nicht als veraltete Hardware bezeichnen. Sie funktioniert genauso wie sie soll und hat immernoch dieselbe Leistung wie bei der Einführung (eher noch etwas mehr durch Patches für die Spiele). Und sämtliche bis jetzt erschienene Spiele laufen auf ihr genauso so wie sie sollen.
Wobei sie sich ja dann in der Funktionalität zur 2060 nicht unterscheidet, nur dass Zweitere teils noch etwas schneller ist.
Sie hat einzig nur nicht die neuen Features die mit Turing eingeführt wurden. Was aber erst dann zum tragen kommt, wenn diese Features auch von vielen Spielen genutzt werden.
Genau- Das ist der Wesen eines Technologiewechsels.
Und das ist Stand jetzt nicht gegeben und wird auch noch eine Weile/lange Zeit so bleiben. Die Leistung liegt gleich auf. Somit ist es sicher keine veraltete Hardware. Subjektive Ansicht deiner seits, die nichts mit der Realität zu tun hat.
Genau- Wenn man die neuen Titel nicht mit den Features Spielen will, dann gibt es überhaupt keine Notwendigkeit sich gezwungen zu sehen, eine neue Grafikkarte zu kaufen.
Will man BFV mit Raytracing, Metro Exodus mit Global Illumination, Control mit beidem oder andere Titel beschleunigt mit DLSS spielen, dann sollte man zur neuen Technik greifen.
Man muss auch im Hinterkopf behalten, dass wenn es dann in einem Jahr ein par AAA Titel gibt, die man hätte spielen wollen, man immernoch einfach warten kann, die Spiele auf Halde legt und sie dann vielleicht später zu günstigeren Konditionen mit RTX oder sonstigen Dingen geniesst.
Angeschmiert ist man nur wenn man sich eine Grafikkarte zu Punkt X kauft und diese schon zu ihrer Einführung probleme hat vernünftig zu laufen weil künstlich eine Limitierung eingebaut wurde, die jetzt schon bei Spielen dazu führt, dass die NEUE Grafikkarte nicht smooth laufen wird.
Wo ist denn das Praxisbeispiel dazu? Wenn es so wäre, dann könnte man das verstehen. Dann wär man selber der Idiot, weil man am eigenen Bedarf vorbei gekauft hat.
Wenn ich weiss, dass ich eine Software XY stark nutze und diese zwingend 8GB VRAM benötigt, sollte ich keine 6GB VRAM Karte kaufen. Nur habe ich bis jetzt noch kein Spiel gesehen, was bei 6GB VRAM irgendwie groß "einbrechen" würde. Zumal es immer einen Texturschalter gibt, bei dem sich in der Praxis herausstellt, dass Hoch und Ultra weniger in der Bildqualität als im Speicherverbrauch sichtbare Unterschiede bringt...
Aber warum wird diese gute Leistung die die GPU bringt, bitte zum einen durch den geringen VRAM Speicher künstlich limitiert und warum versucht nVidia hier absichtlich die eigentliche Mittelklasse Karte (vom Namensschema her) durch den hohen Preis in eine höhere Leistungsklasse zu schieben?
Die neuen Karten sind eine andere Klasse. Es gibt neben der GTX Klasse nun die RTX Klasse.
Durch das Featureset ist diese nicht mehr mit den alten Karten zu vergleichen.
Also das einführen von neuen Features, die Stand jetzt nicht einmal vernünftig umgesetzt werden, würde ich jetzt nicht als Technologieumbruch bezeichnen.
Es kommt auf das realistische Potenzial an, welches eine Technologie mit sich bringt. Und da ein allgemeingültiger und nicht Herstellerproprietärer Ansatz bereits umgesetzt ist DXR/Vulkan, reden wir hier von einer ganz anderen Nummer.
Wenn es danach geht, hätte es mit jeder neuen AMD GPU Generation ja einen Technologieumbruch gegeben. Und auch deine Aussage, das man sich jetzt beim Speicher nicht an der Langlebigkeit festhalten sollte, ist auch etwas merkwürdig.
Weil mir das zu viel Kaffeesatzleserei ist. Angenommen die neuen Konsolen kommen mit 16GB unified RAM auf den Markt, dann kannst Du mal schauen, wie weit es mit der Zukunftssicherheit Deiner 8GB VRAM bestellt ist. Und nur in Deiner Hoffnung auf irgendwas hast Du bis dahin auf ein deutlich schnelleres und hübscheres Spielerlebnis verzichtet, weil die 8GB in Zukunft ja irgendwann mal gebraucht werden könnten.
Du sprichst davon, das durch die neuen Features ja die Leistung sich verdoppelt bist verdreichfacht.
Ja- Im RT Bereich sprechen wir von dem Faktor 10. DLSS möchte ich noch nicht beurteilen.
Mesh Shader sind auch wieder für den Faktor 5-10 gut.
Also bis jetzt sieht man davon recht wenig, eher ist es das Gegenteil. Die Leistung verringert sich und ohne genügend Speicher kann man nicht einmal sämtliche Features nutzen.
Andere Karten können es schlichtweg nicht (RT). Das sieht man an den Demos, die an die Testzeitschriften versandt wurden, wo sie z.B. in Raytracing Szenen mit einer 1080TI nur 4-6FPS auf den Bildschirm bekommen haben. Die Leistung steigt als in Teilbereichen dramatisch.
Was bringt es bitte, wenn von der Leistungsfähigkeit eine GPU der 2060 sogar bis 4k schaffen könnte (wenn die Features vernünftig umgesetzt wären), aber durch den kleinen Speicher einfach nur Limitiert wird?
NVIDIA muss eine Segmentierung vornehmen. Deshalb gibt es unterschiedliche Klassen. Die 2060 ist das Baby in der RTX Einstiegsklasse. Sie musste schnell genug bleiben, um RTX Features unter FullHD flüssig wiedergeben zu können, soll aber nicht in der 4K Suppe rumrühren. Deswegen ist es Lowrange in der RTX Klasse und Midrange in der GTX klasse und nicht High- End.
Das du dies nicht siehst, dass das eine nur funktioniert, wenn das andere auch ausreichend vorhanden ist. Zeigt halt wie wenig du am Ende wirklich objektiv bist.
Was heisst Objektiv? Wenn es Deinem Empfinden entspricht? Du verstehst nicht, dass die Karte unter 4K garnicht super funktionieren SOLL.
Deine Argumentation ist schräg. Man beschränke die Karte künstlich. Das macht man mit jeder Karte, die nicht dem Vollausbau entspricht. Natürlich macht man das. Das macht jeder.
Und durch die Einsparungen (z.B. an VRAM, weniger Shader, DIE- Größe etc). kommt ein günstigerer Preis zustande.
6. Also die offizielle Ankündigung das DLSS jetzt auch für 1080p genutzt wird muss ich wohl übersehen haben. Also bitte mal verlinken.
Voilá:
https://www.dsogaming.com/news/deep-learning-super-sampling-dlss-is-coming-to-battlefield-5/
According to NVIDIA, the NVIDIA GeForce RTX 2060 is able to run Battlefield 5 with an average of 90fps with RTX disabled and with an average of 88fps with both RTX and DLSS enabled.
...contrary to Final Fantasy XV which only supports DLSS in 4K, Battlefield 5 will support DLSS in 1080p ...
Fakt ist, solange keins der Features in keinem Spiel vernünftig und vollumfänglich umgesetzt ist (Und das ist es bis jetzt noch in keinem), solange ist alles nur pures Marketing am Ende.
Ach- Die Spiegelungen bei BF5, das VRS in Wolfenstein 2 und das DLSS in FFXV ist also nur Einbildung und hat garkeine Auswirkungen? Also sind Dinge quasi nur "vernünftig" eingesetzt, wenn Du Dein Qualitätssiegel druntersetzt?
7. Du fragst hier wirklich warum ein FFXV mehr VRAM benötigt als ein The Divison? Dafür, das du angeblich ja so viel dich mit dem Thema beschäftigst, stellst du dich jetzt doch sehr unwissend hin. Ich könnte jetzt anfangen es zu erklären, aber da du ja so ein schlauer User bist, wirst du es sicher selber herausfinden.
Nachdem ich ja mitgeteilt hatte, dass ich mich mit dem Thema auch schon auf Praxisebene auseinandergesetzt habe, verstehe ich es eben nicht mehr. Ich dachte früher ich wüsste warum - Open World (Asset- Vielfalt, Weitsicht etc.). Je länger ich mich aber damit auseinandergesetzt habe und auch selbst an Engines rumgestrickt, Kompressionsverfahren von Texturen geprüft habe etc.
Man lernt ja schliesslich immer dazu und wenn man dann mal das System der Megatextures bzw. virtual textures verstanden hat, oder die unterschiedlichen Verarbeitungarten von single textures/atlas textures etc., dann ist es mir inzwischen tatsächlich vollkommen unverständlich, warum einige Engines so lachs mit dem VRAM umgehen müssen. Insofern wäre ich schon auf Deine Einsichten gespannt.
Auf den Rest mag ich nicht eingehen, ich Denke Du weisst warum.
Grüße
Zero