Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia Maxwell: Mehr Leistung in VR-Spielen durch weniger Rendern
- Ersteller Wolfgang
- Erstellt am
- Zur News: Nvidia Maxwell: Mehr Leistung in VR-Spielen durch weniger Rendern
UltraWurst
Banned
- Registriert
- Aug. 2014
- Beiträge
- 2.269
NVidia bringt mal wieder eine Innovation, und die AMD Fanboys sind am weinen, weil sie das auf ihren Karten nicht nutzen können.
Echt peinlich.
Wobei ich allerdings der Meinung bin, so ein Feature müsste schon direkt in den VR-SDKs mit drin sein.
Echt peinlich.
Wobei ich allerdings der Meinung bin, so ein Feature müsste schon direkt in den VR-SDKs mit drin sein.
Welche Innovation soll das sein?
Ein Quadrat von mit vollen Details berechnen zu lassen und die Ränder davon nicht mit vollen Detailgrad zu berechnen... Was heutzutage schon alles eine Innovation ist.
Achja und ich erwähne mal AMD LiquidVR... Nur mal so
Ein Quadrat von mit vollen Details berechnen zu lassen und die Ränder davon nicht mit vollen Detailgrad zu berechnen... Was heutzutage schon alles eine Innovation ist.
Achja und ich erwähne mal AMD LiquidVR... Nur mal so
Cavalera90
Lt. Junior Grade
- Registriert
- Sep. 2013
- Beiträge
- 466
PiPaPa schrieb:Welche Innovation soll das sein?
Ein Quadrat von mit vollen Details berechnen zu lassen und die Ränder davon nicht mit vollen Detailgrad zu berechnen... Was heutzutage schon alles eine Innovation ist.
Achja und ich erwähne mal AMD LiquidVR... Nur mal so
Wenn man das so in den Raum wirft klingt es auch innovationsslos. Die Umsetzung ist hier die Innovation. Genau wie zu sagen: "ein Auto soll automatisch bremsen wenn ein Objekt im Weg steht". Klingt sehr einfach aber die Umsetzung ist das Problem.
Diese VR Technik wird wohl nur ein Teil von Nvidias (und hoffentlich AMD's!!) Plänen sein, um dem Verbraucher ein ordentliches VR-Erlebnis zu geben. Denn im Prinzip klingt es geil: rein Softwaretechnisch bis zu 200% mehr FPS ohne optische Einbußen oder Änderungen am System/der Hardware!
Für mich, als potenzieller VR Kandidat, wäre dies ziemlich wichtig! Da meine Übergangskarte (960) dann durch diese Verbesserungen doch noch ein Jahr länger im System bleiben kann und ich somit auf die nächste Generation sparen kann. Objektiv betrachtet wäre diese dann auch von NV
Sieh es mal so. Dadurch, dass du in den äußeren Bildbereichen die Auflösung verminderst was du aber kaum wahrnimmst gewinnst du an Performance. Wenn du diese Performance jetzt wieder in eine allgemein höhere Auflösung steckst, dann bekommst du subjektiv gesehen sogar ein besseres Resultat bei gleicher Performance, weil an den Stellen wo es auffällt eine höhere Auflösung vorhanden ist.PiPaPa schrieb:Tja, was werden die Verfechter der Bildqualität jetzt nun dazu sagen?
Leistungssteigerung durch weniger berechnen ist jetzt kein "Hui!" Sie zentrieren einen Bildausschnitt das gut berechnet wird, der Rest eben nicht so gut. Kommt der Verringerung der Auflösung gleich.
Das ganze ist auch nicht neu. Logarithmische Quantisierung gibt's schon seit langem und basiert auf dem selben Prinzip.
Ansonsten nehme ich ihnen die Hardwarelimitierung nicht ab das Kepler das nicht könnte.
Ich sehe auch keinen Grund, dass man dafür unbedingt eine Hardware-Implementierung braucht. Wäre mit Software alleine auch umsetzbar und würde wahrscheinlich ebenfalls einen gehörigen Performance-Schub einbringen. Aber irgendwie muss man halt den Kauf von neuer Hardware für Kunden attraktiv machen. Das ist nicht toll, aber bei der Konkurrenz auch nicht anders.
zeromaster
Lt. Commander
- Registriert
- Juli 2014
- Beiträge
- 1.919
Wie, was das nutzen soll? Das ist ja wohl keine ernsthafte Frage, oder? Weniger zu rechnen = mehr Performance = nicht unwichtig für die Mehrbelastung durch VR... gerade wenn es optisch kaum wahrnehmbar sein sollte ein Gewinn.
Um Augenbewegungen zu kompensieren müsste man diese zunächst auch erfassen, ich denke mal das dauert noch ein paar Generationen bis das gescheit möglich ist.
Um Augenbewegungen zu kompensieren müsste man diese zunächst auch erfassen, ich denke mal das dauert noch ein paar Generationen bis das gescheit möglich ist.
Aha und bei AMDs Filterqualität wurde die Sau durchs Dorf getrieben.zeromaster schrieb:... gerade wenn es optisch kaum wahrnehmbar sein sollte ein Gewinn.
Aber hier ist es ja in Ordnung...
Diablokiller999
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.393
Oh ja, darum ist der Linux-Kernel auch so verwaist und die Khronos Group bildete sich nur zum Spaßterraconz schrieb:Wer würde denn noch Kohle in R&D stecken (softwareseitig) wenn er das Ergebnis nicht schützen kann? ^^
Offene Standards sind gut und schön aber nur offene Standards und die R&D Investitionen in diesem Bereich würden sich auf einem Schlag in Luft auflösen da kein incentive mehr da ist.
Danke NV. So muss das sein. Nicht nur Hardwaremäßig, sondern auch auf Softwareseite muss sich etwas tun, dass VR vernünftig läuft. So funktioniert Fortschritt! Wenn das einigermaßen überzeugt wird dieses Verfahren eh von jederman kopiert. War doch bei Mantle genauso.
tic-tac-toe-x-o
Commander
- Registriert
- März 2014
- Beiträge
- 2.332
SimsP schrieb:Sieh es mal so. Dadurch, dass du in den äußeren Bildbereichen die Auflösung verminderst was du aber kaum wahrnimmst gewinnst du an Performance. Wenn du diese Performance jetzt wieder in eine allgemein höhere Auflösung steckst, dann bekommst du subjektiv gesehen sogar ein besseres Resultat bei gleicher Performance, weil an den Stellen wo es auffällt eine höhere Auflösung vorhanden ist.
Du redest gerade über Nvidia, die mit x64 Tessellation glänzen wollen und andere Karten dafür schlechter machen als sonst.
Gilt übrigens nicht nur für dich, sondern auch für alle anderen die sich gerade "freuen".
Zuletzt bearbeitet:
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.443
Relaxo32 schrieb:Das ganze zeigt doch auch, wie der Markt aussehen würde, wenn es nur noch NVidia gäbe. Das NV dann die Vorgänger-Generation beim erscheinen einer neuen Generation wohl nicht mehr vollkommen supported bzw. nur noch unter Druck, wobei dass mit dem Druck dann fraglich ist. Siehe The Witcher 3/PCars und Keppler bei den Treibern.
@ Topic:
Ich persönlich halte gar nichts davon, dass jeder sein eigenes VR Süppchen kochen will. Dadurch ist man einfach zu Abhängig von einem Hersteller.
Und was den technische Ansatz angeht: es ist zwar recht clever gelöst, aber was ist, wenn ich mein Auge in den Bereich verschiebe, in dem das Bild weniger hochauflösend berechnet wird, ohne meinen Kopf zu bewegen, dann dürfte ich ja unscharfe Außenbereiche des Bildes haben?
Das Problem ist das viele hier und auf der Straße nicht einsehen oder wissen, wie sich eine Monopolstellung von nVidia auswirken wird, nämlich ganz klar zum Nachteil jedes Kunden. Der miese Support von nVidia ist eigentlich ein Novum oder er fiel vorher noch nicht so ins Gewicht/auf bis zu dem bekannten Shitstorm der Kepler Kartenbesitzer (welche eine nicht zu unterschätzende Menge bzw. einen erheblichen Marktanteil ausmachen) im nVidia Forum. So eine miese Masche hat sich AMD meiner Erinnerung nach zu keiner Zeit geleistet und nVidia hat die Absicht ältere Grafikkarten-Generationen als die aktuelle nicht mehr ausreichend unterstützen zu wollen, um treudoofe Kunden/Fanboys damit zu melken, auch nicht bestritten, aber sie haben wohl aus Besorgnis vor zu großem Imageverlust (und weil sie Ihre Vormachtstellung nicht gefährden wollen) ausnahmsweise mit einem neuen Treiber nachgelegt (freiwillig wäre das m.E. nie seitens nVidia geschehen). Nur, wenn die nVidia User jetzt jedes Mal (bei jedem Spiel das nicht leistungstechnisch/-getreu umgesetzt wird) auf die Pauke hauen müssen um 1 Jahr alte oder ältere Grafikkarten noch unterstützt zu bekommen, die das grüne Lager nur noch in geringen Stückzahlen oder gar nicht mehr verkauft, dann ist das ein unwürdige Zustand und gehört bei wiederholten Vorkommen geahndet ... nVidia knausert wie sie können, nicht nur beim verbauten Speicher (unterhalb des Enthusiast-Segments), sondern auch beim Kundenservice (oder bzgl. der Herstellerunterstützung der Karten). Ich hoffe, das wird neben mir auch vielen anderen Kepler-Kartenbesitzern aufgefallen sein und dass diese sich sehr gut überlegen als Reaktion nicht auch die Seite wechseln zu wollen.
@ Topic: Ich denke auch, man bräuchte eine Sensortechnologie die die Augenbewegungen abtastet und dementsprechend das Sichtfeld/projizierte Bild verlagert/mit verschiebt, sonst stößt diese "neue Technik" ganz schnell an ihre Grenzen.
DvP schrieb:Genauso sehe ich das auch. Ich drücke AMD die Daumen für die kommenden Karten damit ich auch gute Leistung für mein Geld bekomme. Ich WILL als nächstes wieder eine AMD Grafikkarte allein schon um die ganze Politik nicht zu unterstützen. Gameworks geht mir immer mehr auf die Nerven und entwickelt sich zu einem richtigen Feindbild bei mir- OBWOHL ich eine GTX 680 habe!
Ja, eigentlich gefällt mir meine GTX670 immer noch gut genug und ich habe den Kauf auch nicht bereut, aber der schwache Support und die zunehmende Arroganz von nVidia (mit miesen Geschäftspraktiken seit der GTX970 zu glauben sich alles auf Kosten der Kunden erlauben zu können) sind mir ein Dorn im Auge und das hat definitiv Konsequenzen für mich (bei Karten in einer ähnlichen Preisregion mit ähnlicher Performance wird meine Wahl in Zukunft wieder auf AMD fallen, keine Frage). Jede 1 bis 2 Jahre eine neue Mittelklasse (GTX 960(Ti) und kleiner) oder Oberklasse (GTX 980 und kleiner) Karte kaufen zu müssen (geschweige denn Enthusiast-Segment Karten wie die GTX780Ti) mangels Support könnte denen so passen (bei relativ kleinen Performancezuwächsen von Generation zu Generation), aber im Endeffekt gibt es genug Verbraucher, die diese Abzocke nicht mitmachen werden und Langlebigkeit zu schätzen wissen.
iHabAhnung schrieb:Dann bist du bei AMD aber noch schlechter dran. Dort unterstützt nicht einmal die aktuellste Generation vollständig die neuen Features. (FreeSync, VSR)
Wieso das, mit einer 290(X) ist man (overclocked) in vielen Spielen auf dem Niveau einer GTX970(OC), teils darüber, teils darunter, wenn das kein hervorragendes Preis-Leistungsverhältnis ist, dann weiss ich auch nicht und die 285 unterstützt doch auch alle aktuellen Features und wenn erst einmal die Fiji ("Fury") Karten von AMD auf dem Markt sind, wird sich nVidia hoffentlich warm anziehen müssen und Marktanteile lassen (insbesondere in der 2. nächstes Jahr erscheinenden Artic Islands Generation). Angesichts der aktuellen nVidia Politik kann ich eigentlich auch keinem empfehlen sich eine GTX980Ti anzuschaffen, die eigentlich Leistung satt bringt, aber mit Erscheinen der Pascal Generation (in einem Jahr) vermutlich dasselbe Schicksal erleidet wie die GTX780Ti momentan und treibertechnisch dann etwas "auf Eis gelegt" wird, so daß dann schon eine SLI fällig wird oder besser gleich noch einmal soviel für eine neue Karte (der dann aktuellen Pascal Generation) auszugeben, wirklich tolle Aussichten ... pfui, so nicht, dann lieber AMD unterstützen und die Marktmacht von nVidia ein wenig brechen. Das fällt mir persönlich auch nicht schwer, da ich mit wenigen Ausnahmen eigentlich gegen quasi-Monopolisten/Mainstream-Konzerne bin à la Google, Samsung, Apple, VW, u.a. (zu denen sich nVidia versucht aufzuschwingen) und diese nach Möglichkeit meide im Interesse eines freien/diversifizierten Markts.
Zuletzt bearbeitet:
Kirito563
Cadet 3rd Year
- Registriert
- Juli 2014
- Beiträge
- 32
Necareor schrieb:Ich verstehe gar nicht, was ihr von solchen Konzernen erwartet... welches Unternehmen mit einer respektablen Marktmacht verzichtet denn auf proprietäre Produkte? Warum sollten sie das tun?
Glaubt ihr denn wirklich, AMD würde darauf verzichten, wenn die Marktanteile vertauscht wären?
Das denke ich ebensowenig wie Sie. nVidia ist nicht ohne Grund teurer als amd, man bekommt für sein Geld halt auch technologien geboten, die die Konkurenz nicht hat. Ob diese immer reibungslos funktionieren sei jetzt mal dahingestellt...
Und mal im Ernst, es ist doch keine schlechte Sache die Grafik in einem Bereich zu reduzieren wo man keinen/kaum einen Unterschied merkt, wenn dadurch die Flüssigkeit des Spiels erhöht wird. Das sich die Leute beschweren, die eine GTX 980ti-4-way-SLI oder ähnliches verbaut haben sehe ich ja ein aber für alle die sich das nicht Leisten können oder wollen ist das eine saubere und innovative Löung.
Mit freundlichen Grüßen
Kirito563