Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
[Sammelthread] Nvidia 3D Vision - Virtual Reality - 3D Gaming
Gut gesagt, Ron! Mir geht der Hype um Pascal auch etwas auf die Nerven. 22% mehr als 980ti stock und dafür soviel traraa...
Für VR allein lohnt sich zur Zeit sicher keine künstlich überteuerte (Founders Edition) Karte. Der Markt muss zunächst sowieso mit den Mindestvoraussetzungen mitziehen. Demnach lassen dann echte Grafikkracher in VR auch noch auf sich warten. Vermutlich wird in nächster Zeit maximal verbesserte PS VR Software auf uns PCler zukommen, wie früher zu Konsolenzeiten. Die oculus only Titel werden erst mit oculus touch richtig einschlagen und auch von Valve dürfen wir hoffentlichbald mehr erwarten als Minispiele und Techdemos.
4k Gaming ist ja selbst mit 1080 GTX eine knappe Nummer. Vor allem User die mit Gsync und WQHD auf weit höhere fps kommen, werden wohl kaum diesen Framerateneinbruch von WQHD auf 4K nur wegen noch kleinerer Pixel hinnehmen.
Es wäre was anderes wenn es bezahlbare 4K Beamer gäbe, aber derartig betuchte Enthusiasten haben sicher sowieso ein Trippel SLI System aus der Portokasse bezahlt.
Erst wenn VR auf 4K geht und dies neuere Technologien wie foveated rendering in Hardware erfordert, werde ich über einen Ersatz meiner geschätzten EVGA nachdenken. (Hoffentlich...:-))
Releasdate passte schon einmal, Vram Ausstattung auch. Rohleistung ist jetzt etwa 10% höher als ich erwartet habe, dafür aber auch der Preis um über 100,- höher als ich spekuliert habe. Die 980ti Prognose stimmt ziemlich genau, da diese um die 630,- oder kürzlich ne 980ti amp um 570,- gehandelt werden.
Nein, da hast du dich (wie alle anderen auch) sehr getäuscht- extremer wird es bei 3D. IN 3D (wo Stereo Siglepass zum tragen kommt) ist sie SCHNELLER als GTX 980 SLI (!) und das mit nicht ausgreiften Treibern.
Ich weiß nicht, ob ihr es mitbekommen habt, aber alle Tech-Tuber (z.B. LinusTEch Tipps) haben am Tag nach der Präsentation kopschüttelnd eingreäumt, dass sie alle von der Leistung überrascht waren- mit soviel Vorsprung hatte KEINER gerechnet.
ronrebell schrieb:
Naja, für 980ti User heißts Füße still halten. Eine 1080ti Referenz ist etwa 30% schneller als die 980ti Referenz. Der gleiche Abstand wird sich dann bei 1080 OCs vs 980 Ti Ocs ergeben.
Das kann keiner wissen. Ich denke in 3D wird der Abstand riesengroß sein. Wenn dann noch die Boardpartner OC-Varianten rausbringen... eine GTX1080 lief mit 2.2 MHz (!) luftgekühlt (!!) mit 65°C (!!!). Ich glaube du unterschätzt die Pascal Architektur gewaltig. Ber der Vorstellung als CLuster-Server (GP100) vor ein paar Monaten waren schon alle baff. Die GTX hat noch nichtmal NVLink- wenn das auch noch käme (bei einer TI vielleicht ?) und evtl. noch HBM Speicher, dann sind aberwitzige Fillraten möglich und Taktraten von effektiven 12Ghz oder mehr.
ronrebell schrieb:
Ein Upgrade von 980Ti Oc zu 1080 Referenz lohnt demnach auf keinen Fall, da der Vorsprung dann nur mehr auf um die 15% schmilzt.
Wie gesagt, es gibt nur Benchmarks in 3D und die sehen vielversprechend aus. Dann die Tatsache, dass der Pascal-Chip der größte je gebaute Chip mit der besten Effizienz ist (Luft 2.2GhHz 65° !), also ich, wie auch viele andere meinen, dass denen was sehr, sehr Großes gelungen ist, womit keiner gerechnet hat und vor allem AMD wohl nicht.
Nachdem die Katze aus dem Sack ist, ist meine Prognose, dass AMD seinen Launch verchieben wird (evtl. Weihnachten oder gar danach), weil si sonst extrem mit dem Preis nach unten gehen müssten. AMD wollte ja nicht nur preiswerte Chips (wie im Desktop-Segment) rausbringen, sondern auch schnelle.
ronrebell schrieb:
Im Prinzip ermöglicht das neue Fertigungsverfahren deutlich geringeren Stromverbrauch und somit weniger Abwärme, aber das Rohleistung/Taktverhältnis ist leider deutlich schlechter geworden. Somit muss Nvidia irre hohe Taktraten fahren, um 980Ti in Sachen fps überflügeln zu können und dann haben wird wieder das Problem mit Temp und Powertarget.
Wie kommst du denn darauf ? Du bist der erste der das behauptet. Es ist der erste massengefertigte Chip in 16ns und trotz Erhöhung der Transistorzahl um weit mehr als 25 % (zb. 25% mehr Shadercores) braucht sie nur 12% mehr Leistung und nur einen 8-Pol Anschluss.
Ich glaube du unterschätzt extrem, was Nvidia mit der Pascal geschafft hat. Wenn es so eine miese Verbessrung wäre, dann müsste AMD ja richtig glänzen können...nicht..
Ergänzung ()
nargorn schrieb:
Gut gesagt, Ron! Mir geht der Hype um Pascal auch etwas auf die Nerven. 22% mehr als 980ti stock und dafür soviel traraa...
Für VR allein lohnt sich zur Zeit sicher keine künstlich überteuerte (Founders Edition) Karte. Der Markt muss zunächst sowieso mit den Mindestvoraussetzungen mitziehen. Demnach lassen dann echte Grafikkracher in VR auch noch auf sich warten. Vermutlich wird in nächster Zeit maximal verbesserte PS VR Software auf uns PCler zukommen, wie früher zu Konsolenzeiten. Die oculus only Titel werden erst mit oculus touch richtig einschlagen und auch von Valve dürfen wir hoffentlichbald mehr erwarten als Minispiele und Techdemos.
4k Gaming ist ja selbst mit 1080 GTX eine knappe Nummer. Vor allem User die mit Gsync und WQHD auf weit höhere fps kommen, werden wohl kaum diesen Framerateneinbruch von WQHD auf 4K nur wegen noch kleinerer Pixel hinnehmen.
Es wäre was anderes wenn es bezahlbare 4K Beamer gäbe, aber derartig betuchte Enthusiasten haben sicher sowieso ein Trippel SLI System aus der Portokasse bezahlt.
Erst wenn VR auf 4K geht und dies neuere Technologien wie foveated rendering in Hardware erfordert, werde ich über einen Ersatz meiner geschätzten EVGA nachdenken. (Hoffentlich...:-))
Was ?! Wie jetzt 22% ? Die NDA ist seit heute abgelaufen. Schau dir mal die ersten Benchmarks mit Betatreibern in 4k an...die GTX1080 ist da teilweise 100% schneller , aber meistens mind. 50% und das obwohl die Ti ein paar Cores (10%) mehr hat ! Von wegen Takt/Rohleistung schlecht.
Also ich weiß nicht, was ihr hier erzählt. Ich finde das ist mal ein Hype der gerechtfertigt ist- die Preise mal außen vor.:Freak
Man darf nicht 1080 mit 980 vergleichen, da der Preisbereich ein ganz andere ist. Wenn wir von an die 800,- sprechen muss als Vergleich die 980 ti herhalten. Und da tun sich halt keine großen Sprünge auf.
Ich meinte durchaus die 980 ti.
Ein Beispiel von vielen, die bestimmt noch folgen werden in den nächsten Tagen. Ich meinte auch bei aller Begeisterung nicht den Preis. Klar sind die Karten teurer, aber ich bewundere die technische Weiterentwicklung, die sie geschafft haben, denn die Luft wird mittlerweile immer dünner, will heißen das Moor'sche Gesetz verliert bald sein Gültigkeit, denn wir sind bei 16nm mittlerweise in Größenordnungen wo es um einzelne Atome geht, die korrekt sitzen müssen.
Es kann durchaus sein, dass bei 14nm schluss ist.
Ich kann nur nicht verstehen, dass das für 3D wichtigste Feature "3D Berechnung fast ohne Verlust" hier so wenig Anklang, bzw. Begeisterung findet.
Das Beispiel ist mehr als fragwürdig. nichtmal der gleiche frame ist zu sehen, geschweige denn welche einstellungen. sieht nach clickbait aus. lieber echte hardware tests lesen. da sind es 23% und nicht wie in diesem video 100%.
Diese Benchmarks sollten als Grundlage wohl reichen:
Ich habe mal eben überflogen.
OK, es sind ein wenig weniger FPS, aber bei welchem SPiel sind es NUR 23% ? Oder vergleichst du etwas mit der Über-Mörder 980TI mit 1403MHz für 1000€
Trotzdem sind es im Durchschnitt 30% (eher mehr, bei Witcher3 40%) Vorsprung auf eine 908Ti.
Und wenn sich jetzt noch bewahrheitet, dass sie in 3D keine Leistung verliert ist doch alles wie versprochen!
Die 2GHz übertaktung wurden wohl auch erreicht mit einem besseren LUFT-Kühler. Wenn dann noch die Treiber optimiert werden.
Ich bleibe dabei, dass es eine technologische Meisterleistung ist, wenn auch zu teuer.
Die Doppelbildberechnung wird uns 3D Visionären erhalten bleiben und das heißt mal eben -50% Framerate.
Wenn Journalisten von 3D schreiben, meinen sie das für uns platte "2D" Gaming.
Der Umstand dass von "Journalisten 3D" zu unserem 3D Vision kein Leistungsverlust eintreten wird ist defacto nicht möglich. Unsere 3D Vision Technologie berechnet einfach doppelte Bilder, daher -50%. Cm 3D mal außen vorgelassen.
Die getesteten OC 980 Tis bringen alle um die 1400-1450 MHz out of box, das ist normaler Standard.
Das sind keine Über 980 Tis. Jede fette Custom lässt sich da mit um die 1500 MHz betreiben.
Und mit so ner fetten Custom 980Ti verglichen ist die 1080 Referenz nunmal gerade 15% schneller im Schnitt.
Klar, die 1080 Customs werden kommen und dann pendelt sichs bei gut 30% Vorsprung ein ... aber nicht vergessen dass die 980Tis mittlerweile unter 600,- zu haben sind.
Von 3D hat außer Nvidia selber und ein paar YTuber noch keiner gesprochen und auch im PCGH Test sind sie mit keiner Silbe darauf eingegangen.
Und nein, wir reden nicht aneinander vorbei. Schau dir die Präsentation an. Es ist sogar möglich mehr als 2 Perspektiven zu berechnen (bei 3D Surround werden 6 berechnet), dann aber nicht mehr im SinglePass. So, wie Jen-Hsun Huang das erklört hat, war es eindeutig und kann gut genug englisch, um es nicht falsch zu verstehen. Es geht um 2 versetzte Perspektiven und somit echtes 3D und keinen Kompatibiltätsmodus.
Dieses Feature geht bei allen Journalisten unter, weil sie keinen Fokus auf 3D setzten oder es nicht verstehen, was es bedeutet.
Der Umstand dass von "Journalisten 3D" zu unserem 3D Vision kein Leistungsverlust eintreten wird ist defacto nicht möglich. Unsere 3D Vision Technologie berechnet einfach doppelte Bilder, daher -50%. Cm 3D mal außen vorgelassen.
DeFacto nicht möglich ist Quatsch, weil du die Hardware der neuen Pipeline nicht kennst.
Ob du deinen Monitor neigst und der Treiber berechnet in Hardware die Verzerrung oder man schiebt die Perspektive weiter außeinander, um den Augenabstand auszugleichen, es sind beide male 2 verschiedene Perspektiven. Es wurde dann auch noch in einem echten 3D Beispiel (in VR) gezeigt. Es war nur der relative Gewinn durch Singlepass Stereo und nicht der absolute Unterschied zwischen 2D und 3D sichtbar.
Singlepass bedeutet aber, dass ein Pixel in einem Pipelinedurchgang für 2 Perspektiven berechnet werden kann.
Ich finde auch das die 1080Gtx eine Wahnsinns Karte geworden ist.
Dieser enorme Leistungszuwachs zum Vorgänger, der 980gtx ist schon ein wirklich noch nie dagewesener Hammer.
Bin mal gespannt was die Custums oc Varianten noch daher bringen.
Wenn eine 1080 Gtx stock schon 10% bis 15% schneller ist als meine 1450mhz schnelle werks übertakte amp!omega Ti...muss schon sagen da bleibt mir etwas die spucke weg!
Noch erstaunlicher ist das die Karte mit 1x8pin Stromanschluss auskommt.
Muss direkt nachdenken wann ich zuletzt eine Karte mit 1x8pin hatte...Wtf, weiß es nicht mehr
Dann noch eine lange Features Liste, die zumindest auf dem Papier wirklich viel Sinn macht.
Aaaaber!...das muss sich alles erst beweisen und darauf bin ich wirklich gespannt.
Zweites aaaaber ist der abgehobene Preis.
Nv wird preislich immer noch unverschämter und ich mach da auf keinen fall mit und werd das trotz dem gebotenen nicht gutheißen.
Von daher kann ich mich über diesen release gar nicht so freuen.
Wenn das so weiter geht können wir in ein paar Generationen bald 2000.-löhnen.
Nv macht das geschickt(glauben die zumindest) und erschaffen einfach neue klassen in Form von einer Titan, Ti usw. umso die Preise nach oben zu treiben.
Dann denkt man sich.... Wow, die 1080Gtx geht schneller als eine Titan X die 1200.-kostet, krass was für ein Schnäppchen.
Also das ist Bauernfängerei in meinen Augen.
Hm Andyw, da weiß ich jetzt auch nicht so recht was davon zu halten ist.
Hab gelesen dass die 10XX @ VR halt super rennen sollen und vielleicht hängt das eben mit ner anderen 3D Technologie zusammen ... aber ob das für uns 3D Vision Nutzer auch zutrifft? Da bin ich einfach überfragt und es würde mich schon fast wundern, wenn wir da bei einem totgesagten Feature namens 3D Vision noch profitieren würden. Ich hoffe du hast recht, bin aber dabei immer skeptisch bzw. vorsichtiger ... macht das Alter ;-)
@willsnone:
Der Leistungszuwachs ist realtiv.
Nur weil die Karte jetzt 1080 heißt, ist sie nicht der Nachfolger der 980.
Genau diese Bauernfängerei will Nvidia mit uns ja treiben ... und somit kommt wieder die Preisspirale.
Egal ob die Karte 1080, 1180 oder 1250 Titan heißt ... wir müssen gleiche Preisbereiche miteinander vergleichen.
Und da liegt die 1080 nunmal im Preisbereich 980 Ti bzw. zu Beginn sogar deutlich drüber.
Man muss 1080 also mit ner Edel 980 ti OC bzw. fast schon einer Titan X vergleichen, wenn Preise um 800,- ausgerufen werden.
Und da sieht die Sache dann etwas ernüchternder aus.
Wäre die 1080 ein "echter" Nachfolger der 980 und ebenso im 500,- Preissegment zu finden sein, dann würde mein Fazit komplett anders aussehen. Am Schluss messen wir aber Euro / fps ... und da macht 1080 ins Sachen Preis/Leistung zu Beginn leider keine super Figur.
Na ja, ich denke schon das dass offiziell der geistige nachfolger der 980gtx ist. Die 1070 ist der nachfolger von der 970er usw. aber alles nur mit einer gewaltigen Preiserhöhung. Es kommt ja deswegen auch noch eine neue Ti und Titan.
Was wir früher für high end bezahlt haben ist jetzt dann nur noch mittelklasse.
Jo, offiziell ist dies der Fall. Aber eben mit der von dir oben erwähnten Strategie der Bauernfängerei.
Selbst inflationsbereinigt ist das nichts anderes als ne herbe Preisspirale von Release zu Release.
Mir persönlich ists egal ob ich jetzt low, mid oder high end kaufe. Ich sehe ausschließlich Euro/Fps und da muss ich verglichen mit ner 980 Ti nunmal 200,- mehr drauflegen. Stromverbrauch und Co ist bei meinen 2-3 Stunden pro Woche nunmal nicht das geringste Argument. Jeder hat da eben andere Präferenzen.
Wenn sich da massive Verbesserungen in puncto real 3D bzw. VR bewahrheiten würden, wäre dies wiederum ein Feature, für das ich extra Kohle in die Hand nehmen würde. Aber mal sehen was von den Features dann in der Spielerealität ankommt.
Schlecht für alle ist, dass AMD wieder einmal tatenlos dabei zusieht, wie Nvidia das Highendsegment abschöpft.
So langsam nimmt das so schlimme Dimensionen gleichwie in der CPU Sparte an, wo sich Intel mangels Konkurrenz seit Jahren nicht mehr bewegen muss und Mickey Mouse Uprades mittlerweile Usus sind.
Ich kanns ja fast nicht glauben aber gabs noch keine Anmerkung zu Final Fantasy XIII (13)? Nur eine Anmerkung zu ff15? (das auf neuer engine basiert - vergleich LR
Jedenfalls - jep, zahlt sich aus zu spielen. Die Story ist genial. In 3D Hammer. Gameplay ist ... naja nicht sehr viel anders zu anderen FF Teilen, allen voran FF7. Die Gegner sind oft gleich, nur ein paar Bosse anders, paar neue Einheiten aber alles in allem recht vertraut, bis auf die Paradigmen. Im zweiten Teil gibts dann statt den Teammitgliedern die Monster und im 3. nur mehr Lightning mit ... naja nicht zu viel verraten. Dennoch spannend - vor allem durch die geniale Story die durch grandiose Sequenzen ergänzt wird.
Eine Warnung vorab: Jeder einzelne Teil dauert recht lang, nichts das man auf die schnelle durchspielt, speziell wenn man darauf auslegt möglichst alles zu erreichen und/oder ein 2. mal durchspielt. Und die Screenshots hab ich im Nachinein scnell erstellt, also vl. nicht 100% ideal/sollen nur nen Eindruck vermitteln.
- Name des Spieles
Final Fantasy XIII - 3D Vision Status
3D ready (Helix) - Surround Status (falls möglich)
* - HelixMod (falls benötigt) http://helixmod.blogspot.in/2014/11/final-fantasy-xiii.html - Settings
All maxed (Konsolen ~2010/PC 2014 erschienen) - auch auf aktuelleren Stand gebracht sind aktuellere GPU's dennoch unterfordert bzw. ist viel rauszuholen. - Issues
* some distortion effects during fights look strange (similar to motion blur, etc.) - Comments
Getestet mit Win10 - Screenshots https://www.dropbox.com/s/unogjkc5cwnn8ba/ff13-1.7z?dl=0
- Name des Spieles
Final Fantasy XIII-2 - 3D Vision Status
3D ready (Helix) - Surround Status (falls möglich)
* - HelixMod (falls benötigt) http://helixmod.blogspot.in/2014/12/final-fantasy-xiii-2.html - Settings
All maxed (Konsolen ~2011/PC 2014 erschienen) w.o. - Issues
* some distortion effects during fights look strange (similar to motion blur, etc.)
* some lense flare effects and character portraits for monsters had to be disabled
* sporadic HUD elements are still 2D as fixing them would cause other issues - Comments
Getestet mit Win10 - Screenshots https://www.dropbox.com/s/jsjzy97yfbifta9/ff13-2.7z?dl=0
- Name des Spieles
Lightning Returns Final Fantasy XIII [Disabled Effects] - 3D Vision Status
3D ready (Helix) - Surround Status (falls möglich)
* - HelixMod (falls benötigt) http://helixmod.blogspot.in/2016/01/final-fantasy-xiii-lightning-returns.html - Settings
All maxed (Konsolen ~2014/PC 2015 erschienen) w.o.
Leider ist GamerGap nicht mehr erreichbar und somit wird auch die Spieleliste mit unseren Ratings nicht mehr aktualisiert.
Das ist auch der Grund warum wir seit Monaten keine Ratings mehr schreiben.
Ich werde das wohl im Threadstarter überarbeiten müssen, damit hier Klarheit herrscht für jene, die hier ne Zeit lang nicht mehr reingeschaut haben.
Naja, das Spiel hat nur scheinbar keiner erwähnt (hab auch in den 2 älteren Threads gesucht - fehlanzeige), deswegen dachte ich, ich führe es mal an und wenn sich jemand der Liste annehmen sollte findet man das so auch leicht, ansonsten ist es ja auch recht übersichtlich - also schadet nicht. ^^
EDIT: Hat mittlerweile denn wer unravel getestet? Zahlt sich das aus, hat es überhaupt ne story oder nur rätsel? Btw. kann vl. demnächst Battle Worlds Kronos sowie The Book of Unwritten Tales (2) @3D testen.
Da wurde für dich Weihnachten und Geburtstag zusammengelegt.
Außerdem ist Assetto momentan im Angebot bei Steam (-40%) incl.den Erweiterungen, sogar das ganz neue Japanese Pack ist reduziert ...da werd ich mir die noch fehlenden noch nachkaufen.