Rein objektiv gesehen liefen die nicht gut. Geringe Auflösung, einbrechende Frameraten. Zugegeben ich konnte mich aber auch daran gewöhnen und trotzdem an den beiden Spielen Spass haben.elefant schrieb:Kann mich nicht beschweren, beide Zelda Titel liefen gut und haben eine Menge Spaß gemacht.
-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia zur Nintendo Switch 2: 10× mehr Leistung mit DLSS, Raytracing sowie G-Sync
zig*zag
Lieutenant
- Registriert
- Mai 2004
- Beiträge
- 701
Loopman schrieb:Und hier mal ein kurzer BS-Überblick alleine auf den ersten beiden Seiten.
1. verstehen manche Leute eventuell den Unterschied Nvidia - Nintendo nicht. Das ist NICHT die gleiche Firma 😉
2. wollen einige scheinbar hier ganz dringend im BS-Bingo einen Preis gewinnen. Hauptsache mal so alles vom Stammtisch in ein Posting verfrachtet.
Es geht darum wie nVidia ihren Chip darstellen und übertreiben erneut wie mit der 4090/5070 Thematik. 10x Leistung hahaha, das ich nicht lache... Sie haben bisher ja nichtmal angekündigt was für ein Tegra es ist, vermutlich weil die Rohleistung weit unter 10x liegt.
Also Junge alles andere als BS...... die Leistung muss erstmal bewiesen werden ehe ich deren Darstellung auch nur annähernd glaube.
Galaxytourist
Lt. Junior Grade
- Registriert
- Sep. 2014
- Beiträge
- 427
Die Spiele müssen einfach gut laufen, mehr nicht.zig*zag schrieb:Also Junge alles andere als BS...... die Leistung muss erstmal bewiesen werden ehe ich deren Darstellung auch nur annähernd glaube
cvzone
Fleet Admiral
- Registriert
- Okt. 2004
- Beiträge
- 18.962
Gsync Compatible ist bei TVs ausschließlich HDMI 2.1 VRR. Das Gsync Compatible = Freesync (Vesa Adaptive Sync) gilt nur für Displayport. Freesync via HDMI kann Nvidia gar nicht.Beschi schrieb:G-Sync Kompatible ist Freesync
Da viele TVs jetzt aber HDMI VRR können, können viele auch "Gsync". Echtes Gsync mit Modul gibt es für quasi keinen TV.
Ich bin sehr gespannt auf die Dockingstation, ob diese auch HDMI VRR / Gsync zum TV kann. Die Switch nutzt ja USB-C zur Ausgabe und bisher wäre mir kein einziger DP zu HDMI Wandler bekannt, welcher wirklich VRR könnte. Bei manchen DP zu HDMI Adaptern ist zwar Gsync/Freesync auswählbar, aber es funktioniert nicht. VRR wird im TecSpec der Switch für den externen Output auch nicht gelistet, anders als beim internen Display. https://www.nintendo.com/us/gaming-systems/switch-2/tech-specs/
Aber kann natürlich sein, dass Nintendo hier eine besondere Lösung hat und nativ HDMI über USB-C ausgeben kann.
EDIT:
https://arstechnica.com/gadgets/202...-sync-and-ray-tracing/?utm_source=chatgpt.comNvidia notes that G-Sync is only supported in handheld mode and not in docked mode, which could be a limitation of the Switch dock's HDMI port.
Zuletzt bearbeitet:
- Registriert
- Dez. 2014
- Beiträge
- 9.356
Also ich tausche Link gerne gegen den Fuchs von Tunic.elefant schrieb:Da laufen Mario, Link und Co. bestimmt super drauf ...
Ich liebe das Spiel einfach. So müssen wohl die Zelda Spiele der Vergangenheit gewesen sein ^^
Und der Fuchs ist so knuffig. Genau wie der Rest des Spiels.
Und Mario Kart ersetze ich durch Crash Team Racing. Bockt auch. Für alles andere gibts Batocera auf einem Stick oder auf meinem Thinclient.
Aber sonst wüsste ich nicht, was mich anturnen sollte bei Nintendo. Pokemon? Hab ich noch für meinen Advance Sp, das langt.
Kommt halt wirklich drauf an was man zocken will. Und da reizen mich die Exkusiven Titel von Nintendo dann doch nicht.
Zuletzt bearbeitet:
Mich mag meine Erinnerung jetzt trügen, aber ich bin mir ziemlich sicher, dass ich G-Sync compatible durchaus schon über HDMI an einem Freesync-Monitor verwendet habe.cvzone schrieb:Gsync Compatible ist bei TVs ausschließlich HDMI 2.1 VRR. Das Gsync Compatible = Freesync (Vesa Adaptive Sync) gilt nur für Displayport. Freesync via HDMI kann Nvidia gar nicht.
cvzone
Fleet Admiral
- Registriert
- Okt. 2004
- Beiträge
- 18.962
Dann konnte der wohl auch HDMI VRR. Das gibt es durchaus auch in älteren TVs und Monitoren, die offiziell noch kein HDMI 2.1 hatten. Freesync über HDMI (anders als über DisplayPort) ist AMD proprietär.mibbio schrieb:dass ich G-Sync compatible durchaus schon über HDMI an einem Freesync-Monitor verwendet habe.
PS: ChatGPT behauptet zwar was anderes ("No, HDMI FreeSync is not proprietary. AMD developed FreeSync as an open standard that works with HDMI." ) , aber selbst wenn AMD den Standard geöffnet hat, unterstützt es Nvidia trotzdem nicht.
Hier mal ein kleiner ChatGPT Verlauf, bei welchem einem das System eiskalt Unsinn erzählt, wenn man nicht nochmal genauer nachfragt...
unterstützen Nvidia GPUs die Ausgabe von Freesync über HDMI?
4o
4o
Falls du ein Setup hast, bei dem du prüfen möchtest, ob es funktioniert, sag einfach Bescheid.
ChatGPT:
Ja, Nvidia GPUs unterstützen FreeSync über HDMI, aber mit Einschränkungen:- RTX 20-Serie und neuer: Offiziell unterstützt Nvidia FreeSync über HDMI ab den RTX 20-GPUs (Turing) und neuer, einschließlich der RTX 30- und RTX 40-Serie.
- GTX 10-Serie (Pascal): Einige GTX 10-GPUs können FreeSync über HDMI nutzen, aber die Kompatibilität hängt stark vom Monitor ab.
- G-Sync Compatible: Der Monitor muss als G-Sync Compatible zertifiziert oder zumindest mit variabler Bildwiederholrate (VRR) über HDMI kompatibel sein.
- Treiber erforderlich: Du benötigst einen aktuellen Nvidia-Treiber, um FreeSync über HDMI zu aktivieren.
- Manuelle Aktivierung: FreeSync muss sowohl im Monitormenü als auch in der Nvidia-Systemsteuerung unter "G-SYNC-Einstellungen" aktiviert werden.
4o
Du:
Nvida unterstützt aber nur HDMI VRR über HDMI, was nicht Freesync entspricht.ChatGPT:
Ja, genau! Nvidia unterstützt HDMI VRR (Variable Refresh Rate) über HDMI, aber das ist nicht dasselbe wie AMD FreeSync. Hier sind die Unterschiede:1. HDMI VRR vs. FreeSync über HDMI
- HDMI VRR ist ein offizieller Bestandteil des HDMI 2.1-Standards und wird von Nvidia für kompatible Monitore und TVs unterstützt.
- FreeSync über HDMI ist eine proprietäre AMD-Technologie, die auch auf HDMI 2.0 funktioniert, aber von Nvidia nicht direkt unterstützt wird.
2. Welche Nvidia GPUs unterstützen HDMI VRR?
- RTX 3000 & 4000 Serie: Unterstützen HDMI VRR über HDMI 2.1 vollständig.
- RTX 2000 Serie: Unterstützt es ebenfalls, aber nur mit HDMI 2.1-kompatiblen Displays.
- GTX 1000 Serie & ältere GPUs: Kein offizieller Support für HDMI VRR oder FreeSync über HDMI.
3. Funktioniert ein FreeSync-HDMI-Monitor mit Nvidia?
- Wenn der Monitor HDMI VRR unterstützt, dann ja – er kann mit einer Nvidia-GPU variabel aktualisiert werden.
- Wenn der Monitor NUR FreeSync über HDMI unterstützt (kein HDMI VRR), dann wird es mit Nvidia nicht funktionieren.
4o
Du:
Deine erste Antwort ist also falsch, Nvidia kann kein Freesync über HDMI.ChatGPT:
Ja, du hast absolut recht! Nvidia unterstützt kein echtes FreeSync über HDMI, sondern nur HDMI VRR ab HDMI 2.1. Meine erste Antwort war ungenau – danke für die Korrektur!Falls du ein Setup hast, bei dem du prüfen möchtest, ob es funktioniert, sag einfach Bescheid.
Zuletzt bearbeitet:
ragnarok666
Lt. Junior Grade
- Registriert
- Feb. 2008
- Beiträge
- 440
Ohne konkrete Zahlen ist das leider nur Spekulatius; Tensorkerne laufen weder mit Magie noch Luft, wie viel Leistung aber konkret bei DLSS darin verbraten wird scheint niemand außerhalb von Nvidia zu wissen.mibbio schrieb:Mit dem Reduzieren der internen Renderauflösung durch DLSS kann man durchaus mehr Energie einsparen als dann im Gegenzug für das Hochskalieren benötigt wird. Zumal die meisten Spiele im Handheld-Modus sicherlich 60 FPS als Ziel haben, vielleicht einige auch 120 FPS, aber ergibt macht für ein 120 Hz Display ja wenig Sinn. Da wird Upscaling also nicht genutzt, um noch mehr FPS zu bekommen, sondern um zum Erreichen der gleichen Ziel-FPS weniger Rechenleistung zu benötigen, was wiederum den Verbrauch senken kann.
Kannst es ja auch selber am PC mal ausprobieren. Nimm irgendeine Spiel, setze ein 60 FPS Limit und guck dir dann an, wieviel die Grafikkarte jeweils bei 1080p nativ und bei 1080p mit bspw. DLSS Balanced verbraucht - bei ansonsten gleichen Settings. Der Verbauch dürfte bei Letzterem niedriger sein.
Bei Desktop GPUs mit Framelittiter kann es doch sein, dass beim zuschalten von DLSS 100W Leistung bei den Shadern gespart wird, in den Tensorkernen aber dafür jetzt 50W anfallen - in dem Szenario spart man am Desktop Leistung, die Lösung wäre so aber nicht geeignet für eine Mobiles Gerät mit 15W total Power. Und sollte man die Leistungsfähigkeit der Tensorkerne zum Energie sparen unterdimensionieren kann es im schlimmsten Fall dazu kommen dass mit aktiven DLSS die fps sogar sinken, da der Algorithmus zu lange braucht zum ausführen.
zig*zag
Lieutenant
- Registriert
- Mai 2004
- Beiträge
- 701
Ne eben nicht... wir wollen uns ja auch in Sachen Features weiterentwickeln und da ist Leistung das a und o. RT z.B. wird sehr schwierig mit dem Chip werden. Ja er kann es aber ist eben nicht leistungsfähig genug. Ich hab gestern MP4 im Treehouse gesehen. Das wurde in 4k/60fps gespielt aber a.) war hier scheinbar kein DLSS im Einsatz und man hat Kantenflimmern noch immer gut sehen können und b.) gab es immer wieder fps Drops. Digital Foundry wird der Sache auf den Grund gehen und dann werden wir sehen was die Leistung der Konsole wirklich bringt. Es sieht aktuell in jedem Fall nach viel Augenwischerei aus, vor allem weil man sich mit den offiziellen Daten sehr bedeckt hält...Galaxytourist schrieb:Die Spiele müssen einfach gut laufen, mehr nicht.
- Registriert
- Juli 2021
- Beiträge
- 3.172
Ob es jetzt die mega duper super realistische Grafik benötigt in den Spielen, sei mal dahin gestellt. Ich hab mit Mario Kart 8 - auch bei dessen Optik - sehr viel Spaß gehabt. Ich hab mich erst jetzt in den letzten 2 Wochen der Brutal-Challange in SC 2 gestellt und hatte mega viel Spaß. Heute Abend werde ich mal wieder Bio Schock anwerfen.Boimler schrieb:Bei einem neuen Zelda oder ähnlichem Open World Spiel ist die dynamische Beleuchtung sicher von Vorteil, aber bei Mario Kart muss ich jetzt kein RT für den Spielspaß haben.
Ich bin, was Grafik angeht, eh der Meinung, dass der Stil passen muss, nicht dass es die besten und tollsten Effekte hat.
Anders skaliert auf jeden Fall, das mit dem Besser kommt darauf an. Wobei bei PathTracing allgemein versucht wird den Aufwand "überschaubar" zu halten, weil mit Väterchen Zufall gearbeitet wird.mibbio schrieb:Dazu kommt auch, das die benötigte Rechenleistung für die Licht- & Schattenberechnung bei RT anders/besser skaliert als beim Rasterizing.
Das "interessante" bei RayTracing ist, dass gerade was Licht- und Schatten angeht, die Rechenleistung sogar relativ konstant bleibt, egal wie viele Lichtquellen du nun verwendest.mibbio schrieb:Raytraving benötigt zwar initial erstmal relativ viel Rechenleistung, der Bedarf bleibt dann aber weitestgehend konstant, egal wie viele (dynamische) Lichtquellen oder wie viele Objekte in der Szene einen Schatten werfen.
Was bei RayTracing auf die Rechenleistung geht, sind die Bounces - als Sprünge/Reflexionen - und wie viele da am Ende zusammen kommen. Jetzt muss man wissen, dass jede Oberfläche "reflektiert" - was dann ja in den Light/Shadow-Rays (Sekundärstrahlen) mündet. Je nach dem, wie viele Bounces man hier vornimmt, umso mehr Leistung wird benötigt.
Das ist so nicht richtig. Man fängt zwar initial in der Regel mit der gleichen Menge an strahlen an, doch die finale Menge an Strahlen hängt von der Anzahl der Bounces ab, die der RayTracer bzw. PathTracer nutzt.mibbio schrieb:Einfach weil man unabhängig davon immer die gleiche Menge Strahlen berechnet.
PathTracer versuchen die Anzahl der Strahlen durch Zufall und den Monte Carlo-Effekt zu reduzieren, so dass nicht für jede Lichtquelle ein sekundärstrahl genutzt wird, weil eine Annäherung reicht. Aber auch beim PathTracer hängt die finale Anzahl an Strahlen von den Bounces ab, die angewendet werden.
Das auf jeden Fall. DAs ist ja auch das was ich seit quasi 3 Jahren hier immer wieder zu RT schreibe. Wenn man bei Rasterizer eine ähnliche Qualität und Dynamik wie bei RT haben will, dann nimmt die Rechenleistung massiv zu und zwar sogar noch stärker als mit RT.mibbio schrieb:Da ist dann irgendwann ein Punkt erreicht, ab dem RT effizienter ist als Rasterizing für diese Berechnungen.
Bei Spiegelungen: Entweder man setzt Dynamik, verliert dabei aber Qualität. Will man Qualität, verliert man eine gewisse Dynamik bei Screen Space Reflections (nur was für Spieler sichtbar ist. Will man volle Dynamik und Qualität, müssen weitere Rendertargets für die jeweilige spielgende Fläche aufgemacht werden, was die zu berechnen Pixel draßtisch ansteigen lässt.
Bei Schatten ist es auch so eine Sache: Entweder harte oder weiche Schatten. Eine wirklich realistische Darstellung mit einem Übergang von HArt zu Weiche, ist kaum bis nicht möglich,. oder kostet wieder massiv an Rechenleistung.
Bei dynamischen Lichtquellen, das gleiche Spiel, dazu kommt, dass die "Globalebeleuichtung" teilweise für mehre Frames vorgerechnet werden muss, so dass Updates nur alle paar Sekunden möglich sind, während die dnymaischen Lichtquellen nur bestimmte Assets beinflussen und ab gewissen Anzahlen der Rechenbedarf stark steigt.
- Registriert
- Dez. 2014
- Beiträge
- 9.356
@DevPandi
Hab in letzter Zeit auch wieder SC2 gezockt (viel Arcade aber auch coop und 1v1) und es sieht halt gut aus. Da brauchst und alles passt. RT vermisse ich da nicht. Bei einem Rennspiel kann es schön sein, aber ich achte da bei Forza nicht drauf.
Es kommt halt wirklich auf den artstyle und das Spielkonzept an.
Wie es sich weiterentwickelt werden wir sehen. Ich bin aber der Meinung, dass die Leistung erstmal erschwinglich werden muss bevor wir das überall sehen werden.
Hab in letzter Zeit auch wieder SC2 gezockt (viel Arcade aber auch coop und 1v1) und es sieht halt gut aus. Da brauchst und alles passt. RT vermisse ich da nicht. Bei einem Rennspiel kann es schön sein, aber ich achte da bei Forza nicht drauf.
Es kommt halt wirklich auf den artstyle und das Spielkonzept an.
Wie es sich weiterentwickelt werden wir sehen. Ich bin aber der Meinung, dass die Leistung erstmal erschwinglich werden muss bevor wir das überall sehen werden.
Four2Seven
Lt. Commander
- Registriert
- Okt. 2011
- Beiträge
- 1.033
Ich habe meine Switch Lite (damals 179,--), die wird manchmal rausgeholt und für alles aufwändigere bzw "nicht-Nintendo" ein refurbished Steam Deck (379,--), wobei Ryujinx gut drauf läuft.
DLSS = man rendert in der Auflösung von 2005 und bläst es zu FullHD/4K auf.
Mache ich aber am PC (FSR) nicht anders, rendern in FullHD, Ausgabe in 4K.
DLSS = man rendert in der Auflösung von 2005 und bläst es zu FullHD/4K auf.
Mache ich aber am PC (FSR) nicht anders, rendern in FullHD, Ausgabe in 4K.
Ich finde das echt nicht okay von dir, mit Fakten um die Ecke zu kommen.Kaufmannsladen schrieb:OT, aber die DM hatte eine deutlich höhere Inflation als der Euro
Das versaut einem die ganzen Stammtisch und Springer"Presse" Argumente.
Ergänzung ()
Die letzteren beiden waren schon nette Geräte, haben aber Batterien im Stundentakt gefressen. Die besseren und auch viel mehr Spiele gab es am GBGenoo schrieb:hats dich gestört das du Pokemon auf dem Gameboy ohne Farbe gezockt hast obwohl es Sega GameGear und Atari Lynx mit Farbdisplay und besserer Grafik gegeben hat?
Ergänzung ()
Das kann sein.ThePlayer schrieb:Mit dieser Aussage bist du hier im falschen forum. Das ist hier ein Technikforum.
Aber locker 90%+ hier kaufen sich ihre Technik um damit zu spielen.....
Ergänzung ()
Nein, keinen Aufschlag.Ruff_Ryders88 schrieb:Ich lese hier in Memes, dass Nintendo für physische Games einen Aufschlag von 89 USD haben will??
Waren ja 150$ und mehr.
Zuletzt bearbeitet:
slogen schrieb:Ich möchte stationär mit mehr Leistung, leise, ProController und meinen OLED Fernseher
Ich stimme da zu, ich habe keinen Nutzen für Handhelds mit Akkus die irgendwann sterben.
Ich bin kein großer Nintendo Gamer aber wenn solch eine Stationäre Konsole mit geringerem Preis oder mehr Leistung käme (selber Chip, deutlich mehr Power dank Kühlung und Netzbetrieb) wäre ich wieder dabei.
Mr. Amboss
Cadet 4th Year
- Registriert
- Mai 2016
- Beiträge
- 80
Eieiei, woher kommt denn der viele Hass? Die Kernaussage im Artikel ist doch vollkommen richtig: Hardware-Specs machen keinen Spielspaß.
Tolle Spiele, auf die Hardware abgestimmt, machen Spielspaß.
Das hat die Switch 1, ob "Gurke" oder "erbärmliches Stück Hardware" wie sie hier auch bezeichnet wurde, eindrucksvoll unter Beweis gestellt. Ich habe seit dem N64 auf keiner Konsole mehr so viel Spielzeit gehabt, wie auf der Switch. Sie ist aus meiner Sicht, die beste Konsole, die jemals das Licht der Welt erblicht hat (Achtung! Persönliche Meinung
). Die Verkaufszahlen geben mir bis auf die PS2 einigermaßen Recht. Gerade am Zocken und die Frau will fernsehen? Switch in die Hand genommen und gemeinsam aufs Sofa gekuschelt - jeder zufrieden, um nur ein Beispiel zu nennen.
Und ja, ich hatte seiner Zeit auch einen Gaming PC mit RTX 3090 und anschließend 4090 zuhause stehen. Mehr Spaß hatte ich an der Switch.
Tolle Spiele, auf die Hardware abgestimmt, machen Spielspaß.
Das hat die Switch 1, ob "Gurke" oder "erbärmliches Stück Hardware" wie sie hier auch bezeichnet wurde, eindrucksvoll unter Beweis gestellt. Ich habe seit dem N64 auf keiner Konsole mehr so viel Spielzeit gehabt, wie auf der Switch. Sie ist aus meiner Sicht, die beste Konsole, die jemals das Licht der Welt erblicht hat (Achtung! Persönliche Meinung

Und ja, ich hatte seiner Zeit auch einen Gaming PC mit RTX 3090 und anschließend 4090 zuhause stehen. Mehr Spaß hatte ich an der Switch.
finde ich auch unglaublich. meine gtx 970 kann auch 120fps desktop... hat es nun auch die leistung einer 5090? xD nvidia at its finestonkuri schrieb:Erschreckend, wie ungestraft solche riesen Unternehmen solch dreiste Lügen verbreiten dürfen. Dieselbe Lüge wie 5070=4090 Performance. Widerlich.
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.474
Bezogen auf meine 120p Aussage. Kontext und soQuidproquo77 schrieb:Die Technologie ist super, aber sieht aus wie Dreck? Wie passt das zusammen?

Dass DLSS per se ein super Mehrwert ist stelle ich nicht in Abrede. Nur mir das als "10x mehr Leistung!!!" zu verkaufen ist einfach gelogen. Genauso wie die 5070 = 4090 Claims. Hochverarbeitetes Essen wird auch nicht gesünder auch "wenns schmeckt??".
Der 9800X3D war in deinen Augen genauso schlecht lieferbar ? Genauso massiv überteuert ? Nach einem Monat konnte den jeder haben zur UVP. Ich habe für einen Freund selbst einen bestellt ein paar Tage nach Launch und problemlos binnen einer Woche einen bekommen UNTER UVP für 450 Tacken. Wo ist das bei einer 5090 der Fall ? Zeig bitte, aber zügig.Quidproquo77 schrieb:Folien oder Marketingaussagen, Launchprobleme, fehlende Verfügbarkeit, das ist ja alles nicht Nvidia exclusiv, sondern ist regelmäßig so. 9800X3D?
Vom 9800X3D kamen hunderte, teils tausende Einheiten zu den jeweiligen Händlern. Von der 5090 kamen vielleicht hundert zum Launch rein bei Digitec für einen knappen Monat. Wo ist das genau vergleichbar ?
Stimmt, aber einen Kühler neu montieren, pasten etc. kriege ich hin. Kann ich mir auch selbst die ROPSs hinbasteln ? Oder eine abgebrannte Karte ? Unschön, ja, aber gegenüber den Problemen des Blackwell Launches einfach gar kein Vergleich.Quidproquo77 schrieb:Bei den AMD Karten gibt es doch aus "Probleme" bei einem gewissen Prozentsatz an GPUs mit extremen Hot Spots, über das wird eben nicht so offensiv berichtet, als über die fehlenden ROPS, was ja schon länger kein Problem mehr ist.
Wir haben hier AMD mit Hotspot Problemen auf manchen Karten. Gut. Ein Punkt. Demgegenüber steht nVidia mit:
- 32 bit PhysX support weg
- Schmelzende Stecker durch mieses Design auf der Platine
- Fake MSRP / Lieferbarkeit kaum gegeben
- Fake Claims (5070 = 4090)
- Rumgelüge mit "erfolgreichster Launch ever" aber dann vier Karten mit nichtmal zweien der Vorgänger vergleichen, der sich somit pro Modell weit besser verkauft hat (120K Units von der 4090 allein im ersten Quartal). Sie haben unterm Strich also fast vier mal weniger liefern können und wollen das auf vier Karten verteilt als Win verkaufen.
- fehlende ROPs
- Blackscreens und Treiberprobleme zum Start
Die Generation war der mieseste Launch den nVidia seit über einer Dekade hingelegt hat.
Mr. Amboss schrieb:Ich habe seit dem N64 auf keiner Konsole mehr so viel Spielzeit gehabt, wie auf der Switch. Sie ist aus meiner Sicht, die beste Konsole, die jemals das Licht der Welt erblicht hat (Achtung! Persönliche Meinung).
Mir hätten die 30 fps den Spaß verdorben. Insofern wäre die Switch 2 schon deutlich interessanter für mich, wenn ich häufig reisen würde.
Zum Glück gibt es Zelda-Alternativen für den PC, die auch nicht mit zerbrechenden Waffen nerven. Somit kein Bedarf.