• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Nvidia zur Nintendo Switch 2: 10× mehr Leistung mit DLSS, Raytracing sowie G-Sync

elefant schrieb:
Kann mich nicht beschweren, beide Zelda Titel liefen gut und haben eine Menge Spaß gemacht.
Rein objektiv gesehen liefen die nicht gut. Geringe Auflösung, einbrechende Frameraten. Zugegeben ich konnte mich aber auch daran gewöhnen und trotzdem an den beiden Spielen Spass haben.
 
  • Gefällt mir
Reaktionen: FoXX87, ragnarok666, edenjung und eine weitere Person
Loopman schrieb:
Und hier mal ein kurzer BS-Überblick alleine auf den ersten beiden Seiten.

1. verstehen manche Leute eventuell den Unterschied Nvidia - Nintendo nicht. Das ist NICHT die gleiche Firma 😉
2. wollen einige scheinbar hier ganz dringend im BS-Bingo einen Preis gewinnen. Hauptsache mal so alles vom Stammtisch in ein Posting verfrachtet.

Es geht darum wie nVidia ihren Chip darstellen und übertreiben erneut wie mit der 4090/5070 Thematik. 10x Leistung hahaha, das ich nicht lache... Sie haben bisher ja nichtmal angekündigt was für ein Tegra es ist, vermutlich weil die Rohleistung weit unter 10x liegt.

Also Junge alles andere als BS...... die Leistung muss erstmal bewiesen werden ehe ich deren Darstellung auch nur annähernd glaube.
 
  • Gefällt mir
Reaktionen: icetom
zig*zag schrieb:
Also Junge alles andere als BS...... die Leistung muss erstmal bewiesen werden ehe ich deren Darstellung auch nur annähernd glaube
Die Spiele müssen einfach gut laufen, mehr nicht.
 
  • Gefällt mir
Reaktionen: og22
Beschi schrieb:
G-Sync Kompatible ist Freesync
Gsync Compatible ist bei TVs ausschließlich HDMI 2.1 VRR. Das Gsync Compatible = Freesync (Vesa Adaptive Sync) gilt nur für Displayport. Freesync via HDMI kann Nvidia gar nicht.

Da viele TVs jetzt aber HDMI VRR können, können viele auch "Gsync". Echtes Gsync mit Modul gibt es für quasi keinen TV.

Ich bin sehr gespannt auf die Dockingstation, ob diese auch HDMI VRR / Gsync zum TV kann. Die Switch nutzt ja USB-C zur Ausgabe und bisher wäre mir kein einziger DP zu HDMI Wandler bekannt, welcher wirklich VRR könnte. Bei manchen DP zu HDMI Adaptern ist zwar Gsync/Freesync auswählbar, aber es funktioniert nicht. VRR wird im TecSpec der Switch für den externen Output auch nicht gelistet, anders als beim internen Display. https://www.nintendo.com/us/gaming-systems/switch-2/tech-specs/

Aber kann natürlich sein, dass Nintendo hier eine besondere Lösung hat und nativ HDMI über USB-C ausgeben kann.

EDIT:
Nvidia notes that G-Sync is only supported in handheld mode and not in docked mode, which could be a limitation of the Switch dock's HDMI port.
https://arstechnica.com/gadgets/202...-sync-and-ray-tracing/?utm_source=chatgpt.com
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beschi und Alphanerd
elefant schrieb:
Da laufen Mario, Link und Co. bestimmt super drauf ...
Also ich tausche Link gerne gegen den Fuchs von Tunic.
Tunic-Games-Culture.webp


Ich liebe das Spiel einfach. So müssen wohl die Zelda Spiele der Vergangenheit gewesen sein ^^
Und der Fuchs ist so knuffig. Genau wie der Rest des Spiels.

Und Mario Kart ersetze ich durch Crash Team Racing. Bockt auch. Für alles andere gibts Batocera auf einem Stick oder auf meinem Thinclient.
Aber sonst wüsste ich nicht, was mich anturnen sollte bei Nintendo. Pokemon? Hab ich noch für meinen Advance Sp, das langt.
Kommt halt wirklich drauf an was man zocken will. Und da reizen mich die Exkusiven Titel von Nintendo dann doch nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ragnarok666
Na dann hoffe ich mal auf eine neue Shield TV Pro... so langsam kommt die 2019er an ihre Grenzen!
 
  • Gefällt mir
Reaktionen: nospherato
cvzone schrieb:
Gsync Compatible ist bei TVs ausschließlich HDMI 2.1 VRR. Das Gsync Compatible = Freesync (Vesa Adaptive Sync) gilt nur für Displayport. Freesync via HDMI kann Nvidia gar nicht.
Mich mag meine Erinnerung jetzt trügen, aber ich bin mir ziemlich sicher, dass ich G-Sync compatible durchaus schon über HDMI an einem Freesync-Monitor verwendet habe.
 
mibbio schrieb:
dass ich G-Sync compatible durchaus schon über HDMI an einem Freesync-Monitor verwendet habe.
Dann konnte der wohl auch HDMI VRR. Das gibt es durchaus auch in älteren TVs und Monitoren, die offiziell noch kein HDMI 2.1 hatten. Freesync über HDMI (anders als über DisplayPort) ist AMD proprietär.

PS: ChatGPT behauptet zwar was anderes ("No, HDMI FreeSync is not proprietary. AMD developed FreeSync as an open standard that works with HDMI." ) , aber selbst wenn AMD den Standard geöffnet hat, unterstützt es Nvidia trotzdem nicht.

Hier mal ein kleiner ChatGPT Verlauf, bei welchem einem das System eiskalt Unsinn erzählt, wenn man nicht nochmal genauer nachfragt...

unterstützen Nvidia GPUs die Ausgabe von Freesync über HDMI?

ChatGPT:​

Ja, Nvidia GPUs unterstützen FreeSync über HDMI, aber mit Einschränkungen:

  1. RTX 20-Serie und neuer: Offiziell unterstützt Nvidia FreeSync über HDMI ab den RTX 20-GPUs (Turing) und neuer, einschließlich der RTX 30- und RTX 40-Serie.
  2. GTX 10-Serie (Pascal): Einige GTX 10-GPUs können FreeSync über HDMI nutzen, aber die Kompatibilität hängt stark vom Monitor ab.
  3. G-Sync Compatible: Der Monitor muss als G-Sync Compatible zertifiziert oder zumindest mit variabler Bildwiederholrate (VRR) über HDMI kompatibel sein.
  4. Treiber erforderlich: Du benötigst einen aktuellen Nvidia-Treiber, um FreeSync über HDMI zu aktivieren.
  5. Manuelle Aktivierung: FreeSync muss sowohl im Monitormenü als auch in der Nvidia-Systemsteuerung unter "G-SYNC-Einstellungen" aktiviert werden.
Hast du einen bestimmten Monitor oder eine bestimmte GPU im Blick? Dann kann ich dir genauer sagen, ob es funktioniert. 😊
4o

Du:​

Nvida unterstützt aber nur HDMI VRR über HDMI, was nicht Freesync entspricht.

ChatGPT:​

Ja, genau! Nvidia unterstützt HDMI VRR (Variable Refresh Rate) über HDMI, aber das ist nicht dasselbe wie AMD FreeSync. Hier sind die Unterschiede:

1. HDMI VRR vs. FreeSync über HDMI

  • HDMI VRR ist ein offizieller Bestandteil des HDMI 2.1-Standards und wird von Nvidia für kompatible Monitore und TVs unterstützt.
  • FreeSync über HDMI ist eine proprietäre AMD-Technologie, die auch auf HDMI 2.0 funktioniert, aber von Nvidia nicht direkt unterstützt wird.

2. Welche Nvidia GPUs unterstützen HDMI VRR?

  • RTX 3000 & 4000 Serie: Unterstützen HDMI VRR über HDMI 2.1 vollständig.
  • RTX 2000 Serie: Unterstützt es ebenfalls, aber nur mit HDMI 2.1-kompatiblen Displays.
  • GTX 1000 Serie & ältere GPUs: Kein offizieller Support für HDMI VRR oder FreeSync über HDMI.

3. Funktioniert ein FreeSync-HDMI-Monitor mit Nvidia?

  • Wenn der Monitor HDMI VRR unterstützt, dann ja – er kann mit einer Nvidia-GPU variabel aktualisiert werden.
  • Wenn der Monitor NUR FreeSync über HDMI unterstützt (kein HDMI VRR), dann wird es mit Nvidia nicht funktionieren.
Hast du einen bestimmten Monitor oder eine GPU, für die du das prüfen willst? 😊
4o

Du:​

Deine erste Antwort ist also falsch, Nvidia kann kein Freesync über HDMI.

ChatGPT:​

Ja, du hast absolut recht! Nvidia unterstützt kein echtes FreeSync über HDMI, sondern nur HDMI VRR ab HDMI 2.1. Meine erste Antwort war ungenau – danke für die Korrektur!

Falls du ein Setup hast, bei dem du prüfen möchtest, ob es funktioniert, sag einfach Bescheid.
 
Zuletzt bearbeitet:
mibbio schrieb:
Mit dem Reduzieren der internen Renderauflösung durch DLSS kann man durchaus mehr Energie einsparen als dann im Gegenzug für das Hochskalieren benötigt wird. Zumal die meisten Spiele im Handheld-Modus sicherlich 60 FPS als Ziel haben, vielleicht einige auch 120 FPS, aber ergibt macht für ein 120 Hz Display ja wenig Sinn. Da wird Upscaling also nicht genutzt, um noch mehr FPS zu bekommen, sondern um zum Erreichen der gleichen Ziel-FPS weniger Rechenleistung zu benötigen, was wiederum den Verbrauch senken kann.

Kannst es ja auch selber am PC mal ausprobieren. Nimm irgendeine Spiel, setze ein 60 FPS Limit und guck dir dann an, wieviel die Grafikkarte jeweils bei 1080p nativ und bei 1080p mit bspw. DLSS Balanced verbraucht - bei ansonsten gleichen Settings. Der Verbauch dürfte bei Letzterem niedriger sein.
Ohne konkrete Zahlen ist das leider nur Spekulatius; Tensorkerne laufen weder mit Magie noch Luft, wie viel Leistung aber konkret bei DLSS darin verbraten wird scheint niemand außerhalb von Nvidia zu wissen.

Bei Desktop GPUs mit Framelittiter kann es doch sein, dass beim zuschalten von DLSS 100W Leistung bei den Shadern gespart wird, in den Tensorkernen aber dafür jetzt 50W anfallen - in dem Szenario spart man am Desktop Leistung, die Lösung wäre so aber nicht geeignet für eine Mobiles Gerät mit 15W total Power. Und sollte man die Leistungsfähigkeit der Tensorkerne zum Energie sparen unterdimensionieren kann es im schlimmsten Fall dazu kommen dass mit aktiven DLSS die fps sogar sinken, da der Algorithmus zu lange braucht zum ausführen.
 
Sehr geil, RTX 4090 Performance für 470 €. Danke Nvidia. Wenn das so weitergeht, bekommen wir in Zukunft die Leistung für den Preis eines Schlüsselanhängers.
 
  • Gefällt mir
Reaktionen: Alphanerd
Galaxytourist schrieb:
Die Spiele müssen einfach gut laufen, mehr nicht.
Ne eben nicht... wir wollen uns ja auch in Sachen Features weiterentwickeln und da ist Leistung das a und o. RT z.B. wird sehr schwierig mit dem Chip werden. Ja er kann es aber ist eben nicht leistungsfähig genug. Ich hab gestern MP4 im Treehouse gesehen. Das wurde in 4k/60fps gespielt aber a.) war hier scheinbar kein DLSS im Einsatz und man hat Kantenflimmern noch immer gut sehen können und b.) gab es immer wieder fps Drops. Digital Foundry wird der Sache auf den Grund gehen und dann werden wir sehen was die Leistung der Konsole wirklich bringt. Es sieht aktuell in jedem Fall nach viel Augenwischerei aus, vor allem weil man sich mit den offiziellen Daten sehr bedeckt hält...
 
Boimler schrieb:
Bei einem neuen Zelda oder ähnlichem Open World Spiel ist die dynamische Beleuchtung sicher von Vorteil, aber bei Mario Kart muss ich jetzt kein RT für den Spielspaß haben.
Ob es jetzt die mega duper super realistische Grafik benötigt in den Spielen, sei mal dahin gestellt. Ich hab mit Mario Kart 8 - auch bei dessen Optik - sehr viel Spaß gehabt. Ich hab mich erst jetzt in den letzten 2 Wochen der Brutal-Challange in SC 2 gestellt und hatte mega viel Spaß. Heute Abend werde ich mal wieder Bio Schock anwerfen.

Ich bin, was Grafik angeht, eh der Meinung, dass der Stil passen muss, nicht dass es die besten und tollsten Effekte hat.
mibbio schrieb:
Dazu kommt auch, das die benötigte Rechenleistung für die Licht- & Schattenberechnung bei RT anders/besser skaliert als beim Rasterizing.
Anders skaliert auf jeden Fall, das mit dem Besser kommt darauf an. Wobei bei PathTracing allgemein versucht wird den Aufwand "überschaubar" zu halten, weil mit Väterchen Zufall gearbeitet wird.
mibbio schrieb:
Raytraving benötigt zwar initial erstmal relativ viel Rechenleistung, der Bedarf bleibt dann aber weitestgehend konstant, egal wie viele (dynamische) Lichtquellen oder wie viele Objekte in der Szene einen Schatten werfen.
Das "interessante" bei RayTracing ist, dass gerade was Licht- und Schatten angeht, die Rechenleistung sogar relativ konstant bleibt, egal wie viele Lichtquellen du nun verwendest.

Was bei RayTracing auf die Rechenleistung geht, sind die Bounces - als Sprünge/Reflexionen - und wie viele da am Ende zusammen kommen. Jetzt muss man wissen, dass jede Oberfläche "reflektiert" - was dann ja in den Light/Shadow-Rays (Sekundärstrahlen) mündet. Je nach dem, wie viele Bounces man hier vornimmt, umso mehr Leistung wird benötigt.
mibbio schrieb:
Einfach weil man unabhängig davon immer die gleiche Menge Strahlen berechnet.
Das ist so nicht richtig. Man fängt zwar initial in der Regel mit der gleichen Menge an strahlen an, doch die finale Menge an Strahlen hängt von der Anzahl der Bounces ab, die der RayTracer bzw. PathTracer nutzt.

PathTracer versuchen die Anzahl der Strahlen durch Zufall und den Monte Carlo-Effekt zu reduzieren, so dass nicht für jede Lichtquelle ein sekundärstrahl genutzt wird, weil eine Annäherung reicht. Aber auch beim PathTracer hängt die finale Anzahl an Strahlen von den Bounces ab, die angewendet werden.
mibbio schrieb:
Da ist dann irgendwann ein Punkt erreicht, ab dem RT effizienter ist als Rasterizing für diese Berechnungen.
Das auf jeden Fall. DAs ist ja auch das was ich seit quasi 3 Jahren hier immer wieder zu RT schreibe. Wenn man bei Rasterizer eine ähnliche Qualität und Dynamik wie bei RT haben will, dann nimmt die Rechenleistung massiv zu und zwar sogar noch stärker als mit RT.

Bei Spiegelungen: Entweder man setzt Dynamik, verliert dabei aber Qualität. Will man Qualität, verliert man eine gewisse Dynamik bei Screen Space Reflections (nur was für Spieler sichtbar ist. Will man volle Dynamik und Qualität, müssen weitere Rendertargets für die jeweilige spielgende Fläche aufgemacht werden, was die zu berechnen Pixel draßtisch ansteigen lässt.

Bei Schatten ist es auch so eine Sache: Entweder harte oder weiche Schatten. Eine wirklich realistische Darstellung mit einem Übergang von HArt zu Weiche, ist kaum bis nicht möglich,. oder kostet wieder massiv an Rechenleistung.

Bei dynamischen Lichtquellen, das gleiche Spiel, dazu kommt, dass die "Globalebeleuichtung" teilweise für mehre Frames vorgerechnet werden muss, so dass Updates nur alle paar Sekunden möglich sind, während die dnymaischen Lichtquellen nur bestimmte Assets beinflussen und ab gewissen Anzahlen der Rechenbedarf stark steigt.
 
  • Gefällt mir
Reaktionen: Millennial_24K, Boimler und Brrr
@DevPandi
Hab in letzter Zeit auch wieder SC2 gezockt (viel Arcade aber auch coop und 1v1) und es sieht halt gut aus. Da brauchst und alles passt. RT vermisse ich da nicht. Bei einem Rennspiel kann es schön sein, aber ich achte da bei Forza nicht drauf.
Es kommt halt wirklich auf den artstyle und das Spielkonzept an.

Wie es sich weiterentwickelt werden wir sehen. Ich bin aber der Meinung, dass die Leistung erstmal erschwinglich werden muss bevor wir das überall sehen werden.
 
  • Gefällt mir
Reaktionen: Brrr
Ich habe meine Switch Lite (damals 179,--), die wird manchmal rausgeholt und für alles aufwändigere bzw "nicht-Nintendo" ein refurbished Steam Deck (379,--), wobei Ryujinx gut drauf läuft.

DLSS = man rendert in der Auflösung von 2005 und bläst es zu FullHD/4K auf.

Mache ich aber am PC (FSR) nicht anders, rendern in FullHD, Ausgabe in 4K.
 
Kaufmannsladen schrieb:
OT, aber die DM hatte eine deutlich höhere Inflation als der Euro
Ich finde das echt nicht okay von dir, mit Fakten um die Ecke zu kommen.

Das versaut einem die ganzen Stammtisch und Springer"Presse" Argumente.
Ergänzung ()

Genoo schrieb:
hats dich gestört das du Pokemon auf dem Gameboy ohne Farbe gezockt hast obwohl es Sega GameGear und Atari Lynx mit Farbdisplay und besserer Grafik gegeben hat?
Die letzteren beiden waren schon nette Geräte, haben aber Batterien im Stundentakt gefressen. Die besseren und auch viel mehr Spiele gab es am GB
Ergänzung ()

ThePlayer schrieb:
Mit dieser Aussage bist du hier im falschen forum. Das ist hier ein Technikforum.
Das kann sein.

Aber locker 90%+ hier kaufen sich ihre Technik um damit zu spielen.....
Ergänzung ()

Ruff_Ryders88 schrieb:
Ich lese hier in Memes, dass Nintendo für physische Games einen Aufschlag von 89 USD haben will??
Nein, keinen Aufschlag.

Waren ja 150$ und mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kaufmannsladen
slogen schrieb:
Ich möchte stationär mit mehr Leistung, leise, ProController und meinen OLED Fernseher

Ich stimme da zu, ich habe keinen Nutzen für Handhelds mit Akkus die irgendwann sterben.

Ich bin kein großer Nintendo Gamer aber wenn solch eine Stationäre Konsole mit geringerem Preis oder mehr Leistung käme (selber Chip, deutlich mehr Power dank Kühlung und Netzbetrieb) wäre ich wieder dabei.
 
Eieiei, woher kommt denn der viele Hass? Die Kernaussage im Artikel ist doch vollkommen richtig: Hardware-Specs machen keinen Spielspaß.

Tolle Spiele, auf die Hardware abgestimmt, machen Spielspaß.

Das hat die Switch 1, ob "Gurke" oder "erbärmliches Stück Hardware" wie sie hier auch bezeichnet wurde, eindrucksvoll unter Beweis gestellt. Ich habe seit dem N64 auf keiner Konsole mehr so viel Spielzeit gehabt, wie auf der Switch. Sie ist aus meiner Sicht, die beste Konsole, die jemals das Licht der Welt erblicht hat (Achtung! Persönliche Meinung ;) ). Die Verkaufszahlen geben mir bis auf die PS2 einigermaßen Recht. Gerade am Zocken und die Frau will fernsehen? Switch in die Hand genommen und gemeinsam aufs Sofa gekuschelt - jeder zufrieden, um nur ein Beispiel zu nennen.

Und ja, ich hatte seiner Zeit auch einen Gaming PC mit RTX 3090 und anschließend 4090 zuhause stehen. Mehr Spaß hatte ich an der Switch.
 
  • Gefällt mir
Reaktionen: Alphanerd
onkuri schrieb:
Erschreckend, wie ungestraft solche riesen Unternehmen solch dreiste Lügen verbreiten dürfen. Dieselbe Lüge wie 5070=4090 Performance. Widerlich.
finde ich auch unglaublich. meine gtx 970 kann auch 120fps desktop... hat es nun auch die leistung einer 5090? xD nvidia at its finest
 
Quidproquo77 schrieb:
Die Technologie ist super, aber sieht aus wie Dreck? Wie passt das zusammen?
Bezogen auf meine 120p Aussage. Kontext und so ;)
Dass DLSS per se ein super Mehrwert ist stelle ich nicht in Abrede. Nur mir das als "10x mehr Leistung!!!" zu verkaufen ist einfach gelogen. Genauso wie die 5070 = 4090 Claims. Hochverarbeitetes Essen wird auch nicht gesünder auch "wenns schmeckt??".

Quidproquo77 schrieb:
Folien oder Marketingaussagen, Launchprobleme, fehlende Verfügbarkeit, das ist ja alles nicht Nvidia exclusiv, sondern ist regelmäßig so. 9800X3D?
Der 9800X3D war in deinen Augen genauso schlecht lieferbar ? Genauso massiv überteuert ? Nach einem Monat konnte den jeder haben zur UVP. Ich habe für einen Freund selbst einen bestellt ein paar Tage nach Launch und problemlos binnen einer Woche einen bekommen UNTER UVP für 450 Tacken. Wo ist das bei einer 5090 der Fall ? Zeig bitte, aber zügig.

Vom 9800X3D kamen hunderte, teils tausende Einheiten zu den jeweiligen Händlern. Von der 5090 kamen vielleicht hundert zum Launch rein bei Digitec für einen knappen Monat. Wo ist das genau vergleichbar ?

Quidproquo77 schrieb:
Bei den AMD Karten gibt es doch aus "Probleme" bei einem gewissen Prozentsatz an GPUs mit extremen Hot Spots, über das wird eben nicht so offensiv berichtet, als über die fehlenden ROPS, was ja schon länger kein Problem mehr ist.
Stimmt, aber einen Kühler neu montieren, pasten etc. kriege ich hin. Kann ich mir auch selbst die ROPSs hinbasteln ? Oder eine abgebrannte Karte ? Unschön, ja, aber gegenüber den Problemen des Blackwell Launches einfach gar kein Vergleich.

Wir haben hier AMD mit Hotspot Problemen auf manchen Karten. Gut. Ein Punkt. Demgegenüber steht nVidia mit:

  • 32 bit PhysX support weg
  • Schmelzende Stecker durch mieses Design auf der Platine
  • Fake MSRP / Lieferbarkeit kaum gegeben
  • Fake Claims (5070 = 4090)
  • Rumgelüge mit "erfolgreichster Launch ever" aber dann vier Karten mit nichtmal zweien der Vorgänger vergleichen, der sich somit pro Modell weit besser verkauft hat (120K Units von der 4090 allein im ersten Quartal). Sie haben unterm Strich also fast vier mal weniger liefern können und wollen das auf vier Karten verteilt als Win verkaufen.
  • fehlende ROPs
  • Blackscreens und Treiberprobleme zum Start

Die Generation war der mieseste Launch den nVidia seit über einer Dekade hingelegt hat.
 
Mr. Amboss schrieb:
Ich habe seit dem N64 auf keiner Konsole mehr so viel Spielzeit gehabt, wie auf der Switch. Sie ist aus meiner Sicht, die beste Konsole, die jemals das Licht der Welt erblicht hat (Achtung! Persönliche Meinung ;) ).

Mir hätten die 30 fps den Spaß verdorben. Insofern wäre die Switch 2 schon deutlich interessanter für mich, wenn ich häufig reisen würde.

Zum Glück gibt es Zelda-Alternativen für den PC, die auch nicht mit zerbrechenden Waffen nerven. Somit kein Bedarf.
 
Zurück
Oben