News GeForce Now Ultimate: Server in Frankfurt bieten ab sofort Leistung der RTX 4080

MorbusGon schrieb:
Ich hatte vor wenigen Monaten mal PS Now am PC versucht. In Bloodbourne war es furchtbar. Das Gameplay war einfach zu schnell und die Verzögerung zu groß, weshalb das Timing für Parry oder Dodge sich nicht gut anfühlten. Bei der Cleric Beast war dann Schluss.
Ein aktueller CB-Test dazu wäre super, ob es bei Geforce Now besser ist. Vielleicht auch generell im Vergleich mit den größten Anbietern?
 
Xes schrieb:
Die Knackpunkt für mich sind, dass auf GeforceNow nicht alle PC spiele verfügbar sind, da sich einige Publisher (warum auch immer) quer stellen und dass ich am Rechner noch andere Dinge abseits des zockens mache, wofür ich viel (GPU-)Leistung benötige.
Mods fallen dann wahrscheinlich auch raus, oder?
 
  • Gefällt mir
Reaktionen: fullnewb und Xes
Scythe1988 schrieb:
Ich würde die Frage eher so stellen: wieso kaufen sich alle noch Hardware.....
Weil man gerne bastelt und man nicht noch ein Abo abschliessen möchte.
Wenn das Angebot passt und es Kunden gibt, ist das eine Win-Win Situation.
 
  • Gefällt mir
Reaktionen: MehlstaubtheCat und Slayn
Syrato schrieb:
Wenn das Angebot passt und es Kunden gibt, ist das eine Win-Win Situation.
Nicht zu vergessen die anfallenden Metadaten, die Nvidia so recht einfach sammeln, auswerten und als Analyseergebnisse in Beratungsleistungen etc. einbringen kann.
 
  • Gefällt mir
Reaktionen: FX-Multimedia und FLCL
Vigilant schrieb:
Mods fallen dann wahrscheinlich auch raus, oder?
Stimmt, das vermutlich auch.
Im Prinzip fand ich das Shadow Angebot: "Einfach ein Windows PC in der Cloud, auf spieletaugliche niedrige Latenzen hin optimiert"- am besten. Da sollte dann auch alles laufen und man könnte ihn auch für andere Software (z.B. KI Bildgenerierung usw.) nutzen.

Leider scheint es bei denen finanziell nicht so gut zu laufen und die gebotene Leistung ist mit "GTX 1080 oder gleichwertig" doch recht schwach für 30€ im Monat. Da sitzt Nvidia als Hersteller der Hardware natürlich am längeren Hebel.
 
Ich habe mit der 3080 mal ein Testmonat abgeschlossen aber die Artefakte z.B. bei Guardians of the Galaxy auf 1440p waren mir einfach zu viel des Guten. Ist das nun mit der 4080 noch genauso "schlimm"?
 
  • Gefällt mir
Reaktionen: Czk666
Kal9tz schrieb:
Ich muss ehrlich sagen Cloud gaming wird nie eine alternative
Zumindest für mich

Ich habe eine 250k Leitung und merke spürbare Latenzen bei der Steuerung.
Bei kompetetiven shootern kocht einem das Blut wenn man genau weiß man hat eben doch schon auf Abschuss gedrückt aber es kam nicht durch zur Cloud.
Spieler "kompetetiver Shooter" sind auch sicherlich (noch) nicht die Zielgruppe für einen solchen Dienst.

Kal9tz schrieb:
Cloud gaming = für mich definitiv nichts
Bzw bei dem Gigabit Anschluss den man dafür bräuchte und den damit verbundenen Kosten, Back ich lieber langsamere Brötchen dafür gestochen scharf !
Gigabit ist bei Weitem nicht notwendig. Eine stabile 100 MBit Leitung reicht für die höheren Stufen locker aus. Kommt aber natürlich auch darauf an, ob nebenher noch mehrere VoD Streams im Haus laufen, Backups durchs Netzwerk fliegen und generell wie der Router Pakete managen kann (Stichwort Priorisierung).

Kal9tz schrieb:
Die sollen die gpus lieber in den handeln schleusen
Die Karten in den Server Rigs sind Quadros bzw. deren Server Pendents. Da stecken keine Consumer Karten drin.
 
  • Gefällt mir
Reaktionen: Pelzi, thuering und Atomkeks
seyfhor schrieb:
Wichtig wär jetzt noch in welcher Auflösung.
3440x1440 mit einem Dell AW3423DWF

EDIT:
@Yosh1907
konnte bei meinem gestrigen Test keine Bildartefakte feststellen. Meiner bisherigen Erfahrung liegt das finale Bild sehr stark an der eigenen Internetanbindung.
 
  • Gefällt mir
Reaktionen: aLimp, cruse und Falc410
pitu schrieb:
Competive Mode mit einer Verzögerung von 56/67 ms :D
Immer wieder nice dieses Marketing Geblubber.
Bei einer Playstation hast du von Eingabe bis Ausgabe lokal höhere Latenzen als bei GeForce Now. Trotzdem gibt es dort haufenweise competetive Gamer, die die PC-Master-Race in plattformübergreifenden Spielen eiskalt abziehen...wie kann das nur sein?
 
  • Gefällt mir
Reaktionen: alan_Shore
Weil jeder nunmal sein Vorgehen vor Allem vor sich selbst legitimieren möchte. Da hat man zig tausend Euro in seinen PC investiert und möchte nicht sehen, dass andere auch mit einem Cloud Gaming für einen Bruchteil des Geldes auskommen könnten.

Dabei ist das doch völlig unsinnig.

1. Ein Dienst wie GeForce Now möchte gar nicht mit einem High PC mit RTX 4090 oder 3080 Ti konkurieren. Spieler die sich für 2-4 Tausend Euro PCs bauen sind auch nicht so viele, wie die Hardware enthusiastischen Foristen (zu denen ich mich durchaus auch zähle) gerne glauben. Schaut euch mal bspw. die Steam Hardware Statistiken an. Mit den ganzen High End GPUs sind die Spieler eine totale Minderheit im niedrigen einstelligen Prozentbereich.

2. Die meisten Spieler sind keine Hardware Enthusiasten und keine Core Gamer, sondern Gelegenheitsspieler. Nicht jeder davon kann oder will immer wieder in neue Hardware investieren. Für die Leute ist ein solches Angebot sehr interessant.
 
  • Gefällt mir
Reaktionen: bmf89, Protogonos, Czk666 und 2 andere
Altes Posting dazu:
CDLABSRadonP... schrieb:
Manche hier sind ja sehr zuversichtlich, was Streaming in Zukunft angehen wird.
Bei dieser Zukunftsfrage von Spielestreaming wird oft auch über Nachhaltigkeit gesprochen, so von wegen dann müssen weniger Grakas produziert werden. Ich kann nur davor warnen, es sich da zu leicht zu machen: Das berechnete Bild der Graka muss auch live-encodiert und übertragen werden und das kostet viel Strom bei gleichzeitigem Bildqualitätsverlust gegenüber dem, was im Rechenzentrum berechnet wurde. Im Endeffekt werden Details für die Katz berechnet --- und nicht nur Details, nein, auch Frames werden teilweise für die Katz berechnet, denn manchmal dient die Erhöhung der Framerate ja gar nicht mehr dem mehr sehen, sondern nur noch dem Drücken der Latenzen.

Entsprechend: Malt euch Spielestreaming nicht zu früh zu grün. Die Betrachtungen sind komplex und meines Wissens nach ist noch niemand hingegangen und hat das mal unabhängig von Anbieterselbstdarstellung wirklich ganzheitlich auf den Prüfstand gestellt. Musik- und Videostreaming sind in Punkto Nachhaltigkeit viel einfacher ganzheitlich zu bewerten (dort findet kein Liveencoding statt) als Spielstreaming. Und selbst da ist die bisherige Bewertungspraxis eher dürftig.
https://www.computerbase.de/forum/t...ch-zum-gaming-pc.2056231/page-2#post-26316283
Also: Bzgl. Nachhaltigkeit nicht zu grün, bzgl. Erfahrung (Performance und Bildqualität) nicht zu rosig malen. Wie eben auch schon drinnen stand.
Die Enkodierung des Bildes frisst Bildqualität. Die Übertragung frisst Latenz. Selbst wenn die Hardware 1:1 auf 4080er-Niveau wäre, würde das nicht reichen. Selbst 4090er-Niveau würde für 4080er-Erfahrung nicht reichen.
 
Ich glaube für 20€ teste ich das mal.

Wobei mich das mit den Mods interessiert. Ich würde gerne Witcher 3 Next Gen mit RT spielen, aber eben auch mit meinen Mods.

@Darkblade08

Du hast nicht zufällig Mods bei Witcher 3 installiert?
 
Kunpels nutzen das und sind der zufrieden, ich persönlich spielende wenig das es sich lohnen würde. Falls es mal wieder mehr wird würde ich auch ein Abo machen. Ist auch ne feine Sache wenn man nur mal ein paar Wochen zocken willst z.B. Jahresurlaub oder Sommerferien. Bin ja gespannt wie das weiter geht, Leistung haben ja die Rechenzentren.
 
Habe mir mal die kostenlose Variante gegönnt und die Latenz ist unterirdisch für Shooter, Freitag/Samstag Abend kann ich damit auch nicht zocken weil um Osnabrück herum mein Provider wohl eher stiefmütterlich ausgebaut hat, da kann ich froh sein wenn ein YouTube Video funktioniert.

Wenn Streaming dann lieber Shadow, da kann ich jedes Game nutzen und bin nicht auf Nvidia angewiesen - just sayin'
 
  • Gefällt mir
Reaktionen: Flywolf
CDLABSRadonP... schrieb:
Altes Posting dazu:

https://www.computerbase.de/forum/t...ch-zum-gaming-pc.2056231/page-2#post-26316283
Also: Bzgl. Nachhaltigkeit nicht zu grün, bzgl. Erfahrung (Performance und Bildqualität) nicht zu rosig malen. Wie eben auch schon drinnen stand.
Die Enkodierung des Bildes frisst Bildqualität. Die Übertragung frisst Latenz. Selbst wenn die Hardware 1:1 auf 4080er-Niveau wäre, würde das nicht reichen. Selbst 4090er-Niveau würde für 4080er-Erfahrung nicht reichen.
Live Video Encoding ist doch heutzutage ein gelöstes Problem und braucht auch nicht so viel Rechenleistung wie du hier darstellst. Dafür gibt es dedizierte Chips/Rechenkerne auf heutiger Hardware. Video Encoder haben ja sogar Smartphones mit ihren begrenzten Energiebudgets. Der Rest des Server Racks dürfte da schon signifikanter sein.

Dann darf man auch kalkulieren, dass das Speichern eines Spieles von gerne mal bis zu 100 GB und mehr auch Energie kostet und es entsprechend skaliert, wenn jeder Spieler eine separate Kopie vorhalten muss ggü. weniger Kopien für die Server.

Es ist sicherlich mal wert ordentlich kalkuliert zu werden.
 
  • Gefällt mir
Reaktionen: ZeusTheGod
Darkblade08 schrieb:
EDIT:
@Yosh1907
konnte bei meinem gestrigen Test keine Bildartefakte feststellen. Meiner bisherigen Erfahrung liegt das finale Bild sehr stark an der eigenen Internetanbindung.

Kann ich bestätigen - habe gestern Abend diverse Spiele mal angetestet (VDSL100 sowohl mit Ethernet als auch WLAN 5GHz) und hatte über mehrere Stunden mit Ausnahme ein paar Aussetzer keinerlei Probleme. Sowohl die Qualität als auch von der Latenz habe ich persönlich jetzt keinen Unterschied gemerkt. Das Bild war knackscharf und Eingaben wurden ohne spürbare Verzögerung direkt umgesetzt.

Latenz Ethernet: ~9-10 MS
Latenz WLAN 5 GHz: 11-12 MS

Gespielt wurde: Cyberpunkt 2077, AC Valhalla, Fac Cry 6, Assetto Corsa Competizione und NFS HEAT.

Die Aussetzer hingen aber auch weniger mit dem Dienst GeForce NOW zusammen, sondern eher mit meiner VDSL100 Leitung, wovon effektiv lediglich ~60 im Schnitt ankommen. Allerdings schwankt meine verfügbare Bandbreite teilweise heftig, so dass es dann eben zu Aussetzern kommt. Nächste Woche Montag gibt es Gigabit Glasfaser, da werde ich das Ganze nochmal erneut auf Herz und Nieren testen. An der Bandbreite sollte es dann ja eigentlich nicht mehr scheitern.

Also ich muss wirklich sagen, dass mich das Ganze schon beeindruckt. Anzumerken sei zudem auch noch, dass mit dem neuen AV1 Codec Schwarz auch endlich Schwarz ist und nicht mehr in die Richtung von Grau geht.

Ach, eine Sache fällt mir noch ein: Mit dem Free Abo (@Diablokiller999) habe ich übrigens genau die gegenteiligen Erfahrungen gemacht, das lief überhaupt nicht gut. Laggs, Artefakte und die Qualität ließen zu Wünschen übrig. Erst seitdem ich das Ultimate Abo in Anspruch genommen habe, lief das Ganze erst so wirklich richtig gut bei mir.
 
  • Gefällt mir
Reaktionen: jabberwalky, ZeusTheGod, BlinkBlink und 3 andere
Syrato schrieb:
Frage an die Nutzer/innen: für was nutzt ihr es (zuhause, unterwegs usw.) und wenn es sich für euch lohnt, weshalb?
Nutze es über den firetv stick von Amazon um auf dem Wohnzimmer TV zu spielen, hauptsächlich Controllergames. Spart Strom und die Hardware umgerechnet, ist ,find ich, vom Preis attraktiv.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Syrato
@Exit666
Auf meiner lokalen Install ja, aber wenn ich mich nicht irre, sind Mods mit Geforce NOW nicht möglich, da du das Spiel ja auf deren Servern ausführst.

Das wäre bei ein paar Spielen durchaus ein Nachteil für mich, wobei die Spiele, die ich gemoddet spiele eh locker auf meiner Kiste laufen.

Um also den ein oder anderen Titel mit maximalen Raytracing zu genießen, ist die Umsetzung durchaus beindruckend.
 
  • Gefällt mir
Reaktionen: Exit666
Fujiyama schrieb:
Ist auch ne feine Sache wenn man nur mal ein paar Wochen zocken willst z.B. Jahresurlaub oder Sommerferien.
Das scheint mir auch die interessanteste Möglichkeit zu sein. Wenn man gar nicht so viel Zeit hat und gar nicht so viele für einen interessante Spiele erscheinen, dann lohnt sich eine dicke Karte, die aber nur für 1-2 Spiele pro Jahr benötigt wird, gar nicht mehr.

Wenn Mods nicht funktionieren und das je nach Leitung und Leitungsauslastung rumzickt, ist das für mich aber noch nichts.
Da schraube ich lieber die Grafik etwas runter und spiele mit meiner 1080 weiter, so lange das einigermaßen funktioniert.
 
  • Gefällt mir
Reaktionen: jabberwalky und BlinkBlink
kelevrax schrieb:
Live Video Encoding ist doch heutzutage ein gelöstes Problem und braucht auch nicht so viel Rechenleistung wie du hier darstellst. Dafür gibt es dedizierte Chips/Rechenkerne auf heutiger Hardware. Video Encoder haben ja sogar Smartphones mit ihren begrenzten Energiebudgets. Der Rest des Server Racks dürfte da schon signifikanter sein.
Performancetechnisch ist es gelöst, bildqualitativ nicht. Du wirst bei einem System mit 4080 nicht die Bildquali wie beim nativen System erhalten. Gerade in Zeiten von DLSS könnte man das mit einer Reduktion der DLSS-Stufe vergleichen. Um wie viel, das ist hier die Frage.
kelevrax schrieb:
Dann darf man auch kalkulieren, dass das Speichern eines Spieles von gerne mal bis zu 100 GB und mehr auch Energie kostet und es entsprechend skaliert, wenn jeder Spieler eine separate Kopie vorhalten muss ggü. weniger Kopien für die Server.

Es ist sicherlich mal wert ordentlich kalkuliert zu werden.
Definitive Zustimmung.
 
  • Gefällt mir
Reaktionen: Czk666
Zurück
Oben