Bericht Nvidia GeForce RTX: Battlefield V mit Turing und Raytracing im Video

Nein. Die bezahlen ja entsprechend dafür.

„It’s not a bug... its a feature“
 
Nicht schlecht für nur 3 Wochen Implementierungszeit. Da fehlt noch eine Menge, gibt aber einen guten Ausblick. Obwohl ich Ray Traced Global Illumination und Ray Traced Ambient Occlusion für wesentlich wichtiger halte und für die Immersion einen größeren Schritt bedeuten.
 
  • Gefällt mir
Reaktionen: .Sentinel., Apocalypse, Iscaran und eine weitere Person
Wenn die selber sagen das sie bei 1080p nur 60fps ansteuern und das beim Flaggschiff, ist das eine eine Totgeburt der ersten Generation RTX Karten. Ganz im Ernst niemand braucht das, jedenfalls nicht so umgesetzt. Im hektischen Spielbetrieb nimmt man das eh kaum bis überhaupt nicht war. Auch kann man das bei Konsolen so wohl kaum Umsetzen, sehe hier keinen Markt für die nächsten 2 Jahre.
 
Ich kauf mir lieber 150x Schnitzel mit Pommes
 

Anhänge

  • e54cfc8028b799cd.jpg
    e54cfc8028b799cd.jpg
    45,3 KB · Aufrufe: 797
  • Gefällt mir
Reaktionen: BeezleBug, IceY78, dideldei und 16 andere
IMMO sieht die Grafik von BF5 - sehr Scheisse aus.
 
  • Gefällt mir
Reaktionen: uguran1989, Issou und stoneeh
Hatte irgendwie gehofft dadurch günstig an eine 1080ti zu kommen. Aber die RTX werden zu den Preisen sicherlich TOP-Ladenhüter - sofern die ohne RT Leistung nicht gerade um 40%+ steigt..
 
Ehrlich gesagt sehe ich in dem Video nichts was allso beeindruckend gewesen wäre, was nur mal wieder verdeutlicht das solche hektischen Shooter die denkbar schlechteste Wahl für solch eine Demo sind.
Ja die Lichtspiele sind ganz nett aber sonst? ein ähnliches Ergebnis kann man sicherlich auch mit den bisherigen Fake Effekten hinbekommen. Ich glaube kaum dass dort jemand auf allso realistische Spiegelungen geachtet hat.
 
  • Gefällt mir
Reaktionen: IceY78, Big Qwer, Iscaran und eine weitere Person
Pizza! schrieb:
Aber könnte Raytracing was auf den RTX Cores berechnet wird, nicht theoretisch unabhängig von der Auflösung sein. Man könnte doch vielleicht das was auf den RTX Cores berechnet wird gleich lassen und die Auflösung vom Rest des Spiels erhöhen was ja bei den Shadern etc. durchläuft.
Es werden ja schon nur alle paar Pixel Rays abgefeuert und der Rest interpoliert (hier einfach nur gemittelt), weil nicht genug Leistung. Willst du jetzt nochmal die Wurzel aus diesen Rays ziehen für 4K? Und interpoliert interpolieren?

Syrato schrieb:
Die hat kein RT....
Doch, nur keine Cores, die es ohne Software in der Hardware berechnen können.
 
  • Gefällt mir
Reaktionen: IceY78, Zockmock und Baal Netbeck
 
  • Gefällt mir
Reaktionen: noxon
Das ganze Thema RTX erinnert mich sehr stark an PhysX ... und wird wohl genau so enden. :)
 
  • Gefällt mir
Reaktionen: edenjung, uguran1989, Dark Matter und 3 andere
Taxxor schrieb:
Irrelevant, da der visuelle Vorteil von Raytracing zumindest im Beispiel Battlefield 5 niemals so groß sein kann, um einen Rückschritt von potenziellen 200+fps ohne RT auf 60fps zu rechtfertigen.
Doch neue Technik, die sich noch weiter entwickeln muss, rechtfertigen das.
Mir ist das auch noch zu teuer, aber als die OLEDS auf den Markt kamen waren die mir auch noch zu teuer, heute sind die bezahlbar. Da wurde doch auch mal der Grundstein gelegt.

Man lässt eben mal eine Generation aus.
 
chris333 schrieb:
Ich würde nichts anderes sagen, vor der GTX 970 hatte ich eine 7950 und davor eine 4870 von AMD.
Und du würdest nicht zustimmen, dass Raytracing zu früh in den Massenmarkt gekommen ist, wenn du mit einer 1000€+ GPU bei Nutzung dieses Features gerade mal die fps deiner jetzigen Karte erreichen kannst?

chris333 schrieb:
Doch neue Technik, die sich noch weiter entwickeln muss, rechtfertigen das.
Die Technik hätte sich auch Prima im Profi Segment bei den Quadros weiterentwickeln können, bis sie reif genug für den Massenmarkt ist.
 
Wie geahnt, Turing überspringe ich jedenfalls und die 1080 wird bis zur nächsten Konsolengeneration ihren Dienst leisten.
Allerdings ist Raytracing ein Schritt in die richtige Richtung,ich möchte jedoch nicht zu den "Early-Adoptern" gehören.
Ich bin gespannt was AMD in Zukunft auf den Markt bringt.
 
  • Gefällt mir
Reaktionen: Big Qwer, Zockmock, Protogonos und eine weitere Person
Ich merke, ich bin wirklich nicht mehr die Zielgruppe ... finde das ewige Herumhetzen oftmals wie ein kopfloses Huhn schnell öde. In der ersten Woche mag es noch frisch wirken aber der (optische) Lack ist bald ab.

Wünsche aber allen, die sich darauf freuen, fröhliche Stunden!
PS: Die Generation werde ich auslassen, ohnehin fordern die Spiele für mittlerweile ältere Semester nicht so exorbitant Leistung, zumal noch in FHD. Mal schauen, beim nächsten Monitorupgrade schwanke ich noch zwischen 1440p und UHD ...

Insgesamt ist es erfreulich, dass hier in diesem Bereich geforscht wird, aber das wird noch ein langer Weg. Man kann dann man vielleicht in 5 - 10 Jahren sagen, ja, ich hatte die erste Karte, die das zwar konnte, aber weithin nicht wirklich flüssig auf den Monitor gebracht hat (PhysX ick hör dir trapsen!).;)

Doom Eternal schätze ich, wird ohnehin gut laufen!
 
Zuletzt bearbeitet:
Übles Salami Taktik Marketing von nVidia.
Scheint nicht aufzugehen, deren Taktik.

Wenn man sich quer durch die Beiträge liest, werden die Kritiker langsam aber sicher mehr.
Zum Glück.

Man sollte sich nicht ködern lassen ohne Release und ohne reale Benchmarks.

The way it's meant to be verzockt...

Raytracing ist eine schöne Sache.
Jetzt sollte man sich fragen warum dieses Feature so hervorgehoben wird, und nicht das reale Leistungsplus der neuen GPUs?

Krass wie manche Menschen ohne zu überlegen, einfach vorbestellen. Und das bei der Masse an Negativ-News die nVidia in den letzten Monaten begleitet hat. (970, GPP, NDA, etc).
 
  • Gefällt mir
Reaktionen: Beyazid, mtmac, IceY78 und 3 andere
Damit ist Turing für mich eigentlich bereits gestorben. Ich hatte auf GPUs gehofft, die mehr Leistung in bisher erhältlichen Spielen erreichen, insbesondere um auch in WQHD mit durchweg hohen Details > 100fps halten zu können. Stattdessen bekommt man Turing für 1250€, um dann in FullHD bei unterstützten Spielen mit 60fps herumkrebsen darf - 2018. Gute Technik aber meiner Meinung ist der Zeitpunkt noch zu früh dafür.
 
  • Gefällt mir
Reaktionen: -Spectre-
chris333 schrieb:
Da hast Du wohl recht, aber so kaufst Du in 2 - 4 Jahren vieleicht mal eine. Macht man aber nicht den Anfang kaufst Du die erste entweder nie, oder erst in 10 Jahren.
Das impliziert aber doch, dass man quasi der Hardwaretester (die Milchkuh) ist und ich finds ehrlich gesagt schade, dass man Technik auf dem Markt wirft, die im Bezug auf den Preis, der ja an Enthusiasten gerichtet ist... NULL berücksichtigt, dass diese schon lange nicht mehr FHD spielen.
Das ist - sorry - absolut dreist.
Ich bin ehrlich, ich habe keinen 4K Monitor und würde mir diesen auch erst dann holen, wenn Mittelklasse darauf läuft - dass die Entwicklung so oder so dahin geht, ist doch klar. Mein TV ist auch schon seit einem Jahr mit UHD und HDR ausgerüstet, doch bei der Hardwaretechnik im PC-Bereich, hat man schon irgendwie das Gefühl, dass man die Zukunft Häpchenweise bekommt, gut aufgestückelt, sodass der Aktionär am Meisten davon hat - insofern juckts mich nicht ob ich das in 10 Jahren oder nie haben werde - bin aber empathisch genug für die Abzocke .
 
  • Gefällt mir
Reaktionen: IceY78 und Ernie75
@SKu Turing wird natürlich auch in den anderen Spielen mehr Leistung erreichen, nur wie viel ist die Frage. Für 100fps in WQHD sehe ich aber eher Schwarz
 
Zurück
Oben