• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX

cookie_dent schrieb:
Ändert aber an meiner Aussage nix, die 1080Ti kann flüssiges 4K in 60FPS.
sTOrM41 schrieb:
immer solche pauschalisierungen..

es gibt genug spiele in denen eine 1080ti dafür zu lahm ist.

Und das nicht nur bei allen Reglern ganz rechts.
Bei CB wird in 4K ja bei vielen Spielen nur mit hoch oder sogar nur mit mittel getestet. Und selbst da kommt sie oft nicht an die avg 60fps ran.

Im Vega Test kam die 1080Ti Strix, also die OC Version gerade mal in 2 Spielen auf knapp über 60fps und in einem auf 90(Doom)
In den anderen 16 Spielen liegt sie zwischen 45 und 55fps. Avg wohlgemerkt, die min fps liegen zwischen 35 und 45
 
  • Gefällt mir
Reaktionen: .Sentinel.
Chismon schrieb:
und es ist ja nicht so, dass nVidia nicht schon bei dritten Witcher-Teil mit Hairworks-Implementierung da einen Gameworks-Anreiz gesetzt hat
Du meinst einen Anreiz diese Option auch unter Nvidia Grafikkarten abzuschalten, da selbst diese das Spiel nicht stabil darstellen konnten mit aktivierten Hair-Würgs? Hairworks ist genau wie alle Gameworks Funktionen eine Katastrophe, die nicht mal auf ner 1080 mit anständiger Frames läuft.
 
  • Gefällt mir
Reaktionen: Chismon
Hardware_Hoshi schrieb:
EA/DICE hatten damals einfach geschlampt und wie immer den Kunden verar***t.

Bei EA braucht man sich nicht zu wundern. Haben das selbe mit Mass Effect Andromeda gemacht, wo das ältere Spiel "Mass Effect 3" besser aussah und weniger Bugs hatte, als das Nachfolgemodel. Die Frage ist, wieviel Geld EA bereit ist für die Optimierung auszugeben. Und hier sehe ich schwarz.

RT per DLC vielleicht :lol:

Taxxor schrieb:
Bei CB wird in 4K ja bei vielen Spielen nur mit hoch oder sogar nur mit mittel getestet. Und selbst da kommt sie oft nicht an die avg 60fps ran.

Und welche Karte kommt da dann ran? Ganz ehrlich, wir sollten die offiziellen Tests bis zum 14. abwartet. Schauen wir mal, wie gut/schlecht die neuen Karten performen.
 
Hardware_Hoshi schrieb:
Ok, nun einmal langsam.
Wenden wir diese Logik auch bei Bananenprodukten von AMD an? Vega ist immer noch nicht fertig entwickelt und reift beim Kunden. Entweder wir messen mit gleicherlei Maß oder der doppelte Standard ist fortan für beide Seiten ungültig.

Aber sicher tun wir das - ich hab heut Morgen noch nen Comment zu den neuen Budget Athlons von AMD geschrieben in denen ich kritisiert habe das man immer noch auf Dualcore anstatt Triplecore setzt. Davon ab ich besitze ne 1060 und hab mir heut Morgen noch ne 1080 ausm Abverkauf gegönnt, also komm mir hier nicht mit irgendnem Fanboy-Gehate - bei mir gibts keine doppelten Standards sondern lediglich meine Meinung zur Sache.
 
  • Gefällt mir
Reaktionen: Vollkorn
Heschel schrieb:
Und welche Karte kommt da dann ran?
Keine, das ist der Punkt. Es ging um die Aussage, dass die 1080Ti flüssig 4K in 60fps schaffen würde.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Revan1710 schrieb:
Aber es sind doch ausschließlich die HighEnd-User, die jetzt zu einer RTX greifen, gerade weil es keine neuen Mittelklasse-Modelle gibt. Also wie passt das zur Aussage, dass HighEnd-User garnicht die Zielgruppe darstellen?
Weil als Technologiedemonstrator die beste Hardware benötigt wurde. Daher gibt es "jetzt" schon die TI, da sonst die Demonstration auf der GC so garnicht möglich gewesen wäre. Und wenn man sie schon hat, dann kann man sie auch gleich auf den Markt schmeissen.

Den Umsatz werden sie mit den Midrange Karten machen. Am Ende muss man aber sagen, das die 20xxer Serie keine Karte ist die sich an Umsteiger von einer 1070+ richtet. Wer eine 1060 oder 9xxer Serie im Rechner hat, für den würde es sich lohnen sollte der Preis der kleinen 20xxer in einem Verhältnis zur Leistung stehen.

Und ja, die 2080 (TI) tun das nicht - das ist der typische Early Adopter Preis für neue Technologie.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx und Chillaholic
anexX schrieb:
ich hab heut Morgen noch nen Comment zu den neuen Budget Athlons von AMD geschrieben in denen ich kritisiert habe das man immer noch auf Dualcore anstatt Triplecore setzt.
Ein Triplecore wäre damit gar nicht möglich. Zudem hat man über die gesamte Produktpalette gerade Kernzahlen, da macht 2 4 6 8 Sinn als Abgrenzung.
 
Taxxor schrieb:
Ein Triplecore wäre damit gar nicht möglich.

Nicht ? Könnte man doch wie bei den zweier Phenoms aus teildefekten Quads machen oder spricht da was gegen ?
 
Meine Theorie: Teildefekte Chips aus dem Profibereich werden statt geschreddert als neue Gamingchips resteverwertet.
 
  • Gefällt mir
Reaktionen: malvan und v_ossi
ZeT schrieb:
Am Ende muss man aber sagen, das die 20xxer Serie keine Karte ist die sich an Umsteiger von einer 1070+ richtet. Wer eine 1060 oder 9xxer Serie im Rechner hat, für den würde es sich lohnen sollte der Preis der kleinen 20xxer in einem Verhältnis zur Leistung stehen.

Kommt drauf an, was man macht, ich werde von einer 1070 auf eine 2080Ti umsteigen, da ich unter anderem VR nutze und mein Lieblingspiel in WQHD, alle Regler nach Rechts und via Reshade noch weitere Shader nutzt, nicht auf 60 fps läuft.

Es kommt immer auf den use case an. Und wenn mir jetzt irgendwer mit "mimimi aber die läuft auch nicht auf 60 FPS wegen RT" SORRY, das spiel unterstützt kein RT, wird es nicht unterstützen und gegenüber einer 1070 ist die 2080Ti laut leaks mind. 70% schneller als eine 1070. (Gemessen an geleakten 30% mehr Feschwindigkeit der 2080ti ggn. der 1080ti und dem unterschied von 1070->1080ti von >50%)
 
@anexX Der Aufbau der Zen CPU gibt gerade Kernzahlen vor, da man bei beiden CCX die gleiche Anzahl an Kernen haben sollte.

Gut, die APUs bestehen nur aus einem einzigen CCX, das habe ich nicht bedacht, somit wäre es hier technisch zwar möglich, aber wie gesagt gerade als Low Budget APU reicht ein Dualcore eben noch lange aus und da wir bei den Desktop Ryzens ohne iGPU aufgrund des 2CCX Aufbaus auch nur gerade Kernzahlen haben können, macht es Sinn auch dabei zu bleiben.
 
sTOrM41 schrieb:
immer solche pauschalisierungen..

es gibt genug spiele in denen eine 1080ti dafür zu lahm ist.

Es wird auch genügend Spiele geben für die eine 2080 Ti zu lahm ist. Shit happens.
 
conspectumortis schrieb:
Bisher der sinnvollste Beitrag was RTX Grakas und raytracing angeht, in meinen Augen (ernst gemeint)
Ja, aber nicht zu dem Preis und mit diversen Unsicherheiten was die Massentauglichkeit angeht.
 
Aldaric87 schrieb:
Es wird auch genügend Spiele geben für die eine 2080 Ti zu lahm ist. Shit happens.

seh ich ganz genau so.

ändert aber nichts daran das eine 1080ti nicht pauschal uneingeschränkt für 4k geeignet ist.

ich würde sogar soweit gehen das es vermutlich auf absehbarer zeit keine grafikkarte geben wird die uneingeschränkt für eine solch hohe auflösung geeignet ist.
 
Naja watt solls ... nach dem langen Thread eben doch die 1080 Ti für 599€ neu gekauft.
Hab noch einen Arctic Xtreme III hier liegen in OVP - dann ist 2-3 Jahre Ruhe.
 
Heschel schrieb:
Die Frage ist, wieviel Geld EA bereit ist für die Optimierung auszugeben. Und hier sehe ich schwarz.

Also bei aller Liebe, aber die Frostbite Engine von Dice ist mit das Optimum am Markt. Keine Engine liefert so viele FPS bei der Grafik mit gegebener Hardware. An Optimierungen fehlt es der Frostbite-Engine nicht wirklich. RT ist einfach so gesehen nicht Marktreif. Das hat weniger mit den Entwicklern zu tun ! ;)
 
  • Gefällt mir
Reaktionen: Zitterrochen
Krautmaster schrieb:
das ist genauso schwachsinnig zu äußern wie sich ohne Test ne 2080 Ti vorzubestellen.
Ist das so?

Wir haben die Preise und dank Dice wissen wir jetzt, dass RTX zu viel Performance selbst auf einer 2080ti kostet...
War ja schon bei Tomb Raider abzusehen.

Für mich scheint RTX nur da zu sein um der 2000er Serie ein Alleinstellungsmerkmal zu verpassen da sie durch die reine Leistung ohne RTX wohl nicht so richtig überzeugen kann.

Raytracing ist toll aber ich seh es wie bei VR, es wird sich noch nicht durchsetzen können da es noch zu viele Hindernisse gibt.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Pulverdings schrieb:
Als Direct X 9 kam, hat man es deaktiviert und lieber mit Direct X 7 gespielt, weil die aktuellen Karten nicht die Leistung dafür hatten. Als Ambient Oclusion kam hat man es deaktiviert, weil es die Performance extrem verschlechtert hat. Als Tesslation kam, konnte man es auf Grund der benötigten Leistung auch nur deaktivieren.
All diese Sachen sind aber heute kein Problem, für aktuelle Grafikkarten.

Jetzt kommt Raytracing, das wird man auch erstmal deaktivieren oder eben mit weniger FPS spielen. In ein paar Generationen kann man aber das Feature dann voll nutzen. Irgendwann muss man halt mal den Anfang machen.
nicht mal DX 12 wird aktiviert 😂
Habe es schon mal behauptet, alle die diese Karte Kaufen sind Beta Tester. Das bestätigt das ja jetzt.
Wird sich wohl nur lohnen wenn sie wirklich auf 4K endlich mal 100 fps schafft, obwohl man dann echt überlegen sollte ob der Preis dafür nicht Irre ist, aber das nuss jeder selber wissen.
 
Zuletzt bearbeitet:
@ZeT
Das macht so wie du das schilderst keinen Sinn, weil bis dato 3 Turing-Modelle vorgestellt wurden: 2070, 2080 und 2080 Ti. Es gibt also keine Turing-Mittelklasse, die stellt nach wie vor Pascal.

Nach deiner Aussage will Nvidia also Umsatz mit Karten machen die es noch garnicht gibt und evtl. auch nie geben wird. Zudem die Mittelklasse wohl auch eher weniger an RT, sondern an hohen Detailstufen interessiert wäre
 
Ganz ehlrich, was sollte die Aufregung?

Man sollte abwarten und Tee trinken. Mal schauen wie groß die Verbesserungen zwischen 1080/2080 bzw. zwischen 1080ti/2080ti sind. Wenn es eine Steigerung um 30 - 40 % gibt, wäre es auch nicht schlecht - egal ob RT da fuktioniert oder nicht.
 
Zurück
Oben