• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX

andi_sco schrieb:
Keine Ahnung was Ihr erwartet, da kommt eine neue Generation auf den Markt, mit neuen Features und diese soll dann gleich zu 110% durchstarten und alles perfekt machen.

Mei, auf einer Radeon 9700 lief Call of Duty 2 im DirectX 9 Modus auch bescheiden Scheiße, von der FX 5800 gar nicht zu reden.
Man hätte auch einfach den Raytracing Part passend zur regulären Performance dimensionieren können aber wer kauft schon eine RTX 2030 mit dem Preis und der der Raytracing Leistung der kommenden 2080Ti, welche dann auch noch eine ähnliche Verlußtleistung besitzt?
 
ODST schrieb:
@CR4NK
Man sollte jede neue Technik begrüssen, damit es endlich weiter Richtung Fotorealismus geht. Doch ein Paar Spiegelungen, welche sogar ohne RT gut wirken, kann man doch nicht mit Crysis, welches seiner Zeit voraus war, vergleichen. Und btw. wir haben ja gesehen, was mit dieser Marke passiert ist. ;)

ganz gemeiner vergleich. früher hat z.b. matrox konsequent auf 32 bit gesetzt (wer ist matrox)

oder ati mit ihren 24bit/32bit im vergleich zu der nvidia pre geforce zeit die nur in 16bit richtig schnell war. wäre schon wieder gemein. :evillol:

von 3dfx fange ich mal gar nicht an.....

mMn hat nvidia den langen atem und wird genauso wie bei tesselation oder unified shadern das durchhalten. für uns kann es auf jeden fall nur zum vorteil verhelfen. die preise fallen von alleine. der technische fortschritt kommt nicht vom warten.

mfg
 
  • Gefällt mir
Reaktionen: chris333, Ernie75 und CR4NK
andi_sco schrieb:
Ich vergleiche damaliges High End mit dem heutigen!
nvidia und Ati hätten ja auch einfach 450€ mehr verlangen können ;)

Ja und der Aufschrei waer derselbe gewesen.
Also muesst Ihr euch nicht wundern, wenn 99,9% aller Menschen Nvidia den Vogel zeigen (fuern Preis, nicht fuer RTX!). ;)
 
  • Gefällt mir
Reaktionen: nagus, Khabarak, andi_sco und eine weitere Person
Werden wieder einmal Kunden nach Strich und Faden verarscht.... herzlichen Glückwunsch. Aber was anderes habe ich von Nvidia eh nicht erwartet. Die sind Meister darin. Das schlimme ist, die Leute rennen ihnen trotzdem die Tür ein und kaufen die Regale leer.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: mtmac, Inxession, DarkerThanBlack und 2 andere
@Faust2011

geb ich dir Recht. Es ist wie bei vielen Innovationen so das man an vielen Stellen auch Abstriche machen muss. Gerade wenn so ein technischer Wechsel erfolgt. Wie bereits gesagt war es bisher überhaupt nicht drin da in Echtzeit was brauchbares auf den Schirm zu kommen.

Ich denke Nvidias Ansatz hin zu Raytracing hat absolut Potenial und ist angesichts der Verbrennung an Resourcen im Rasterizing Umfeld auch nachvollziehbar, imho setzen alle "mehr als PC grafik" wollen auf Raytracing seit Jahren, jeder Film wird ja auf diese Weise gerendert.

Klar macht man da nen Hype drum. Auch ist es natürlich im Interesse Nvidias in Zukunft GPU zu verkaufen. Wenn man jetzt ne Quadro mit 8000 Shader gebracht hätte hätten viele aber nicht mal in 4K diese sinnvoll einsetzen können. Klar, dann kommt ein neues Battlefiled V das aber kaum besser aussieht und die 3x GPU Leistung braucht... die Grafikkracher wie Crysis sind ja lange her und überlegt mal um wie viel Faktoren die GPU Leistung gestiegen ist. Es ist enorm schwer heute noch eins draufzusetzen und wenn dann braucht man gleich ne 1000€ GPU dazu mit doppelter Leistung.

Wechselt man auf Raytracing verschiebt man den Horizont. GPU Architekturen skalieren wieder, die erreichbare Bildqualität steigert sich enorm, die Game Engines werden massiv einfacher.


Denke es wird noch Jahre dauern bis RT an gute Rasterizing Engines herankommt. Man wird einzelne Effekte und Hybride sehen aber der Weg ist der richtige.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Neo1179, LordLaden, chris333 und 3 andere
interessiert mich nicht, betrifft mich nicht ^^
 
  • Gefällt mir
Reaktionen: Inxession
Tapioka84 schrieb:
Trotzdem werden die neuen Grafikkarten wieder die längsten Balken unter "klassischen" Bedingungen haben. Um RT wird ein Aufstand gemacht, als würden Spieler praktisch wollen, dass es scheitert. Dabei vergisst ein großer Teil dieser Käuferschicht, dass auch beim Einsatz von gutem, altem Rasterizing der gottgleich verehrte Balken länger wird.

Die Frage ist ja, wie lang wird dieser Balken sein ;)
Jede neue Gen hat so 50% rausgeholt. Bei dieser kommen noch die 100€~400€ Aufschlag dazu, die Frage ist jetzt nur kriegen wir auch soviel Leistung und war RT nur ein Blender?
 
Schrank schrieb:
Bin irgendwie nicht bereit so viel Geld für dedizierte Hardware hinzulegen, der einen Effekt erlaubt der die Performance dermaßen einbrechen lässt.
Bei einem ähnlich großen Chip wie der 2080 RTX, mit reiner Rasterization-Hardware und 70% Mehrleistung gegenüber der GTX 1080 hätte ich wohl sofort zugeschlagen, aber so halt eben nicht.
Einen Effekt der nur in ein paar speziellen Spielen verfügbar ist, und in allen anderen Spielen verschwendete Chipfläche bedeutet.
 
  • Gefällt mir
Reaktionen: Khabarak, DarkerThanBlack, exuser0815 und 3 andere
Als Direct X 9 kam, hat man es deaktiviert und lieber mit Direct X 7 gespielt, weil die aktuellen Karten nicht die Leistung dafür hatten. Als Ambient Oclusion kam hat man es deaktiviert, weil es die Performance extrem verschlechtert hat. Als Tesslation kam, konnte man es auf Grund der benötigten Leistung auch nur deaktivieren.
All diese Sachen sind aber heute kein Problem, für aktuelle Grafikkarten.

Jetzt kommt Raytracing, das wird man auch erstmal deaktivieren oder eben mit weniger FPS spielen. In ein paar Generationen kann man aber das Feature dann voll nutzen. Irgendwann muss man halt mal den Anfang machen.
 
  • Gefällt mir
Reaktionen: Zitterrochen, Celinna, Baal Netbeck und 2 andere
Don Sanchez schrieb:
Einen Effekt der nur in ein paar speziellen Spielen verfügbar ist, und in allen anderen Spielen verschwendete Chipfläche bedeutet.

richtig. Genauso ist heute aber auch oft 75% der Chipfläche Verschwendung wenn man mit der Lupe nach Grafikunterschieden zwischen Very High und Ultra Setting suchen muss.

Und man muss nicht sehr weit denken um zu wissen dass es mit kommenden GPU immer mieser werden würde. Als Publisher baut man doch nur noch diese Ultra Settings mit kaum Verbesserungen ein um überhaupt den 1000€ GPU Besitzer was bieten zu können.

Konsolen holen aus viel weniger Chip eine gute Grafik raus.

Ergo ist es eben auch eine Art "Mit Kanonen auf Spatzen" was wir aktuell bei Grafikchips sehen. 5x Rohleistung für 5% bessere Grafik weil man sich einer Asymptote annähert was die Grafikquali angeht.
 
  • Gefällt mir
Reaktionen: Neo1179, .Sentinel. und v_ossi
1250€ für Full HD @ 60Hz.
Macht 7999€ für 4K @ 120Hz in 7 Jahren
 
  • Gefällt mir
Reaktionen: TheBear1517, DarkerThanBlack, exuser0815 und eine weitere Person
Schritt für Schritt relativiert sich alles und am Ende kommen 20-25% mehr Performance, Features die unausgereift und proprietär sind. Sich dadurch auch kaum durchsetzen da ja Nvidia und AMD nur 1-2% trennen beim Marktanteil, klammert man also gut 50% der potentiellen Kunden aus. Aber 80% Aufpreis, a giant leap for nvidia, a small step for the customer...
 
  • Gefällt mir
Reaktionen: gesperrter_User und edenjung
Krautmaster schrieb:
Wechselt man auf Raytracing verschiebt man den Horizont. GPU Architekturen skalieren wieder, die erreichbare Bildqualität steigert sich enorm, die Game Engines werden massiv einfacher.
Denke es wird noch Jahre dauern bis RT an gute Rasterizing Engines herankommt. Man wird einzelne Effekte und Hybride sehen aber der Weg ist der richtige.
ja und schaut man sich das in der aktuellen RTX Generation an, dann sieht es so aus als wäre der Leistungsbedarf von RT derart hoch, dass man überproportional mehr Fläche für RT-Units bräuchte für spielbare fps. Heißt fps/mm² scheint bei RT im Nachteil gegenüber der klassischen Technik. Ist dem so und bleibt das so, dass hat RT keine Zukunft.
 
  • Gefällt mir
Reaktionen: Khabarak
scootiewolff22 schrieb:
Es ist die erste RT Generation, so ist das mit einer neuen Technologie. Irgendwann muss ja der Anfang gemacht werden. Jetzt hier zu meckern ist unangebracht

Meckern ist bei der Verschwendung von 20% Chipfläche für Marketing-BS absolut angebracht. Die teuerste Karte im Sortiment wird nie vernünftige Leistung erreichen während der Mainstream die nächsten 5 Jahre nicht mal über RT nachdenken braucht.
 
  • Gefällt mir
Reaktionen: Khabarak
man stelle sich vor, die neue konsole kostet 2020 pre order 799€. explodiert dann das internet?

mfg
 
  • Gefällt mir
Reaktionen: SavageSkull
RTX-karten sind zu teuer!!!eins!!elf!
(schuldigung, konnte mich nicht zurückhalten :D)

Also kann man eigentlich diese Generation der Karten auslassen. Zumindest was RT angeht. Bezgl. der Leistung muss man einfach abwarten, bis die unabhängigen Tests für Klarheit sorgen.
 
Begu schrieb:
ja und schaut man sich das in der aktuellen RTX Generation an, dann sieht es so aus als wäre der Leistungsbedarf von RT derart hoch, dass man überproportional mehr Fläche für RT-Units bräuchte für spielbare fps. Heißt fps/mm² scheint bei RT im Nachteil gegenüber der klassischen Technik.

auch das ist richtig. Der Bedarf ist astronomisch und dennoch sind in 1080p nur wenig FPS drin- aber selbst das ging bisher nicht.

Ich bin absolut bei dir, aktuell ist es eher ein Nachteil. Aber dieser Nachteil löst eben viele Ketten der aktuellen Technik und hat mehr Potential in Zukunft. Irgendwann gilt es also mit bestehender Technik zu brechen auch wenn es kostet.
Um wirkliche Vorteile zu sehen dürften Minimum 5-10 Jahre ins Land gehen. Dass Raytracing aber die bessere Variante ist ist jedem klar, sonst würden Studios und so weiter ihre Filme ja "Rasterizen" und nicht "Raytracen".
 
  • Gefällt mir
Reaktionen: chris333
Naja, RTX Generation 1 ist damit in meinen Augen mehr oder weniger offiziell zum Test-Ballon für die Spieleentwickler (RT Implementation in die Engines und Ausloten, was man wo am sinnvollsten mit RT anfangen kann), die Spieler (Wird eher Wert auf Grafik Qualität oder hohe Auflösungen und FPS Zahlen gelegt), Nvidias Marketing (Kann man mit Hype und NDA die defekten Quadro Chips als "Gaming Revolution" verkaufen?) und die freie Presse (Hype befeuern um Klicks zu generieren, augewogen Vor- und Nachteile abwägen oder entschieden dagegen feuern um mit der entstehen den Kontroverse Geld zu machen) geworden.

Glaube ich halte mich bis zu den Tests erst mal zurück und gucke, wie sich die Foren in Grabenkriegen zerfleischen und wer am Ende übrig bleibt, wenn sich der Staub legt.

(Tippe für letzteres auf Jen-Hsun "Jensen" Huang und alle Großaktionäre)
 
XTR³M³ schrieb:
hat NV wohl druck gemacht, weil sonst wohl in den benches beim review nur grottige frames rausgesprungen wären :evillol:

Ich bin auch der Meinung, die einmonatige Verzögerung kommt nicht von dice/ea sondern Nvidia und hat einiges gekostet. Hauptsache, die Vorbestellungen laufen.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack, Thraker und XTR³M³
Tapioka84 schrieb:
Stimmt, die Wahrheit wird ans Licht kommen. Sie wird sein, dass die 2080Ti die schnellste verfügbare Grafikkarte für Spieler ist und man RT in ausgewählten Spielen für mehr Eyecandy zusätzlich aktivieren kann. Gleichzeitig wird "ans Licht kommen", dass RT noch nicht flächendeckend sinnvoll einsatzbar ist, da die Leistung noch nicht vorhanden ist - ähnlich wie bei Tesselation zu Beginn. Als 32-Bit-Farbtiefe vor Urzeiten erstmals verfügbar war, war es in vielen Spielen auch nicht sinnvoll einsetzbar, da zu langsam.

und wenn ein game es voll einsetzen will wird es bestimmt vom treiber ohne das man was machen kann ausgebremst. So wie es Nvidia schon immer gemacht hat um Höchstleistung vorzugaukeln.

Siehe bei der 970, da werden einige Details etc unterschlagen, damit man unter 3,5 GB bleibt. Oder für den DX12 support ... der Features die eigentlich die HW können sollte emuliert der Treiber damit es so aussieht als könne die HW das tatsächlich.
 
Zurück
Oben