• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX

noxon schrieb:
Trotzdem fanden es aber alle viel interessanter über die schlechte performance von BF:V zu lästern und jetzt wo sie verbessert wird, so wie das in der Spieleentwicklung üblich sit, wie wieder geostert.
Echt unmöglilch die Leute. Den Spielern sollte man vor dem Release echt rein gar keine Informationen mehr geben. Die sind echt zu unreif für sowas.

Es besteht ein Unterschied zwischen "optimieren" und wir machen die Effekte wieder weniger weil es anderes einfach nicht geht. Erst damit werben und dann die Effekte wieder entfernen, da kann ich die Kritik durchaus verstehen.
 
ZeXes schrieb:
NVIDIA ist sowieso über kurz oder lang gef***t.

Grund? Ganz einfach. Die Next Gen Konsolen Xbox Two(?) und PS5 werden 100% nicht
RayTracing unterstützen. Das heißt das die Technik dann frühstens bei der PS6 Einzug halten wird
und das wird dann halt noch 10+ Jahre dauern.

Wie bei jeder großen Grafikveränderung brauch es die Konsolen, die diese mittragen ,sonst sehen die meisten
Entwickler den Grund für den Mehraufwand für die Entwicklung ihrer Spiele nicht.

Denke RayTracing wird allein aus diesem Grund scheitern.

eine PS6 und xbox two wird es nicht geben,
wie die puplisher schon vor langerzeit gesagt haben sind sie schon dabei möglichkeiten für einen gamestream zu basteln, das bedeutet das man eben technicken wie zb nvidia anbietet dann eben im konsolenbereich doch hat
 
DICE has also confirmed that their current implementation of Ray Tracing will not function on AMD or Intel graphics cards support for DXR acceleration, as it is currently optimised for Nvidia RTX compatible hardware, with certain features being dependant on Nvidia's compiler.
https://www.overclock3d.net/news/so..._currently_exclusive_to_nvidia_rtx_products/1

es beginnt :daumen:

ich mein - ist klar, dass nvidia derzeit die einzige hardware mit dedizierten raytracing einheiten hat - aber auch konventionelle grafikkarten können raytracing rendern - nur extrem langsam.

ich fände es besser, wenn jeder raytracing aktivieren könnte und dann ein stutterfest hat - als dass man direkt von anfang an einen nvidia exklusiven "gameworks" bullshit draus macht.

sauberer schachzug von nvidia, alles außer den drei rtx karten direkt mal auszusperren - per software.

aber wer hat ernsthaft was anderes erwartet? das ist gameworks 2.0.
 
wo kommt eigentlich der anspruch her dass eine neue graka generation mehrleistung zu gleichbleibendem preis bieten muss?
die neuen rtx dinger werden in absoluten zahlen wohl die schnellste verfügbare technik bieten; ob man dann bereit ist dafür geld auf die theke zu legen ist eine ganz andere sache.
es gibt keinen anspruch dass bereits eine sehr teuere 1080ti jetzt für den gleichen preis einen nachfolger erhalten muss...

wäre ich nvida chef, würde ich exakt das gleiche versuchen. schließlich ist nvida kein gemeinnütziger verein - auch wenn manche sich das in die preisgestaltung herbeiwünschen.
bei der jetzigen nvida serie wurde auch über die preise gejammert und dennoch haben sich die karten - inklusive einer 1080ti - prächtig verkauft.

ich überprüfe meinen bedarf daran ob das was ich an games spiele mit der aktuellen hardware noch annehmbar gut läuft und wenn ich merke dass es "dünn" wird überlege ich eine neuanschaffung - dabei könnte ich mir locker nebenher jedes jahr mehrere highendrechner mit dem besten von besten leisten.

wenn ihr den anspruch habt immer die neueste highend-karte zu besitzen (des längsten balkens wegen) um in der maximalen auflösung bei maximallen einstellungen zu spielen, dann bezahlt und jammert nicht!
 
Chillaholic schrieb:
Viel Spass mit den 40 FPS auf deinem 160Hz Monitor. :rolleyes:
Tolles Feature!

Genau, weil die Karte ja nur noch mit Raytracing läuft und sonst keine Leistung bringt. Deinen Augenroll-Smiley kannst du dir da sparen. Ohne Raytracing ist die Ti mit Sicherheit die schnellste Gaming-Karte auf dem Markt für die nächste Zeit - das kann man auch ohne Tests bereits sagen. Und wenn er mal einen Titel mit Raytracing spielen will kann er das auch, dafür nimmt er halt bewusst weniger Frames in Kauf.
 
  • Gefällt mir
Reaktionen: t3chn0
Ryan97 schrieb:
eine PS6 und xbox two wird es nicht geben,
wie die puplisher schon vor langerzeit gesagt haben sind sie schon dabei möglichkeiten für einen gamestream zu basteln, das bedeutet das man eben technicken wie zb nvidia anbietet dann eben im konsolenbereich doch hat
Das bezweifle ich.
Die Netze sind in weiten Teilen der Welt nicht so stark, dass man mit Gamestreaming den größten Teil der Käufer zuverlässig erreichen könnte. Das wird auch in den nächsten 5 Jahren noch so sein.
Möglicherweise nimmt man Gamestreaming als Premiumservice für bessere Qualität mit ins Angebot, die lokale Berechnung wird aber noch eine Weile bestehen bleiben.
 
Ryan97 schrieb:
eine PS6 und xbox two wird es nicht geben,
wie die puplisher schon vor langerzeit gesagt haben sind sie schon dabei möglichkeiten für einen gamestream zu basteln, das bedeutet das man eben technicken wie zb nvidia anbietet dann eben im konsolenbereich doch hat

Natürlich kommt unweigerlich die nächste Gen. Cloudgaming ist wie der Name schon sage eine Wolke, ein Luftschloss. Das kann weder bei Preis noch bei der Qualität auch nur im Ansatz mithalten. Die nächste Gen wird wieder konsequent mit UHD werben. 8K16T mit einer ordentlich iGPU unter 7nm. Da wird alle Leistung gebraucht und nichts für überteuertes RT verschenkt.
 
Tommy Hewitt schrieb:
Genau, weil die Karte ja nur noch mit Raytracing läuft und sonst keine Leistung bringt. Deinen Augenroll-Smiley kannst du dir da sparen.
Hast du seinen Beitrag gelesen? Er bezog sich auf "neue Features". Ob er Ray Tracing auf seinem UW-UXGA mit 160 Hz aktiviert, kannst du ja mal selber überlegen. Macht bestimmt richtig Bock bei der Menge an Pixeln auf so geringer FPS zu zocken. Mein Beitrag hat nur darauf hingewiesen, dass ausgerechnet er warscheinlich wenig von diesen Features profitieren wird.
 
Che-Tah schrieb:
....8k Fernsehen.... aber Raytracing? VIEL ZU TEUER (Ironie...Falls es nicht offensichtlich ist)

Raytracing wird - wie alles zu vor genannte - noch Jahre brauchen bis es (nicht als High End mit entsprechend bescheidenen Preis Leistungsverhältnis) brauchbar ist...

Wenn man sich jetzt einen 8k TV kauft, so kann der ohne einbußen auch in 8 Jahren 8k Inhalte wiedergeben bzw. wird nicht langsamer in der Wiedergabe.
Während die RTX 2080Ti in 2 Jahren zum alten Eisen gehört was RT angeht.
Wenn du dann die neuesten Games in aller Pracht inkl. RT in 4 Jahren mit mind. 60 FPS bei 2k-4k zocken willst, dann muß man wohl inzw 2000€ für die neuesten Grakas bezahlen.

Wie ich auf 2000€ komme? Na ist doch klar! Weil die neuesten Grakas natürlich schneller sind und bessere Hardware verbaut haben als die Vorgänger.
 
Zuletzt bearbeitet:
Schrank schrieb:
Bin irgendwie nicht bereit so viel Geld für dedizierte Hardware hinzulegen, der einen Effekt erlaubt der die Performance dermaßen einbrechen lässt.
Bei einem ähnlich großen Chip wie der 2080 RTX, mit reiner Rasterization-Hardware und 70% Mehrleistung gegenüber der GTX 1080 hätte ich wohl sofort zugeschlagen, aber so halt eben nicht.

Hab Nvidia schon länger kein Geld mehr in den Rachen geschoben, aber die 2080er ohne RTX und co. auf dem Chip. Ja schnall dich an das währ ein Kaliber gewesen. AMD schwach, mehr RTX und andere Spielereien, AMD Stark plötzlich wächst RTX eher weniger an als der restliche Chip, ich sehs kommen.

Also heftiger verarschen ist nicht möglich.
 
Revan1710 schrieb:
Das ist doch Blödsinn, denkst du erntshaft, dass RT ein Argument für ein GPU-Upgrade ist, 4K allerdings nicht?

Wenn du keinen 4k Monitor hast, dann is 4k auch nicht wichtig.

Viel eher muss man sich fragen, weshalb Leute sich einen 4k Monitor kaufen obwohl keine Graka dazu in der Lage war und ist die anständig zu befeuern.
 
Dark Matter schrieb:
Wie ich auf 2000€ komme? Na ist doch klar! Weil die neuesten Grakas natürlich schneller sind und bessere Hardware verbaut haben als die Vorgänger.
Fairerweise muss man sagen, dass Nvidia uns schon mal Vorsprung gibt. Kann sich ja jeder jetzt ein Studium, Weiterbildung, anderen Job suchen um sein Gehalt zu optimieren. Der bessere Verdienst finanziert dann die neuen Karten ;)
 
Krautmaster schrieb:
@Wadenbeisser

die TITAN Xp war ja auch nur ein Mini Upgrade der Titan X (2016) die ebenfalls den großen Pascal Chip hatte. Aber um was gehts dir? Meinst du die Xp wird ansatzweise die Nvidia so aus den Händen gerissen worden sein wie nun die RTX Serie?

Dass die letzten 10% Performance oft >50% mehr kosten ist auch keine neue Erkenntnis.

Was genau ist also deine Intention?
Ah OK, du willst es nicht verstehen. Kann mir auch recht sein. :cool_alt:
 
DannyBoy schrieb:
Ich finde es gut das NVIDIA nun mit Raytracing vorgeprescht ist. Raytracing braucht enorm viel Leistung und die kommende Grafikkartengeneration ist diesbezüglich nicht ausgereift. Auch die folgende Generation wird es noch nicht sein.

Und genau deswegen sollte doch jeder Gamer der bei Verstand ist, eben keine 1300€ für eine Graka und Technik ausgeben die nicht ausgereift ist und nicht die benötigte Leistung hat.
 
  • Gefällt mir
Reaktionen: cookie_dent
ZeT schrieb:
Viel eher muss man sich fragen, weshalb Leute sich einen 4k Monitor kaufen obwohl keine Graka dazu in der Lage war und ist die anständig zu befeuern.

Blödsinn
Es sei den das Du mit "anständig zu befeuern" meinst, das bis jetzt keine Karte die 4K mit 144 FPS schafft - aber das wird eine 2080Ti auch nicht können.
 
cypeak schrieb:
wo kommt eigentlich der anspruch her dass eine neue graka generation mehrleistung zu gleichbleibendem preis bieten muss?
...

Das kann ich dir gerne beantworten:
In der Halbleiterbranche sind die Wafer, ein sehr wesentlicher Kostenfaktor. Aus einem Wafer werden x funktionsfähige Chips gefertigt, die wiederum pro Stückpreis verkauft werden.
Daraus folgt, dass bei konstanten Kosten eines Wafers, falls durch Chipdesign oder Strukturgröße etc., y mehr funktionsfähige Chips gefertigt werden, die Kosten pro Chip sinken.
Anders gesagt: Mehrleistung kostet gleich viel oder weniger.

Das muss nicht für andere Industriezweige wie Metall, Elektro gelten !
 
@ZeT
Für FHD reicht eine Pascal-Karte locker aus, also was rechtfertigt dann den Kauf von Turing bzw. generell ein GPU-Upgrade? Du würdest also für FHD von einer 1080 auf eine 2080 um RT nutzen zu können?

Es gibt genug die jetzt schon in UHD spielen und noch mehr die es in absehbarer Zeit wollen. Wenn Nvidia das ignoriert, ignorieren sie eben den Mark. RT mag ja ein nettes Feature sein, aber es hat nie jemand gefordert im Gegensatz zu mehr Performance für UHD
 
lynx007 schrieb:
Vieleicht rüste ich auf den Fx-8350 auf.... der sollte mir nochmal 2 Jahre bescheren um flüssig auf Casualnivau zu spielen zu können. Der Kostet nur 70€, was gemessen an der Leistung nicht so schlecht ist.

Acht Jahre ist doch cool, der Phenom II war eine gute CPU, konnte damals mit den Intel-Pendants mithalten und wenn er Dir solange gut gedient hat, hast Du nichts falsch gemacht. Als kleinste Aufrüstmaßnahme ist der FX sicher eine vernünftige Wahl, sofern Dein Bios den unterstützt bzw. entsprechend upgedated werden kann.

Denn selbst ein Ryzen 3 2200G mit schmalen 90 Euro bedeutet auch neues Board und - viel schlimmer - neuer RAM, da bist Du schnell bei 250 Euro (2200g, solides B450 ATX-Board und 2 x 4 GB schneller RAM), also 180 mehr.

Wenn Du das Geld aber hast, würde ich an Deiner Stelle auf so eine Konfig umsteigen, um bei Gelegenheit einen stärkeren Ryzen und ggf. RAM nachzurüsten, dann hast Du definitiv länger als 2 Jahre etwas von Deiner Investition.
 
Ich gehe auch jede Wette ein das, wenn man die Wahl hätte zw. einer GTX 2080Ti für 950€ und einer RTX 2080Ti, dass die meisten die hier jetzt nVidia beispringen und die Preise rechtfertigen, dann wohl doch eher die GTX 2080Ti kaufen würden als die RTX.

Und warum? Weil die Leistungseinbußen mit RT noch viel zu hoch sind und man eben noch drauf verzichten kann. Und das eben keine 300-400€ Aufpreis rechtfertigt.
 
  • Gefällt mir
Reaktionen: Zitterrochen, CBL und cookie_dent
Zurück
Oben