Bericht Nvidia GeForce RTX: Battlefield V mit Turing und Raytracing im Video

bei 4k ips 144hz full gsync monitoren verdienen halt die monitor hersteller zu viel mit. :heilig:

ich finde ja auch, 1080p reichen, aber ich bin auch alt geworden :D

mfg
 
  • Gefällt mir
Reaktionen: Vollkorn
@[wege]mini

Schon in 4k gezockt auf einen größeren Monitor? Das sind Welten und es sieht so viel besser aus! Z.B. Witcher3 in 4k ist der Hammer.... Bin auch schon älter, aber ich sehe es auch 😂
 
[wege]mini schrieb:
bei 4k ips 144hz full gsync monitoren verdienen halt die monitor hersteller zu viel mit. :heilig:

ich finde ja auch, 1080p reichen, aber ich bin auch alt geworden :D

mfg

Full HD reicht auch für junge Augen, aber nur auf, sagen wir mal, < 25" Monitoren. Ansonsten wird’s arg pixelig, wenn man zu nahe sitzt. Große Bildschirme und gleichzeitig hohe Auflösung ist für das Arbeiten aufm Desktop auf jeden Fall ein riesen Sprung.
 
Die Vertonung ist ja übelst nervtötend, mir hat es bereits nach den ersten 20 Sekunden gereicht. Kämpfen mittlerweile bereits psychisch Kranke in BFV? Anders kann ich mir das seltsame Geschreie ab Sekunde 18 nicht erklären.
 
  • Gefällt mir
Reaktionen: edenjung und Oneplusfan
Alles richtig gemacht. Monitor mit 2560x1080P und 160Hz. Wenn mir die Performance dann zu schlecht ist mit RT, deaktiviere ich es einfach und genieße die MaxFPS, perfekt.

Zu 90% jammern hier die Leute rum, die in der Signatur Midrange PCs haben, oder generell AMD Karten besitzen. Naja, wen wundert dass schon ^^.

Direkt mal sagen wie unnötig RT ist und wie lächerlich NVIDIA ist. Sobald AMD eine Karte vorstellt die 300€ günstiger ist, 16GB HBM2 besitzt und um den Faktor x2 schneller ist im RT, wird RT auf einmal Mega gefeiert.

Das Problem ist nur, dass so eine Karte nicht existiert und NVIDIA bis dahin 2-3 neue Generationen vorgestellt hat. Die ich natürlich auch brav preordern werde.
 
  • Gefällt mir
Reaktionen: .Sentinel., Blueline56, ZeusTheGod und eine weitere Person
TheManneken schrieb:
Da dein Beitrag ansonsten so inhaltslos wäre: was genau haben "ein paar Leute" denn "verstanden"? Bitte hilf mir, es auch zu verstehen.:rolleyes:

Dass sich neue, höchst anspruchsvolle Techniken nicht immer in perfekt funktionierender Form ohne Leistungsverlust und andere Nachteile übermorgen bequem mit dem Treiber für 0,00Cent nachrüsten lassen?

Irgendeiner muss den Anfang machen und sich erstmal auslachen lassen.
 
  • Gefällt mir
Reaktionen: ZeusTheGod
Ich glaube das wird wieder so ein Gag wie mit PhsyX :freak:
 
  • Gefällt mir
Reaktionen: Genoo
800x600 @ 2070 60 frame
1280x1024 @ 2080 60 frame
1920x1280 @ 2080 Ti 60 frame

Willkommen im Jahr 2000 ^^
 
  • Gefällt mir
Reaktionen: edenjung, Terminator-800 und uguran1989
@milliardo
Mitnichten, das stimmt. Ich gebe zu, dass ich nicht den ganzen Beitrag von rizzo gelesen habe, sondern nur das Zitat, auf das sich chris333 bezog und dessen Zustimmung. Kontext! ;)
 
  • Gefällt mir
Reaktionen: milliardo
KuroSamurai117 schrieb:
Vermutlich braucht man es ebenfalls bei Schachspielen unbedingt. Da sind 60fps auch unspielbar. >.>
Soll das ein Witz sein?
Gerade in Rennspielen profitiert man doch von hohen FPS und Hz-Zahlen, weil man sich schnell durch die Straßen bewegt, aber schau dir stattdessen mal mit 150KM/H und 60 FPS die schönen Spiegelungen in den Augen der Zuschauer an, was für ein Witz.
 
IceKillFX57 schrieb:
Weg mit RTX und wieder zurück zur GTX.
Weg von TFT zu CRT? Oder von SSD zu HDD? Der erste Schritt ist immer der härteste - das Potential von klassischen Polygonenbeschleunigern ist halt langsam ausgeschöpft...
 
  • Gefällt mir
Reaktionen: .Sentinel.
Die nächste GeForce Gen. ist sicher schon zu schnell für 4K. Die aktuelle zu schnell für HD und WQHD. Also braucht man leistungshungrige Features die den Verkauf neuer GPUs rechtfertigen ; ).
 
  • Gefällt mir
Reaktionen: IceY78 und BassCatBall
chris333 schrieb:
Was denkst Du denn, wieviel Frames eine 1080 mit aktiviertem Raytracing liefern wird???
Interessiert mich ehrlich gesagt nicht die Bohne. Das ist ein FPS, da geht es um möglichst hohe Bildraten, wie die Spielwelt aussieht ist da zweitrangig. Und 60 FPS in 1080p sind da eben armselig und unbrauchbar.
Von daher würde ich das Zeug sowieso deaktivieren, ich würde niemals einen FPS mit weniger als 60 Bildern pro Sekunde spielen, eher 90-120 oder eben 300-500, je nach Game.
 
"Darüber hinaus zeigte sich auch ein doch sehr ausgeprägter Filmkorn-Effekt "(Zitat CB)

Ist das ein Feature, oder ist das eine Nebenwirkung von RT?

Man kennt ja von Spielen, die komplett auf echtem RT laufen, dass da die Bilder bei Bewegung "körnig" sind und dann wenn die Kameraposition still bleibt, das Bild erst nachträglich scharf wird, Weil zu wenige Rays geschossen werden um in Echtzeit alles scharf zu haben.

Wäre ja noch schlimmer als 1080p <60FPS, wenn damit noch nicht einmal bei schnellen Bewegungen RT läuft wie versprochen.

Bei der Demo bewegte sich die Kamera ja immer auffällig langsam.
 
  • Gefällt mir
Reaktionen: edenjung
IceKillFX57 schrieb:
CRT...denke mal die Bildqualität?....
Die ersten TFTs waren nicht ansatzweise konkurrenzfähig gegenüber einem etwas besseren CRT.

Bei den SSDs: Kommt darauf an was du als erste SSD ran ziehst. Damit meine ich nicht die 80 GB-Dinger von vor einigen Jahren sondern die Anfangszeit ;).
 
Raytracing gehört erst ma in die Profikarten ala Quadro, da kann man dann ohne probs die Entwicklungskosten einfahren, aber im Gamingbereich fehlt Leistung und Unterstützung, und dann der Preis, was ich als Gamer nicht bereit bin zu zahlen, inzwischen. Hab noch andere Hobbys ganz oben Motorrad und Jagen was auch gut kohlen kostet allein mein Gewehr kostet mehr als ne Titan V aber und jetzt kommts, da hab ich nach 3J kein wertverlust von 70% wie es bei grakas im durchschnitt ist. Aber lecker aussehn tuts ja nur die fps sind eben nixht das wahre
 
DarkerThanBlack schrieb:
Ich sehe nur Überblendungen. Und dafür dann auf 4K verzichten? Nicht deren Ernst oder?
Ein Feature, wie damals PhysX wo man noch besser eine zweite Grafikkarte dazu stecken sollte, damit es spielbar wird.

Nur damals gab es noch SLi, das wird ja garnicht mehr benutzt oder weiter entwickelt.
 
Zurück
Oben