Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce-Gerüchte: RTX 4060 Ti soll Ende Mai 8 GB und 3070-Leistung bringen
Mit solchen Aussagen wäre ich vorsichtig, ich habe es sowohl mit Hogwarts auch mit anderen gamest nutzen können und ich möchte es nicht mehr missen. In Hogwarts alles auf max. RT alles auf Ultra immer über 90 FPS meistens 110 bis 140 und das bei meiner Auflösung 3440x1440.
In wie fern vorsichtig? Du erkennst den Unterschied. Wer ihn nicht erkennen will erkennt ihn nicht. Gefällt einigen nicht, ist aber so. Gibt genug Vergleichs Videos in denen echt auffällige Dinge auftreten. Lustig das du Hogwarts nennst, das ja auch so "toll" optimiert is.
Bei der nächsten Generation kommt die 5060 ti dann 3 Wochen vor dem Release der 6090. Ich kann gar nicht beschreiben, wir mich diese Hinhalterei mit den kleinen Karten ankotzt. Nächstes mal am besten Intel kaufen, wenn die was halbwegs brauchbares zu Stande bringen.
Naja, ist halt nicht das gleiche, wie "echte" 90 FPS ("45FPS + Frame Interpolation" finde ich die ehrlichere Bezeichnung). Aber solang die Grund-FPS - wie in dem Fall - halbwegs flüssig sind, ist es schon ne deutliche Verbesserung.
dazu mal eins solange man keine 144hz monitor hat also auf 60-100hz das maximum ist ist der anspruch nicht so hoch
Dxr und mehr als 60fps sind schon luxus den man nur mit ner rtx4090 bedienen kann. Und das auf 1080p
Warum, meine 12 GB reichen für alles. Was hätte ich von 4 GB mehr, wo kein Mangel herrscht?
Vielleicht irgendwann mal in 4K-Szenanrien.
Die 16 GB der 4060Ti resultieren ja aus der einzig möglichen Bestückung über 8 GB VRam, aufgrund des Speicherinterfaces von nur 128 Bit. 8 oder 16.
Schön für die 4060Ti dass sie auch als 16 GB Variante kommt. 8 GB wären für so eine schnelle und moderne Karte wirklich und absehbar zu wenig.
Wenn man Spiele aus 2008 spielen möchte kann man gerne eine 4060TI kaufen. Für alles neuere wird man etwas besseres als eine 6800XT brauchen.
30 Frames per Seconds in WHQD sind ohne Raytracing sind leider nicht mein Qualitätsanspruch.
1080p performance ist mir recht egal. 1080p war technischen Stand von 2005. Die Leute die im Wohnzimmer mit schlechter Bildqualität in 1080p spielen, oder mit einem 80 Euro Lenovo 24 Zoll 1080p Bildschirm, sollen sich gerne diese Grafikkarte kaufen für 500€.
Naja, ist halt nicht das gleiche, wie "echte" 90 FPS ("45FPS + Frame Interpolation" finde ich die ehrlichere Bezeichnung). Aber solang die Grund-FPS - wie in dem Fall - halbwegs flüssig sind, ist es schon ne deutliche Verbesserung.
Zwischen was denn konkret? Bei welchen Frameraten? mit was für einem Monitor? Bei welchen Spielen? Wie kommst du überhaupt einmal auf X nativ und einmal auf X/2 + FG um das zu vergleichen?
Ich merke übrigens schon keinen Unterschied zwischen z.B. Nativ 60 und Nativ 120 hz. D.h. ich würde auch nicht erwarten einen Unterschied zwischen z.B. nativen 120 FPS und 60+FG zu merken (außer es gibt tatsächlich Mal ein böses Bildartefakt). Interessant wird's halt bei 60 vs 30+FG oder noch weniger, also wenn die native Bildrate unangenehm langsam wird, ob man dann immernoch keinen Unterschied zwischen nativ doppelt so vielen Bildern oder FG merkt.
Also nach meiner Erfahrung muss man für FG schon so um die 40-45fps nativ haben damit es mit FG angenehm bleibt. Wenn man nativ nur bei 30fps ist dann ist das mit FG nicht so wirklich toll.
Mal ne Detailfrage zu der ich im Internet keine richtige Antwort gefunden hab: Wenn Frame 0, 2, 4,6 etc. die "echten" sind und 1,3,5,.. die generierten: Extrapoliert Nvidia im Prinzip Frame 3 aus Frame 0 und 2 oder Interpolieren sie es zwischen 2 und 4?
Nach meinem Verständnis würde Ersteres (Extrapolation) ja bedeuten, das generierte Frame kann nichts darstellen, was es vorher noch nicht gab (z.B. ein Problem bei schnellen Kameraschwenks), aber letzteres (Interpolation) bedeutet schlechtere Latenz, weil F3 erst angezeigt werden kann nachdem F4 schon fertig gerendert wurde.
Gibt es Artikel zu die das toll erklären.
Afaik wird Bild 2 alleinig aus Bild1 und Wahrscheinlichkeiten abgeleitet, die in nem neuronalen Netz abgebildet wurden, damit die potentielle BEwegungsrichtung und Bildveränderungen vorhergesagt werden können.
Musste mal nach nem Artikel suchen. Meine der war sogar auf CB in einer News/Artikel über DLSS3 verlinkt.
Effektiv hat man so ein Stück weniger als die doppelte Latenz bei doppelten FPS.
Mal ne Detailfrage zu der ich im Internet keine richtige Antwort gefunden hab: Wenn Frame 0, 2, 4,6 etc. die "echten" sind und 1,3,5,.. die generierten: Extrapoliert Nvidia im Prinzip Frame 3 aus Frame 0 und 2 oder Interpolieren sie es zwischen 2 und 4?
Auszug (übersetzt):
Der Optical Flow Accelerator von Ada analysiert zwei aufeinander folgende Frames im Spiel und berechnet ein optisches Flussfeld. Das optische Flussfeld erfasst die Richtung und Geschwindigkeit, mit der sich die Pixel von Bild 1 zu Bild 2 bewegen. Der Optical Flow Accelerator ist in der Lage, Informationen auf Pixelebene zu erfassen, wie z. B. Partikel, Reflexionen, Schatten und Beleuchtung, die in den Bewegungsvektorberechnungen der Spiele-Engine nicht enthalten sind.
Nach sowas hab ich gesucht, aber das was ich auf die schnelle gefunden hab war alles ziemlich oberflächlich (hab aber auch nicht lange gesucht).
Gortha schrieb:
Afaik wird Bild 2 alleinig aus Bild1 und Wahrscheinlichkeiten abgeleitet, die in nem neuronalen Netz abgebildet wurden, damit die potentielle BEwegungsrichtung und Bildveränderungen vorhergesagt werden können.
Macht imo eigentlich keinen Sinn die Bewegung aus dem Einzelbild erraten zu wollen, wenn man die tatsächliche Bewegung berechnen kann oder vielleicht sogar aus der Renderpipeline/Spieleengine extrahieren kann.
Ergänzung ()
@FrankN84 : Danke. Keine Ahnung, warum ich den Artikel bei Nvidia selbst nicht gesehen hab.
NV wird sich keinen Gefallen tun, wenn sie einen ähnlichen (mMn zu hohen) Preis ansetzen, vor allem weil die 16GB kommen werden. Jetzt noch Käufer für 8GB zu überzeugen, bei dem Preis, ich mags bezweifeln...
*Ergänzung vom 14.05.2023 um 01:03:
Sollten sich die bisherigen Preis-Spekulationen bewahrheiten, dann dürfte Nvidia für die 8GB RTX 4060 Ti etwa $450 USD verlangen, für die kleinere RTX 4060 hingegen auch noch stolze $ 400 USD bzw. etwas niedriger. Kann man sich schon ausmalen, was dann eine 16GB RTX 4060 Ti vermutlich kosten wird. Keine rosigen Aussichten...
Quelle: https://www.dexerto.com/tech/nvidia-rtx-4060-ti-price-specs-release-date-2010724/
Artikel-Update: Nvidia habe inzwischen entschieden, wie teuer die beiden Varianten der GeForce RTX 4060 Ti werden sollen, berichtet @Zed__Wang alias MEGAsizeGPU. Dementsprechend sei bei der GeForce RTX 4060 Ti mit 8 GB Grafikspeicher in den USA von einem MSRP von rund 400 US-Dollar zu rechnen, während die 16-GB-Variante Ende Juli 2023 zum MSRP von rund 500 US-Dollar folgen soll. Analog zu den Preisen der bereits verfügbaren RTX-4000-Founders-Editions erscheint dementsprechend für den deutschen Markt eine unverbindliche Preisempfehlung von rund 440 Euro für die GeForce RTX 4060 Ti 8 GB und rund 550 Euro für die GeForce RTX 4060 Ti 16 GB realistisch.
Gerade gekauft für 543CHF. Für den Preis sind die 12GB okay und die Karte für mich absolut rund. Für das Geld gab es die 3070 eigentlich nie und die ist die schlechtere Karte. Empfinde ich also nicht so.
Nicht in Ordnung sind die 12Gb Bei 899Euro für eine 4070ti.
FALLS die 4060ti 16gb für 550 kommen sollte, ist das für die Karte auch zu viel. Der RAM kostet nichts und die Karte bleibt eine Krücke, die auch mit viel Speicher auf FHD zu Bause ist bei neuen Titeln
Ich find auch die 4070 für 589€ ist das wesentlich bessere Angebot als 4060Ti für 550€. Die 4060Ti wird deutlich nicht an die 4070 rankommen, da helfen auch 16Gb nix.
Wow der Abstand zwischen der 4060ti mit 16gb für 550€ und der 4070 mit 12gb für 590€ ist echt ein Witz. Denn entweder man bekommt ca 20-25% mehr Leistung aber nur 12gb vram oder 20-25% weniger Leistung mit 16gb vram für gerade mal 40€ weniger….
Solange der Abstand unter 100€ bleibt, wird kein Käufer da freudestrahlend zugreifen.
Grafikkarten zu kaufen war schon lange nicht mehr so mit Bauchschmerzen behaftet.