News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

mylight schrieb:
Ach verbraucht Raytracing nicht mehr VRAM?...
Ergänzung ()


wenn ich jetzt 4k benchmarks anschaue und alle die 7-8gb anreißen dann brauch ich kein genie sein um zu wissen das in 2-3 jahren mit 8gb die regler nach links geschoben werden müssen, oder meinste nicht?... was sind da schon 50€ aufpreis für mehr VRAM...
wenn ich mir jetzt anschaue, das man auch mit einer 2060 und 6gb keine negativen effekte durch den kleineren ram unter 4k hat, so kann man davon ausgehen, das bis zur nächsten generation 10gb reichen für 4k. das ist meine aussage dazu, wer anderer meinung ist, schön und gut. aber die belegung des vram sagt überhaupt nichts auf den tatsächlichen erforderlichen verbrauch aus.

abgekoppelt davon:
mit direkt storage und NV IO könnte ich mir vorstellen, das wir die nächsten 10 jahre nicht mehr wie 10gb vram mehr benötigen, da die texturen direkt von der ssd gezogen werden und texturen im vram generell nichts mehr zu suchen haben. die vorteile liegen auf der hand. ist günstiger und spart strom.
 
  • Gefällt mir
Reaktionen: Cyberbernd, xexex und mylight
Falc410 schrieb:
Wow, ich bin beeindruckt wie du in die Zukunft sehen kannst. Aktuell reichen auch auf 4K Auflösung 8GB lässig aus - gibt ja genug Benchmarks in 4K...

Wobei die 3070 mit 8 GByte wohl auch keine 4K-Karte sein soll. Es wurde in der Präsentation auch eine Folie gezeigt, bei der die 3070 als 1440p-Karte eingeordnet wurde
Deshalb sehe ich das mit 8 GByte gar nicht so eng. Die 10 GByte bei der 3080 hätten da schon eher 12 sein können.

P.S. Die 3070 soll zwar mit der 2080TI gleich ziehen, aber Hand aufs Herz, eine reinrassige 4K-Karte im Sinne von immer alle Regler auf Anschlag und in jeder Situation flockig über 60 FPS gingen da doch auch nicht.
 
  • Gefällt mir
Reaktionen: xexex und mylight
SirBerserk schrieb:
wenn ich mir jetzt anschaue, das man auch mit einer 2060 und 6gb keine negativen effekte durch den kleineren ram hat, so kann man davon ausgehen, das bis zur nächsten generation 10gb reichen für 4k. das ist meine aussage dazu, wer anderer meinung ist, schön und gut. aber die belegung des vram sagt überhaupt nichts auf den tatsächlichen erforderlichen verbrauch aus.

abgekoppelt davon:
mit direkt storage und NV IO könnte ich mir vorstellen, das wir die nächsten 10 jahre nicht mehr wie 10gb vram mehr benötigen, da die texturen direkt von der ssd gezogen werden und texturen im vram generell nichts mehr zu suchen haben. die vorteile liegen auf der hand. ist günstiger und spart strom.
ich glaube es dauert noch etwas bis diese technologien finalisiert sein werden, die nächste graka nach der 3000er reihe, wird das sein was jetzt die 2000er für raytracing war denke ich, die variante überspringe ich dann wahrscheinlich^^
 
Wow solch eine Entwicklung habe ich nicht erwartet! Bei der 3070 juckt es schon ziemlich in dem Fingern..
Aber ich hoffe und warte noch AMD
 
mylight schrieb:
Heute reichts, morgen nicht. Ich denke sehr viele User wollen in den nächsten Jahren 4K spielen und da reichen 8GB halt nicht.
"Morgen" ist die allgemeine Rechenperformance schon eher nicht mehr ausreichend und du wirst freiwillig eine neue Karte holen wollen, welche dann auch vermutlich mehr Speicher haben wird. Stand heute habe ich kein einziges mal wirklich bemerkt wo ich von meinen 11GB profitiert hätte. Der 1080 Ti geht der Saft schon vorher aus.

Und so wirds auch mit einer 3070 sein.

drunk_chipmunk schrieb:
Vorstellung neuer Grafikkarten: Alles unter der 3090 ist Schrott, weil bei 4K und maximalen Details der RAM limittiert!

Vorstellung neuer CPUs: Alles unter dem 10900K ist schrott, weil bei 720P und minimalen Details die CPU limittiert!
Schrödingers Gamer halt. 😂

Schon schizophren was hier teils im Forum abgeht und was für einen Stuss man sich da seitenweise anhören muss. Strotzt alles nur so vor Widersprüchen.
 
sikarr schrieb:
Das betrifft aber 8k bei Control, wer weis wie effizient das Spiel mit VRAM umgeht. Kann mit nem anderen Spiel schon komplett anders aussehen.

Logisch, das ist nur 1 Spiel in einem Szenario.

Außerdem fehlten damals auch noch einige patches und es gab noch kein DLSS 2.0 in dem Titel.
 
Yay! Zur Feier des Tages kommt ein Witcher 3 Remaster mit Raytracing :)
Glückwunsch an alle die, die es noch nicht 5x durchgezockt haben und es noch spielen wollen.
 
  • Gefällt mir
Reaktionen: Vitec, Bright0001, Taxxor und 3 andere
Ich hoffe AMD haut richtige Kracher raus, damit die Preise nochmal ordentlich purzeln :)
ThirdLife schrieb:
"Morgen" ist die allgemeine Rechenperformance schon eher nicht mehr ausreichend und du wirst freiwillig eine neue Karte holen wollen, welche dann auch vermutlich mehr Speicher haben wird. Stand heute habe ich kein einziges mal wirklich bemerkt wo ich von meinen 11GB profitiert hätte. Der 1080 Ti geht der Saft schon vorher aus.
Sind deine Ansprüche im Laufe der Zeit (4 Jahre alte Karte...) gestiegen? Auflösung? Hz?
 
  • Gefällt mir
Reaktionen: Windell
mylight schrieb:
Ich hoffe AMD haut richtige Kracher raus, damit die Preise nochmal ordentlich purzeln :)
Sind deine Ansprüche im Laufe der Zeit (4 Jahre alte Karte...) gestiegen? Auflösung? Hz?

Das stimmt durchaus, eine 4K Glotze kam hinzu, letztens ein 1440p/165Hz Display, da braucht man natürlich allein dafür schon mehr Performance. Abgesehen von ein paar Ausnahmen (HZD, RDR2) die auch in FHD keine Wunder bewirken - insbesondere RDR2 muss ich schon einbussen hinnehmen, so dass ich lieber erstmal verzichte bis genug Power kaufbar ist.
 
  • Gefällt mir
Reaktionen: mylight
.Sentinel. schrieb:
Yay! Zur Feier des Tages kommt ein Witcher 3 Remaster mit Raytracing :)
Glückwunsch an alle die, die es noch nicht 5x durchgezockt haben und es noch spielen wollen.
Verstehe bis heute nicht, warum das Spiel so gehyped wird.. ich mochte die Vorgänger, aber das Spiel war einer meiner wenigen Fehlkäufe. Die Steuerung ist mal schlimmer als Geigespielen mit einer Salami...
 
  • Gefällt mir
Reaktionen: .Sentinel.
nospherato schrieb:
Verstehe bis heute nicht, warum das Spiel so gehyped wird.. ich mochte die Vorgänger, aber das Spiel war einer meiner wenigen Fehlkäufe. Die Steuerung ist mal schlimmer als Geigespielen mit einer Salami...
Ich bin ein alter Rollenspiel- Narr. Zu meiner Schande muss ich gestehen, dass ich den dritten Witcher Teil im Gegensatz zu den anderen beiden ca. 5x angefangen habe und dann immer wieder beiseite gelegt.

Da aber irgendwie ALLE so begeistert von dem Ding waren, habe ich mich mal über einen gewissen Totpunkt rausgezwungen (waren bei mir ca. 15 bis 20 Stunden). Dann hat der Titel auch bei mir gezündet.

Es beginnt in meinen Augen äußerst schwach. Ist ziellos. Die Informationsfetzen auch zur Hintergrundgeschichte waren für mich verwirrend und zusammenhangslos und das, obwohl ich die Lore durch die Vorgänger ja eigentlich kannte.
Erst, wenn die erste große Quest an Fahrt aufnimmt, fängt dieses Spiel zu glänzen an. Und dann hört es nicht mehr auf.
Es steigert sich durchgängig, bis es zum Schluss bei Blood&Wine ein Feuerwerk nach dem anderen zündet, so dass ich innerlich für mich immer wieder aufgestanden bin und Applaus geklatscht habe.

Ich kann dennoch jeden verstehen, der das Ding anspielt und den es auch nach ein par Stunden nicht "catcht".
 
  • Gefällt mir
Reaktionen: eyefinity87, 5hred und nospherato
AMD ist bisschen in der Not. Wenn NV konsequent offizielle Benchmark-Angaben der fps-Performance in Spielen vordergründig mit Zuhilfenahme von DLSS 2.0 (3.0, etc.) zum Besten gibt, dann erscheinen die hohen fps-Werte vielen Gamern höher als dies bei AMD-Karten der Fall ist bzw. sein wird.

Vor DLSS 2.0 war die native Auflösung das Nonplusultra bzgl. Bildschärfe und den wahrnehmbaren Texturdetails (ok, gibt ja noch Supersampling bzw. Downsampling). Mittlerweile ist DLSS 2.0 bei der Bilddarstellung und Performance der nativen Einstellung voraus und sollten mit der Zeit auch die Eigenarten von DLSS behoben werden (diese Nachzieheffekte bei Objekten, wenn man mal schneller hin- und herschaut, eventuell Corona-Effekt genannt, i dont know), dann muss AMD eine Lösung finden, wie sie performance-technisch aufschließen können.
Ob das nur mit reiner Roh-Leistung, also TFlops gehen wird, bezweifle ich. Und wenn, dann müssten die Karten deutlich teurer sein als die von NV. Oder AMD knallt eine extrem effiziente und effektive GPU-Architektur heraus.
NV macht in Sachen AI und Deep Learning massiven Fortschritte und AMD ist in Zugzwang.

@.Sentinel. Du machst mir Mut, Witcher 3 weiterzuspielen. Hab es damals bei GOG vorbestellt und befinde mich gefühlt noch im Tutorial (keine 20 Stunden drin), lol. Ich glaub, ich bin an der Stelle, wo Vasemir und Geralt aus der "Kneipe" kommen und deren Wege sich erstmal wieder trennen. Oh, wait, ich bin schon an der Stelle, wo Geralt das erste Mal gebadet worden ist (im Schloss).
 
Zuletzt bearbeitet:
Garack schrieb:
gibs damit auch DLSS?
Es ist anzunehmen, da die Red- Engine ja über Cyberpunk schon eine DLSS- Kur erhalten hat.
Der Port zu Witcher 3 wäre eine Kleinigkeit.
Ergänzung ()

5hred schrieb:
Und wenn, dann müssten die Karten deutlich teurer sein als die von NV. Oder AMD knallt eine extrem effiziente und effektive GPU-Architektur heraus.
NV macht in Sachen AI und Deep Learning massiven Fortschritte und AMD ist in Zugzwang.
AMD hat ja schon angekündigt dass RDNA2 auch AI Inferencing beschleunigt. Ich bin mir sicher, dass die da auch etwas bringen, eingedenk dessen, dass DLSS kein Hexenwerk ist.

Und ja- Wenn sie es nicht täten, wäre das mittelfristig fatal...
 
McFritte schrieb:
P.S. Die 3070 soll zwar mit der 2080TI gleich ziehen, aber Hand aufs Herz, eine reinrassige 4K-Karte im Sinne von immer alle Regler auf Anschlag und in jeder Situation flockig über 60 FPS gingen da doch auch nicht.

Ich habe das immer mal wieder angesprochen: Die 2080Ti ist für mich nicht mal eine lupenreine 2560*1440 maxsettings GPU gewesen, es gibt unzählige Games, die prügeln sie Richtung 60-80 avg fps, das sind nicht mehr deutliche Reserven.

Metro Exodus und RDR2 oder Kingdom Come Deliverance z.B. zwingen die 2080Ti in die Knie, im 45 Grad Winkel = fps in einigen Szenen.

Ich bezweifele, dass selbst eine 3090 RDR2 auf Ultramax Settings und 2560*1440 überhaupt nur in die Nähe von 144 fps kommt. Uneingeschränkt rund 100-110 average fps ingame in St. Denis unter 1440p wären schon spektakulär. Ich denke selbst eine 3090 packt da nur 90-95. Unter 1440p!

Die 3090 sollte RDR2 unter 4K Ultra über 60 fps stabil ingame packen, vielleicht sogar 70, aber nicht wirklich weit darüber.

4K Szenarien sind für mich unter DLSS zumindest attraktiver.
 
.Sentinel. schrieb:
AMD hat ja schon angekündigt dass RDNA2 auch AI Inferencing beschleunigt. Ich bin mir sicher, dass die da auch etwas bringen, eingedenk dessen, dass DLSS kein Hexenwerk ist.

Und ja- Wenn sie es nicht täten, wäre das mittelfristig fatal...

Beim Raytracing kann man sich ja relativ sicher sein, dass AMD mit RDNA2 einfach die gleiche Schnittstelle anspricht wie Nvidia und somit auch alles, was Nvidia kann, auch mit RDNA2 möglich ist, fraglich dann nur noch die Performance^^

Aber DLSS muss ja explizit integriert werden und wenn AMD jetzt ein ähnliches Feature hätte, könnte das nicht einfach dort ansetzen sondern müsste vom Entwickler zusätzlich zu DLSS eingebaut werden.
Was beim Marktanteil von AMD und der Anzahl von Nvidia sponsored Titeln schwierig sein wird.

Andererseits, wenn sowas auf den Konsolen benutzt wird, müsste ja jeder Multiplattform Titel theoretisch bereits mit dem Nötigsten ausgestattet sein um es am PC zu nutzen.
 
Zurück
Oben