News GeForce RTX 3080: Benchmark nennt Taktraten und 10 GB Grafikspeicher

Indem er in halbierter Auflösung spielt sage nur dsr oder ingame scaler was nichts anderes ist. nur ohne Unschärfe
 
Morgen,

muss ich auch sagen, eine Graka mit 10 GB VRAM kommt mir nicht ins Haus. In DV2 sind bei mir regelmäßig über 7 GB VRAM in DX12 belegt.

Und bei den Preis den nvidia höchstwahrscheinlich aufrufen wird, bleibt dann eher nur noch AMD übrig, die preislich bezahlbar wären.

MFG
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und Mcr-King
Convert schrieb:
Gut, muss man sich halt ein AMD-System zulegen. Intel hat ja nur PCIe 3.0....

Intel wird mit Tiger Lake und ebenso Rocket Lake PCIe 4.0 bis Jahresende am Start haben aller Voraussicht nach.

Wenn man sich sowieso ein neues PC-System basteln sollte und nicht zu Höchst-/Early Adopter Preisen eine RTX Ampere Grafikkarte kaufen will, was auf viele zutreffen sollte, wäre eine Intel CPU mit PCIe 4.0 in nicht allzu ferner Zukunft wohl auch eine Option ;).
 
schkai schrieb:
Die können ihre Karten nicht einfach mit Verlust verkaufen um Marktanteile zu gewinnen.
Wer bitte schön sagt das 600 € Verlust bedeuten würde?
Wobei mein Fehler das Gerücht besagte AMD will 699 für die TopGpu.. Ist ja noch mal en Hunni mehr.
 
KlaraElfer schrieb:
Die Konsolen bekommen für OS, GPU und Systemspeicher zusammen 16GB, nicht für die GPU alleine.

Wie vergleichbar das sein kann, hat man ja beim Horizon Zero Dawn PC Port gesehen ;).

Wie gesagt, es hängt vom Nutzerverhalten (Ansprüche hinsichtlich Grafikeinstellungen, Nutzungsdauer, etc.) ab, aber, wer mit dem Kauf (mindestens auf die AMD/RTG RDNA2 Karten) warten kann, ist klar im Vorteil :).

Eine vermutlich nicht gerade günstige RTX 3070 (vermutlich auf Leistungsniveau in etwa einer RTX 2080 Ti) mit wieder nur 8GB Speicher zu kaufen, die mit dem Neukauf schon oben genanntes Beispiel-Spiel nicht mehr in Höchsteinstellungen bzw. nur mit Einschränkungen packt, lässt dann evt. hinterfragen, wieso man dafür überhaupt Geld ausgeben sollte ;).

Ich denke mit 16 GB wird man über Jahre hinweg noch auf der sicheren Seite sein, mit 10GB muss man evt. schon in 2 Jahren spätestens eine neue noch teurere GPU anpeilen und ist ggf. zu Beginn schon leicht eingeschränkt, je nach Nutzerverhalten und mit 20(+)GB wird es in Spielen wohl "ein wenig" Overkill bei den meisten sein (zumindest in den ersten Jahren).

Ich peile jedenfalls 16GB an, zur Not (bei unanständigen Preisen) evt. noch 12GB, aber darunter mit Sicherheit nichts mehr, denn 8GB GPU-Speicherausbau als Mindeststandard ohne gravierende Einschränkungen steht fast schon vor der Tür.

Andere mögen sich noch mit 6, 8 oder 10 GB zufrieden geben, ich finde 10 GB jetzt schon eher grenzwertig/mager bzw. je nach Einsatzszenario zu wenig für eine GPU mit der kolportierten Leistung einer RTX 3080 (womöglich ca.15% oberhalb einer RTX 2080Ti mit mehr Speicher/11GB) und dem dafür zu erwartenden Preis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli, Colindo, tidus1979 und eine weitere Person
CptBabossa schrieb:
Und bei den Preis den nvidia höchstwahrscheinlich aufrufen wird, bleibt dann eher nur noch AMD übrig, die preislich bezahlbar wären.

Wenn von AMD in der Leistungsklasse überhaupt etwas kommt.
 
  • Gefällt mir
Reaktionen: Lübke82
CptBabossa schrieb:
Und bei den Preis den nvidia höchstwahrscheinlich aufrufen wird, bleibt dann eher nur noch AMD übrig, die preislich bezahlbar wären.
Und die Erfahrung sagt mir dass für Nvidia wieder mal eine Umsatzsteigerung bevorsteht. Trotz (atsronomisch) hoher Preise sprechen Marktanteil und Bilanzen für Nvidia.

Und wenn sich die Gerüchte so bewahrheiten sollten frage ich mich ob Nvidia mit der 3xxx Serie die 2xxx ablöst oder gleich oberhalb eine neue Klasse etabliert.
 
Luke-72 schrieb:
Also ich finde solange man nicht explizit in 4K zockt ist eine RTX 2080 oder sogar 2070 völlig ausreichend... weil mir persönlich 1080p völlig ausreichen, selbst wenn ich ab und zu mal meinen PC am 55" TV anschliesse muss ich dort nicht unbedingt 4K zocken.

Sei froh das dir 1080p reichen (vermutlich auch 60hz?)
Jede 0815 Karte kann heutzutage den Gaming Einstieg (1080p 60hz) in guter Grafik darstellen.

Interessant wird es erst ab 144fps (oder 100 oder 160 je nach dem) oder Auflösungen jenseits der 2560x1440 (WQHD).
Oder am besten beides kombiniert, in 21:9 mit 120hz und 3440x1440p

Da ist eine 2080 oder 2070s quasi der Einstieg.

Wobei es soll User geben die dir selbst in 1080p jede noch so starke gpu klein bekommen...😁
 
  • Gefällt mir
Reaktionen: Shoryuken94
Ich finde es immer ganz nett zu lesen wie User X schreibt das ihm 10GB VRAM nicht reichen und User Y schreibt das er mit Textur HD Mod seine 11GB voll bekommt.
Fakt ist aber das diese Diskusionen für einen minimalen Teil der Spielerschaft stehen, sozu sagen der Nerdanteil der "Nerds". Ich zähle mich ja auch zu dem Nerdigen Nerdteil.
Doch der großen Masse ist es ziemlich egal ob 8GB,10Gb etc. Hauptsache das Spiel läuft und fertig.

Also nicht falsch verstehen, ich mag solche Themen aber wenn mal mal überlegt ist es wohl vielen Spielern egal. :)
 
  • Gefällt mir
Reaktionen: Lübke82, Saint81, ninjaduck und 2 andere
Ich denke Grafikkarten um 700€ peilen auch nun mal einen minimalen Teil der Spielerschaft an, nicht die Masse.
 
  • Gefällt mir
Reaktionen: Saint81, orlof, dgneo und eine weitere Person
Palomino schrieb:
Und wenn sich die Gerüchte so bewahrheiten sollten frage ich mich ob Nvidia mit der 3xxx Serie die 2xxx ablöst oder gleich oberhalb eine neue Klasse etabliert.

Nicht mit der kompletten 3000er Serie.
Aber in Bezug auf 3080 und dann 3090 sieht es wohl so aus.
Wobei ich eine 3090 nur konsequnt fände, denn nVidia hat hier meiner Meinung nach mit ihren xx80Ti Karten seit Jahren ein Problem.
Die größte Karte war mit etwa 25% zusätzlicher Leistung zur jeweiligen 80er Karte eigentlich schon immer eine eigene Modellserie und nicht eben lediglich eine gefühlt aufgepimpte 80er.

Es ist eine eigene Modellserie mit dann zu Recht auch ganz eigenem Preis.

Und ja, nur ein ganz kleiner Teil der Spieler kann und will sich das leisten.
Ich spiele bisher in UHD auch mit einer 'nur' 2080 ganz prima
 
Krautmaster schrieb:
Logisch wären doch eigentlich nur 24GB Titan, 11 oder 12 GB die 3090/3080 TI, 10GB die 3080.
Logisch wäre eine Stagnation beim Grafikspeicher über drei GPU-Generationen? Falls wir bis zur RTX 4090/4080Ti auf mehr als 11 - 12 GB Speicher warten müssten, wären das ca. 5,5 - 6 Jahre (März 2017 - Herbst 2022 / Frühjahr 2023).

Und das mit einer neuen Konsolen-Generation Ende 2020, die den Speicherbedarf bei Multiplattformspielen vermutlich auch auf PC-Seite stark ansteigen lässt?
 
  • Gefällt mir
Reaktionen: GERmaximus
Ice-Lord schrieb:
Die neuen nVidia Karten hypen mich leider wirklich nicht.
Wieder zu Teuer ...
zu unattraktiv ...

Ich bin EHRLICH gespannt auf die RDNA 2 Karten.
Ich hoffe auf Killer Preis/Leistung
und ORDENTLICH Druck auf nVidia.
( Einfach eine ausbalancierte Konkurrenz )

der neue vRAM Boom dürfte
schon der Einfluss von AMD sein
( ähnlich der Kerne bei den CPUs )

aha, wie teuer sind sie denn? Hast Du schon den Preis?
wie unattraktiv sind sie denn? Weißt du schon wie schnell sie sind und was sie bieten werden?
Völlig sinnfreier bashing Beitrag. Du weißt doch gar nichts, außer ein paar Gerüchte.
Soll ich Dir einen Screenshot basteln, wo die RTX3080 mit 20GB 399 Eur kostet? Ginge es dir dann besser?
Warte doch einfach erstmal ab, was am Ende wirklich kommt. Es gibt keinerlei offizielle Infos. Nur irgendwelches Sommerloch-Gewürfel und Treiberausgelese. Kannst dann schon noch früh genug rumnörgeln und die AMD Karte (über die Du genauso wenig Infos hast) hochjubeln :freak:. Aber auch zu letzterem bist Du ja schon in der Lage.
Typischer Fanboyquatsch.
 
  • Gefällt mir
Reaktionen: Schokolade, Lübke82, Maggolos und 4 andere
Krautmaster schrieb:
Logisch wären doch eigentlich nur 24GB Titan, 11 oder 12 GB die 3090/3080 TI, 10GB die 3080.

Passt auch zu Nvidias "Art"
Das doch schon lange nichts mehr mit Logfik zu tuen, siehe 1080Ti vs. Titan X wo sich der Unterschied auf eine Hand voll mehr Recheneinheiten und 1GB Grafikspeicher beschränkte, der Aufpreis für die Titan aber blieb.
Den nächsten noch größeren Preissprung gab es dann mit der RTX Titan die dann auch deutlich mehr Speicher bot.
 
Ich verstehe nicht, wieso sich viele hier so dermaßen am Preis aufhängen. Es wird höchstwahrscheinlich Karten im 300-450€-Bereich geben. Diese Karten sind erfahrungsgemäß völlig ausreichend für die meisten Spiele. Alles darüber ist High-End und Enthusiastenklasse und dafür zahlt man heutzutage eben entsprechende Preise - oder auch nicht.
 
  • Gefällt mir
Reaktionen: Ben81, Shoryuken94 und Aduasen
GERmaximus schrieb:
Sei froh das dir 1080p reichen (vermutlich auch 60hz?)
Jede 0815 Karte kann heutzutage den Gaming Einstieg (1080p 60hz) in guter Grafik darstellen.
Würde ich so nicht unterschreiben. Ich Spiele zur Zeit auf ein AMD FX8350 und einer GTX1070, bei 28GB RAM, ich weiß Falschenhals ist meine CPU, deshalb hab ich ja jetzt auch aufgerüstet auf einen Ryzen 7 3800X mit RTX 2080Ti, warte allerdings noch auf das System weil CaseKing irgendwelche "internen Probleme" hat. Keine Ahnung was da los ist, tut ja jetzt auch nix zur Sache. Jedenfalls, ich nutze z.Z. einenen Asus 27" Monitor der maximal nur 1080p bei 60Hz erlaubt. Warum sollte ich wieder auf eine neue Generation von Grafikkarte warten, wenn ich doch eh die meiste Zeit mit 1080p spiele. Ich müsste mir ja deshalb noch zusätzlich einen neuen Monitor der wenn's geht 4K und mindestens 120Hz unterstützt anschaffen. Und sind wir doch mal ehrlich, die meisten zocken doch nur auf einem 24" Monitor und wozu brauch ich da eine 4K Auflösung, selbst mein 27er ist mit 1080p noch völlig ausreichend. Die wenigsten schließen ihren PC an den großen Fernseher an, es sei denn sie wohnen noch bei Mutti und müssen die Stromrechnung nicht bezahlen. Ich finde dieses ganze 4K gedöns nur Geldschneiderei der Hardwareindustrie. Die wenigsten sehen da überhaupt einen Unterschied in welcher Auflösung sie gerade spielen, es ist doch eigentlich nur das eigene Gewissen das man es in 4K spielen kann. Bei richtiger Action auf dem Monitor nimmst du das sowieso nicht mehr war.
 
@Luke-72
Pauschal kann man das aber auch nicht sagen. Ich hatte 1080p bei 27" und mich haben die einzelnen Pixel arg gestört, so dass ich nun bei 1440p auf 27" gelandet bin. Aber 32" sind dann aber schon mindestens 4k notwendig, da sonst wieder die einzelnen Pixel sichtbar sind. Viele mag das vielleicht nicht stören, aber meiner Meinung nach bietet 4k ab 32" auf jeden Fall einen Mehrwert.
 
  • Gefällt mir
Reaktionen: GERmaximus und Lübke82
Sturmwind80 schrieb:
Aber 32" sind dann aber schon mindestens 4k notwendig, da sonst wieder die einzelnen Pixel sichtbar sind.

:)
WQHD auf 32" haben exakt die gleiche Pixeldichte wie FullHD auf 24"
 
Ja für dich offensichtlich. Für andere waren 900 zu viel für wieder andere sind 300 zu viel und nicht wenige würden bei 3000 auch noch kaufen. Daher gibt es ja auch kleinere Karten.
Pricing weiß vermutlich nur Herr Lederjacke bisher.
 
Zurück
Oben