News GeForce RTX 3080: Benchmark nennt Taktraten und 10 GB Grafikspeicher

Floxxwhite schrieb:
Puh. Also bei so einer 3080 versteh ich die Speicher Diskussion nicht. Hau doch einfach drauf? Die 50 Eur machen den Bock auch nicht mehr fett. 16-20 GB und fertig. Who cares.

Die Aktionäre... Die interessiert das. Sogar sehr. Wenn man so leicht viel Geld verdienen kann wird Nvidia das auch tun. AMD übrigens ebenfalls. Die kommen ja nicht von der Heilsarmee.

Ob man die Menge an VRAM benötigt muss jeder selbst entscheiden. Die 4k Ultra Fraktion ist lediglich die Lauteste. Nicht die die am weitesten verbreitet ist.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Lübke82 und Fernando Vidal
@kaxi-85

Mein Beispiel dafür ist immer Rise of the Tomb Raider @ max. Texturen und in UHD.
Mit der Vega64 gab es da ohne HBCC derbste Nachladeruckler und Nachladeeffekte, mit HBCC wurden diese deutlich gemindert aber auch ca. 11 GB vom 16 GB Cache (gilt dann als VRAM) vollgeschaufelt. Das Spiel ist nun auch wieder fast 5 Jahre alt.
Beim Nachfolger des Spiels müßte ich nochmal nachschauen allerdings hatte ich den genügsamer in Erinnerung was den VRAM angeht.
 
alkaAdeluxx schrieb:
Ja hoffentlich kann AMD kontern, das wünsche ich mir für uns alle, da so die Preise sehr gesalzen werden.
Mehr wie 500€ würde ich niemals für eine GPU zahlen, die sollen mal runter von ihrem mining Preise trip kommen.

Warum sollten sie? Die Käufer nehmen die Karten doch in großen Mengen ab. Kein Grund für eine Preissenkung. Ich erwarte, dass die Preise höher liegen als bei den GTX 2XXX.
Dämpfend könnte hier ein gutes Angebot von AMD einwirken. Wenn dem so sein sollte, sich die Kundschaft aber nur für die niedrigeren Preise bedankt und Nvidia kauft, wird auch das bald wieder Geschichte sein und die Preise hoch.
 
  • Gefällt mir
Reaktionen: Bonanca und Onkel Föhn
kaxi-85 schrieb:
und bin damit sicherlich im Durchschnitt schon am oberen Ende angesiedelt.

Der Durchschnitt kauft sich aber auch keine GPU in dem Preisbereich. Wenn wir uns die Spielerzahlen angucken, dann spielt der Durchschnitt nicht mal wirklich aufwändige Spiele am PC.

rlchampion schrieb:
Bei den CPUs hat AMD es aber genauso gemacht...

nicht wirklich. Dort hat AMD zu ähnlichen Preisen deutlich mehr Leistung geliefert. Das man deutlich mehr Leistung als Nvidia liefern kann, ist aber eher unwahrscheinlich.

Farcrei schrieb:
Ich hoffe dann mal, dass AMD auch was zum kontern haben wird.

Wenn es nur paar Prozent schneller als eine 2080Ti sein soll, dann wird AMD ziemlich sicher was im Agebot haben. Die frage ist ja nicht, ob die 2080Ti geschlagen wird, sondern wie stark.
 
  • Gefällt mir
Reaktionen: andy484848 und Onkel Föhn
hurga_gonzales schrieb:
Ach, spiel' einfach mal RDR 2 oder ähnlich aufwändige Titel, da sind 10 GB VRAM nicht wirklich viel.
Es ist also eine Einzelfallentscheidung, aber viele werden ein böses Erwachen erleben, wenn sie mit 4K und den läppischen 10 GB VRAM in höchsten Einstellungen spielen möchten.
Naja- Du hast halt irgendwie den Zug der Zeit verpasst.
In Zukunft wird sich durch neue Techniken der VRAM- Bedarf, gerade auch was Auflösungen anbelangt egalisieren (DLSS/Streaming).

16 GB wäre das untere Limit für neue 4K Karten....im Übrigen die ersten 4K Karten überhaupt, weil die 2xxx Serie konnte das auch noch nicht wirklich zufriedenstellend meistern.
Die Programmierer wären schön blöd, wenn sie ob der neuen Techniken von nvidia in ihre Spiele kein DLSS integrieren. Geschwindigkeitsvorteile, ruhigeres Bild und weniger VRAM Verbrauch links liegen lassen?

Insgesamt: NVidia Kundenverarsche mal wieder.
Kundenverarsche wäre es nur, wenn die Entwicklerstudios die inzwischen angebotenen technischen Möglichkeiten zur Leistungs- und Qualitätssteigerung bei niedrigerem VRAM- Abdruck nicht nutzen würden.
nvidia hat im Gegenteil alle Voraussetzungen dafür geschaffen, dass ein Entwickler deutlich mehr Stoff an die Hand bekommt.

Lass mal Deine Emotionen weg und betrachte es eher mal von technischer Seite. Jedes Spiel kannst Du so schlecht programmieren, dass sowohl CPU als auch GPU bei qualitativ minderwertigem optischen Eindruck im Limit laufen.

Du denkst da in viel zu engen Bahnen. Was soll nvidia noch machen, als den Entwicklern mächtige Tools an die Hand zu geben, um alles zufriedenstellend zu regeln?
Und die sollen dann plötzlich diejenigen sein, die die Kunden verarschen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hahaqp, ColonelP4nic, TheGreatMM und 8 andere
  • Gefällt mir
Reaktionen: Khalinor, GERmaximus und Onkel Föhn
Warum der Speicher das Top Thema sein soll versteh ich nicht... 4K Texturen lädt man wohl eh nur mit 3080/3090.
Aber selbst da reichen 10 GB da die Games das eh skalieren... gibts mehr Speicher wird mehr rein geladen.

Interessanter sind die "Leaks" zur Leistung. +55% der 3090 auf die 2080 Ti klingt fast schon zu gut. Allerdings gibts diesmal den Shrink im Gegensatz zum Sprung von GTX1000 auf RTX2000. Dazu wieder einen größeren Chip mit mehr Leistungsaufnahme.

Edit: @Ben81: bei deinem Link sinds 40%. Das ist wohl eh das Mindestes was erwartet wird an Leistungssteigerung. Das aber die Performance/Watt nach oben hin besser werden soll klingt falsch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kaxi-85
Wer braucht schon diesen 10GB Zwischenschritt die sollen gleich die 20GB bringen und gut! Lieber haben als hätten!
 
Endlich wird es wieder interessant.

So lange die Tücher noch auf den Tischen liegen, kann spekuliert, gehofft und geträumt werden.

Nvidia wird wahrscheinlich ein gewohnt gutes Bild abliefern, mal abgesehen vom Preis.

Bei AMD wird es spannender.
Was leistet die neue Architektur, was wirds kosten ... können sie die gleiche Nummer wie bei den CPU's abliefern?

Ich freue mich!
Genießt den Moment.
Vorfreude ist die schönste Freude.
 
  • Gefällt mir
Reaktionen: Recharging und Onkel Föhn
  • Gefällt mir
Reaktionen: Celinna, Khalinor, GERmaximus und 2 andere
S.Kara schrieb:
Beim Zocken bin ich mit meinen 8 GB in 4k noch nie ans Limit gekommen. Lightroom hätte gerne das Doppelte.
wann benötigt LR so viel Grafikspeicher?
Hab noch nie drauf geachtet.
 
  • Gefällt mir
Reaktionen: fox40phil
Shoryuken94 schrieb:
Wenn es nur paar Prozent schneller als eine 2080Ti sein soll, dann wird AMD ziemlich sicher was im Agebot haben. Die frage ist ja nicht, ob die 2080Ti geschlagen wird, sondern wie stark.
Die 2080ti ist nicht der Gegner. Da die AMD wohl erst im November kommen, müssen sich die Karten mit der 3080ti / 3090 den Ampere-Karten messen lassen.
 
Zuletzt bearbeitet von einem Moderator:
@Che-Tah

Weil genug Speicher Grundvoraussetzung für einen anständige Performance der Karte ist und es in der Preislage für mich unverständlich ist etwas runter regeln zu müssen was praktisch keine Perfermance kosten würde wenn der Hersteller nicht den Rotstift zur Gewinnmaximierung angesetzt hätte.
 
  • Gefällt mir
Reaktionen: Coeckchen, Hardwarious, Celinna und eine weitere Person
DarkInterceptor schrieb:
Horizon Zero Dawn zocke ich anstelle von UHD auf 1440 mit der einstellung Qualität und 10gb vram sind eigentlich immer voll.
daher denke ich das eine grafikkarte die mitte/ende 2020 mit "nur" 10gb vram kommt eindeutig ladenhüter sein wird. zumindest bei leuten die sich auskennen.
bisher reichten 8gb vram aus aber das ändert sich schon zum teil deutlich.



also sind wir pc zocker wieder die blöden weil die konsoleros keinen vram haben.



sehe ich anders. als der aufschrei mit 8gb vram losging war es doch das selbe in grün(wortspiel). alleine wenn ich täglich in den kaufberatungen für neue pc so sehe das die leute entweder 1440er auflösung haben oder wollen bzw schon über uhd nachdenken, dann wird es echt bald knapp werden.
bestes und bisher einziges beispiel HZD. bei 1440 auf Qualitätseinstellung 10gb vram voll. hätte ich keine 11gb wäre das game sicher etwas ruckeliger. wobei meine 980ti damals mit RE7 auch schon am limit war was vram angeht und da hab ich es noch in FHD@ultra gezockt.
Ja man merkt ja schon bei COD auf Ultra Details und WQHD das die 2080Ti da schon Stress bekommt.
 
Shoryuken94 schrieb:
nicht wirklich. Dort hat AMD zu ähnlichen Preisen deutlich mehr Leistung geliefert. Das man deutlich mehr Leistung als Nvidia liefern kann, ist aber eher unwahrscheinlich.
Dort haben sie aber auch durch ihre Architektur einen massiven Preisvorteil da fast alle Chips verwendet werden konnten. Das wird so bei den GPUs wahrscheinlich nicht der Fall sein.
 
  • Gefällt mir
Reaktionen: Obvision, GERmaximus, fox40phil und 2 andere
DarkInterceptor schrieb:
Horizon Zero Dawn zocke ich anstelle von UHD auf 1440 mit der einstellung Qualität und 10gb vram sind eigentlich immer voll.

Ich spiele ebenfalls in 1440p und mit ultimativer Qualität. Meine Speicher ist bei 7,3GB von 8GB und es läuft top. Speicher füllen heißt nicht, dass er auch genutzt wird. Das ist bei Warzone, FFXIV und co. genau dasselbe Spiel. Selbst wenn du 40GB VRAM hättest, würde er gefüllt werden, hätte nur keinen Sinn außer, dass alle denken sie bräuchten mehr VRAM. Scheint wohl neues Marketing zu sein mit dem VRAM, mir ist kein Spiel bekannt, welches jemals mein Speicher gekillt hat.
 
  • Gefällt mir
Reaktionen: andy484848, cele, Munkman und 2 andere
Che-Tah schrieb:
Interessanter sind die "Leaks" zur Leistung. +55% der 3090 auf die 2080 Ti klingt fast schon zu gut. Allerdings gibts diesmal den Shrink im Gegensatz zum Sprung von GTX1000 auf RTX2000. Dazu wieder einen größeren Chip mit mehr Leistungsaufnahme.

Na ja. Das Problem ist immer nur, dass die Leute die Leistung bei Release betrachten, wo noch Null Optimierung geschehen ist und man nur alte Titel zum testen hat. sieht man doch bei der 2080Ti super. Die 2080Ti ist heute im Schnitt 40% vor der 1080Ti, in Titeln mit modernen Engines, die auch die Turing Architektur besser ausnutzen sind es teils auch 60% mit DLSS bewegt man sich in noch ganz anderen Dimensionen.

Aber das sehen viele halt nicht. Nvidia investiert nicht nur in mehr klassische Recheneinheiten, sondern in die Architektur und funktionen, die nach und nach in Spiele Einzug finden.

rlchampion schrieb:
Die 2080ti ist nicht der Gegner. Da die AMD wohl erst im November kommen, müssen sich die Karten mit der 3080ti / 3090 messen lassen.

Klar ist nicht Turing der Gegner, sondern Ampere. Der User wollte aber nur 2080Ti Leistung + paar Prozent und das wird AMD auch im worst case erreichen.

Ob Big Navi sich mit der 3090 messen kann, ist eine andere Frage. nicht zuletzt auch eine preisliche.

7hyrael schrieb:
Dort haben sie aber auch durch ihre Architektur einen massiven Preisvorteil da fast alle Chips verwendet werden konnten. Das wird so bei den GPUs wahrscheinlich nicht der Fall sein.

Kommt auch noch hinzu. Zen vs Intel hatte halt völlig andere Voraussetzungen, als RDNA2 vs Nvidia.
 
  • Gefällt mir
Reaktionen: Lübke82, GERmaximus und Che-Tah
Es ist doch ganz einfach.
Für High-End-Preise verlange ich High-End-Hardware!
Wenn ich jetzt schon anfangen muss Regler runter zu stellen, wie wird dass dann in 1-2 Jahren aussehen, wenn die Multiplattformtitel für die neuen Konsole und PC erscheinen? Soll man sich dann nochmals High-End-Hardware zulegen?

Daher sind 10GB schon eine echte Frechheit und ein NO-GO im Jahr 2020/21.
 
  • Gefällt mir
Reaktionen: Kha'ak, Pastafari, Onkel Föhn und 4 andere
Shoryuken94 schrieb:
Der Durchschnitt kauft sich aber auch keine GPU in dem Preisbereich. Wenn wir uns die Spielerzahlen angucken, dann spielt der Durchschnitt nicht mal wirklich aufwändige Spiele am PC.

Auch für anspruchslose Spiele wie z.B. Fortnite werden 2080 Super gekauft, damit die Spieler möglichst 200+ FPS bei FullHD halten können.

Ich denke das dank Technologien wie DLSS und dem Umstand, dass die meisten (auch Hardcore) Spieler höchstens auf 1440p zocken, eine 10GB 3080 für über 90% der kommenden Spiele absolut ausreichend sein wird. Ich lasse mich natürlich gerne nach Release eines besseren belehren, hoffe hier aber eine Karte für maximal 900 Euro zu bekommen, die mich über die nächsten 3 Jahre bei sehr hohen Grafik-Settings bringt.
 
  • Gefällt mir
Reaktionen: Andybmf und .Sentinel.
Zurück
Oben