News GeForce RTX 3080: Benchmark nennt Taktraten und 10 GB Grafikspeicher

Berserkervmax schrieb:
Die neuen Generation von Konsolen wird hoffentlich die Meßlatte deutlich höher hängen und auch auf dem PC deutlich Mehrleistung brauchen
Davon würde ich jetzt in den nächsten 2 Jahren nicht ausgehen, da zumindest Microsoft angekündigt hat noch längerfristig neue Titel parallel auf Xbox One und Xbox Series X veröffentlichen zu wollen und die Titel, die auf der PS5 exklusiv erscheinen, werden erstmal längere Zeit nur dort bleiben.
 
matty2580 schrieb:
Bei der VRAM-Diskussion kann ich nur mit der Argumentation von Raff antworten, der immer wieder geschrieben hat dass man sich keine neue GPU kaufen will, wenn man erst einmal die Settings herunter setzen muss.

Viele hier im Forum werden sich vermutlich lieber für die 20GB-Version der 3080 entscheiden, auch wenn sie dadurch teurer wird.

So ist es, einige schreiben hier, dass man ja die Textur Auflösung ja runterschrauben könnte wenn es zum Engpass kommen könnte. Ampere Karten sollen zwar NVCache (Gegenpart zu AMD'S HBCC) und Tensor unterstützte Textur Compression bekommen. Aber dennoch, wenn AMD mit einer Big Navi Karte die im Leistungsbereich der 3080 ansiedelt daherkommt mit 16GB Vram dann wird die 3080 schon auf dem Papier schlechter aussehen und soviel teurer kann Nvidia die 20GB Variante dann nicht machen, das würde AMD wiederum in die Karten spielen.
 
HisN schrieb:
Ich sags mal so: Mich stört das 7GB-CAP und das dadurch eventuell stärkere Streaming mehr als 15GB gefülltes VRAM. Da fragst Du halt gerade genau den falschen^^
Vorhanden Ressourcen dürfen gerne genutzt werden.
I know ;) Geht ja aber auch wie vorhin schon erwähnt um die effiziente Nutzung von Ressourcen.
Aufgrund verschwenderischer oder im schlechtens Falle verbugter Software einen künftigen Bedarf ableiten zu wollen ist meines Erachtens nicht zielführend.

Da sind wir aufgrund diverser neuer Techniken eben auch im Umbruch. Wenn ich inzwischen eine sture Mipmap-/LOD Tabelle getrieben vom Z- Buffer vor meinem geistigen Auge im hintergrund ablaufen sehe, zeitgleich aber schon feinste Culling- Methoden wie es die Decima Engine ja beherrscht, dann krieg ich immer irgendwie Kopfsalat.

Auch wenn man sieht, wie sie sich im prozeduralen Schaffen von Landschaften so weit verkünsteln, dass jegliche Indexplatzierte Variante einfach effektiver gewesen wäre.
Schöne Technik, aber leider unnötig.

Sowas darf man einem ehemaligen C64 coder, der jedes Byte zählt, einfach nicht antun :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini und HisN
Ich werde jetzt bestimmt nicht erklären, wie man "maps" baut, wie man RAM in der 3D Welt spart, warum ein Stein besser ist als 5 unterschiedliche Steine (man kann ihn ja auch drehen) und warum Auflösungen von Texturen nur für Idioten wichtig sind, die von Kacheln noch nie gehört haben.

Irgend wann ist dann auch mal gut.

10, 12 oder gar 16 GB RAM für lächerliche 3D Darstellung ist absolut ausreichen und nur unfähige Programmierer wollen ihr Leben vereinfachen, in dem sie mit Kanonen auf Spatzen schießen. Sie müssen ja weder die Kanonen noch die Kugeln bauen, sie ballern einfach nur sinnlos in die Luft.

Software sells Hardware but Software follows Hardware. Deal with it. Und hört auf, Ressourcen aufgrund von persönlicher Unfähigkeit zu verschwenden.

mfg
 
  • Gefällt mir
Reaktionen: Berserkervmax und Luke-72
<--- als Profi-3D-Grafiker sag ich es mal so:
Würde ich nicht verschwenderisch mit Ressourcen umgehe, würde ich meine Arbeit nicht schaffen.
Bin ich deshalb dumm oder faul?
Ihr macht es euch da gerne mal zu leicht bei der Betrachtung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus, Maggolos, Zock und 7 andere
Diesmal ist Nvidia dran mit lauten, heißen und stromhungrigen Karten.
1.) Nvidia hat eine deutlich schlechtere Node (Samsung 8nm vs TSMC 7+),
2.) Eine Architektur, die nicht daruf aus ist, die Leistungsgrenzen des technisch machbaren auszureizen (da nicht mit Konkurrenz durch AMD gerechnet wurde),
3.) Bedingt durch 1. und 2. ein Ansetzen der Brechstange, um die Leistungskrone zu behalten (siehe Gerüchte zu 350W ASIC TDP und speziellen Stromanschlüssen)
Weiters sind 10GB Speicher doch etwas mickrig bei der 3080 für 2020. Ich denke mal, dass AMD 16GB bieten wird in derselben Preisklasse. Endlich wird der GPU Markt wieder mal ein bisschen spannend. Es ist davon auszugehen, dass AMD dieses mal einen deutlichen Vorsprung bei der Energieeffizienz haben wird.
 
HisN schrieb:
<--- als Profi-3D-Grafiker sag ich es mal so:
Würde ich nicht verschwenderisch mit Ressourcen umgehen, würde ich meine Arbeit nicht schaffen.
Bin ich deshalb dumm oder faul?
Ihr macht es euch da gerne mal zu leicht bei der Betrachtung.
Keine Frage- Deswegen sag ich ja auch, dass das alles immer einen Kompromiss darstellt.
ist wie mit der Nutzung von vorgefertigten Engines.

Damit wirst Du niemals die Performance eines hochoptimierten, nur auf Deine Zwecke abgestimmten Codes erhalten, bist halt aber einfach im Gesamten aber so unendlich viel schneller und effektiver, dass das gesamtwirtschaftlich betrachtet einfach nicht ins Gewicht fällt.

Ein gewisser Grad an Verschwendung ist also auch für mich völlig akzeptabel. Ärgerlich wirds für mich, wenns dann in unnötiger Schlamperei ausartet.
 
  • Gefällt mir
Reaktionen: GERmaximus, milliardo und HisN
Also 10GB finde ich knapp für eine neue Karte, die den Einstieg ins High-End markiert.
Meine 8GB sind in VR ständig am Überlaufen in den Settings die ich gerne hätte. Dafür sind selbst die 11GB der 1080Ti eines Kollegen oft zu wenig.
 
  • Gefällt mir
Reaktionen: Thor-75
HisN schrieb:
<--- als Profi-3D-Grafiker sag ich es mal so:

Du baust aber sicher keine Computerspiele. Bei dir sind Ressourcen bares Geld und du hast keine Konsumenten, die am Ende über hohe Preise jammern aber viele Ressourcen fordern.

Wenn Hardware nur als Mittel zum Zweck betrachtet wird (mehr ist es nicht) wird auch die Betrachtung der Dinge einfacher.

Man will etwas erreichen. Jetzt höhere Zahlen dafür zu verwenden, weil sich das besser verkauft, ist natürlich nur dann wichtig, wenn man sowieso im Bereich der "Spielerei" ist.

Niemand braucht 5Ghz CPUs. Leider ist es einfacher, diese Dinger zu verkaufen, als einen XP3200 mit 2.4Ghz, der einem 3200 Mhz P4 ebenbürtig, wenn nicht gar überlegen ist. (leider eine reale Geschichte)

Persönlich hoffe ich ja immer noch auf schnelle "Zwischenspeicher" und das, was wir heute als "RAM" verstehen, gehört nun einmal nicht auf GRAKAs, CPUs oder sonstige Dinge, die aufgrund der von Neumann Architektur einfach zu limitiert sind.

Harvard für alle und wir kommen auch langsam im neuen Jahrtausend an.

mfg
 
  • Gefällt mir
Reaktionen: Dimos und HisN
Thor-75 schrieb:
3060 = 8GB
3070 = 10 GB
3080 = 10 GB
3090 = 12 GB

:D
Vergiss nicht die 3050 mit 3 GB und die 3050Ti mit 6 GB. DLSS und RT ist selbstverständlich auch hier aktivierbar :D
 
  • Gefällt mir
Reaktionen: Thor-75
Celinna schrieb:
so wirds wohl kommen, aber eigentlich zuwenig :(





Vor allem der Preis bin ich mal gespannt.
Ergänzung ()

PS828 schrieb:
Vergiss nicht die 3050 mit 3 GB und die 3050Ti mit 6 GB. DLSS und RT ist selbstverständlich auch hier aktivierbar :D


ja die kommen später :D

Dazwischen aber noch ne 3050 ti mit 4GB :D
 
  • Gefällt mir
Reaktionen: PS828
kaxi-85 schrieb:
VR+3 Monitore in 4K sind jetzt aber auch weit entfernt vom normalen Nutzer, oder? Ich habe einen 3440x1440 Monitor fürs Zocken und einen 4K Monitor für Grafikbearbeitung - und bin damit sicherlich im Durchschnitt schon am oberen Ende angesiedelt.

3 Monitore oder 4K. Das reicht schon locker um in vielen Games die 8GB Ram zu limitieren. Ich hab 3 Monitore schon seit 7 Jahren und merke das 8GB vRam von Jahr zu Jahr immer öfter limitiert.
 
HisN schrieb:
<--- als Profi-3D-Grafiker sag ich es mal so:
Würde ich nicht verschwenderisch mit Ressourcen umgehen, würde ich meine Arbeit nicht schaffen.
Entwickler sollen ja auch weiterhin Quadro, Titan oder zumindest die dickste Ti kaufen, damit der Umsatz an Firmen stimmt.
Aber nach der Entwicklung sollte (zumindest bei einem Spiel) schließlich noch einmal jemand drüberschauen wo man sinnvoll komprimieren kann. Wenn man sieht was bei manchen Texturen ohne sichtbare Verluste, selbst bei 4k, noch gespart werden könnte...
 
  • Gefällt mir
Reaktionen: v_ossi
schkai schrieb:
Wieso sollten die nicht auch was vom Kuchen haben wollen ? Solange die Leute das Geld aus dem Fenster werfen wird sich in der Hinsicht auch nichts ändern.
Ich sage es mal so. AMD würde es nicht schlecht stehen Marktanteil zu gewinnen. Das bringt in vielen Bereichen Vorteile. Wenn AMD von der Leistung her besser wäre und die TopGpu für 600 verkauft - während NV 2k aufruft... Das würde NV richtig weh tun.
 
Syrato schrieb:
nur ist der AAA und/oder PC User nur ein kleiner Fleck am Horizont, wenn es ums zocken geht.

Das ist korrekt, aber die Enthusiasten sind eben die Zielgruppe der neuen 3000er Serie.

Mit der Gesamtheit der Steam Userschaft zu argumentieren, ist nur bedingt nützlich.

Spielt die Mehrheit bei Stream in FullHD? - Ja
Spielt die Mehrheit der Ampere Kaufinteressenten in FullHD? - Keine Ahnung, meinem Empfinden nach eher nicht.


kiffmet schrieb:
Diesmal ist Nvidia dran mit lauten, heißen und stromhungrigen Karten.
[...]

Kannste den Test dazu bitte verlinkten. Ist ja ein vernichtendes Urteil.
 
  • Gefällt mir
Reaktionen: Lübke82 und Mumusud
ragnaroek666 schrieb:
Spulenfiepen ist kein RMA Grund und das wissen die Händler zum Glück auch.

Ich habe 14 Tagiges Rückgaberecht was ich wohlwissend ausnutze.

Wenn ich 1000+ Euro für ne Grafikkarte hinlege hat die Leise zu sein.
Alternativ sollen sie halt Modelle anbieten die ordentlich verarbeitet werden und Garantiert nicht rumfiepen. Dann kauf ich die.

Und Ja, das ist vermeidbar wenn man will.
Es geht ja nicht um ein leises Brummen wenn ich da 400W durchziehen. Die Schreien lauter als der Intel Boxed Kühler bei über 200W.
 
  • Gefällt mir
Reaktionen: Celinna
Bei der 1070 GTX war meine Grenze mit 435€ schon überschritten. Schlussendlich finde ich hat sich diese Generationen ausgezahlt. Nach 4 1/2 Jahren bemerk ich erst langsam, dass die Karte für 1440p zu langsam wird.

Ich mach es kurz:

Maximal 700€ für eine 3080 Custom Modell ansonsten warte ich bis November was AMD liefert und auch das finde ich extrem teuer auch wenn ich es mir locker leisten kann...
 
  • Gefällt mir
Reaktionen: poly123
Bin so gespannt wenn die Platinen wirklich so dicht gepackt sind wie dann die Wasserkühler aussehen werden, wird immer mehr zu Pflicht wenn man 350 Watt abführen muss.

Hoffe Nvidia bietet irgendwann die nackte Platine ohne Kühler an oder noch besser wenn z.B. EVGA endlich anfängt nackte Platinen zu verkaufen.
 
  • Gefällt mir
Reaktionen: Andybmf und GERmaximus
Zurück
Oben