News Nvidia GeForce RTX 3080 Ti: Support-Website von Asus bestätigt Ampere mit 20 GB

@Zeitwächter da gibt es genug Spezialisten die ohne diese 2-3 Fps nicht leben können. Da Ihnen sonst der E-Penis abfällt.
 
  • Gefällt mir
Reaktionen: Kha'ak, TigerNationDE und Winder
GhostSniper schrieb:
Habe diesen Monat insgesammt 6 Stück jetzt, 3 liegen jetzt noch da
1. warum kaufst du soviele Grakas?
2. In welchen Shops? Online? Wenn ja, wo? - durch Corona sind alle Geschäfte geschlossen
ruthi91 schrieb:
Bei Notebooksbilliger haben Bekannte 3x 3070 und 1x3090 zur UVP kaufen können. Und das nicht nur für 5sek sondern für über ne Stunde verfügbar :freaky:
NOCHMALS: Es ging dabei um Custom Modelle, nicht um die FOUNDERS


------------
Wenn hier die ganzen User recht behalten was ihre Ausbeute angeht, warum teilt ihr eure Quellen nicht?
 
Die 3080TI wirds dann für mich xD Es sei denn die wollen dafür dann 1500 haben, weil die 3090 bei 2k liegt. da wär ich dann noch raus. 1200-1300 wäre noch ok für mich. Zumindest wenns dann ein ordentliches modell mit anständigen lüftern ist xD
 
AleksZ86 schrieb:
Werde erst wieder aufrüsten wenn 40GB VRAM Mindestanforderung sind XD
Es kommt nicht (oder kaum) auf die VRAM Anforderung an sondern eher die Leistung der Karte.
Bei der nächsten Generation wird die jetzige 3090 wahrscheinlich wieder durch eine xx70 rein von der Leistung (deutlich) überholt.
 
Alexomesis schrieb:
Hier EVGA Deutschland https://de.evga.com/support/stepup/
(Um das Step-Up nutzen zu können, darf das Rechnungsdatum nicht älter als 26.9.2020 sein.)
Das ist völlig normal. Das Step Up gilt 90 Tage.
Rechne Mal das heutige Datum -90 Tage.
Hat man z.B. die Karte am 1 Dez gekauft ist der letzte Tag der 01.03.2020
 
  • Gefällt mir
Reaktionen: Alexomesis
r3ptil3 schrieb:
Darf ich fragen womit du die Taskleiste, wie auf dem Screenshot hinbekommen hast?

Ich würde mich ja gerne mit „meiner“ Taskleiste schmücken, da ich in der Tat sehr viel Desktop- und GUI-Modding unter Linux betreibe...

...in dem Fall ist es aber lediglich die Standard-Taskleiste von Chrome OS, da ich aktuell ein günstiges Chromebook teste. :D
 
  • Gefällt mir
Reaktionen: Kalsarikännit und derSafran
Bis die 3080Ti den Markt erreicht, ists wieder März...
 
  • Gefällt mir
Reaktionen: GT200b und Cyberbernd
HessenAyatollah schrieb:
Mir stößt dann nur schwer auf das man gleich zu Beginn eine 3080 mit 16GB hätte bringen können anstatt nur 10GB.
Aber die wäre doch dann sehr viel langsamer, wenn das Speicherinterface so viel schmaler wäre. Davon hätte niemand was.
 
buuge schrieb:
Bei der nächsten Generation wird die jetzige 3090 wahrscheinlich wieder durch eine xx70 rein von der Leistung (deutlich) überholt.

guck mal wie weit eine (oc) 2080ti und eine (oc) 3070 auseinander liegen.
Da ist weder von Überholen noch von deutlich eine Spur. Von den 8 zu 11 GB vram ganz zu schweigen;)

eine 3070 ist eine 2080ti light nur als vram Krüppel

edit: gerade nochmal auf die cyberpunk benches geguckt. Selbst mit knappen 100mhz mehr, kommt die 3070 an der 2080ti nicht vorbei.
https://www.pcgameshardware.de/Cybe...k-2077-Benchmarks-GPU-CPU-Raytracing-1363331/

ich sage es immer wieder: schreibt die tsktraten direkt mit in die benches, direkt dabei
 
Zuletzt bearbeitet:
bfdx schrieb:
Aber die wäre doch dann sehr viel langsamer, wenn das Speicherinterface so viel schmaler wäre. Davon hätte niemand was.
Ich merke du hast voll die Ahnung😂
Selbstverständlich wird das Speicherinterface bei 16GB wohl kaum bei 320 Bit belassen geworden, das wäre auch mit angepasst! Davon mal abgesehen hat eine RTX 3090 bei 24GB VRAM gerade mal nur 384 Bit, also 64 Bit mehr bei 14GB mehr VRAM als die 3080!
 
Zuletzt bearbeitet:
Maggolos schrieb:
Wobei ich jetzt sagen muss, dass ARK kein gutes Beispiel ist.

Natürlich ist es das nicht, gar keine Frage. Es geht mir halt um die Behauptung "8GB reichen immer".

Das stimmt halt so nicht.
 
  • Gefällt mir
Reaktionen: SockeTM, GERmaximus, Maggolos und eine weitere Person
HessenAyatollah schrieb:
Ich merke du hast voll die Ahnung😂
Selbstverständlich wird das Speicherinterface bei 16GB wohl kaum bei 320 Bit belassen geworden, das wäre auch mit angepasst! Davon mal abgesehen hat eine RTX 3090 bei 24GB VRAM gerade mal nur 384 Bit, also 64 Bit mehr bei 14GB mehr VRAM als die 3080! Die 3080 wäre auch mit 16GB und 320Bit mehr als schnell genug!

320bit und 16GB gehen nicht. Nvidia müsste das Interface auf 256 bit reduzieren für 16GB und die doppelte Anzahl an GDDR6X Chips nutzen - wie bei der 3090. Natürlich hätte Nvidia auch eine 3080 mit 16GB bringen können. Die Karte wäre aber teurer gewesen und zudem aufgrund des kleineren Speicher Interfaces auch langsamer in 4K.

192 bit - 6GB / 12 GB
256 bit - 8GB / 16GB
320 bit - 10GB / 20 GB
384 bit - 12GB / 24GB
 
  • Gefällt mir
Reaktionen: JohnnyTexas, Neubauten, schneeland und 3 andere
ThePlayer schrieb:
Und trotzdem kaufst du deren Produkt und gibst ihnen Recht.
Sorry wenn sich das jetzt etwas hart anhört: Den Kunden (Dich) wie einen Idioten zu behandeln. Und fast alles zu tun was zu Ungunsten des Kunden ist. Ist ja nicht so als wenn AMD dieses Jahr mit RDNA2 nicht konkurrenzfähig wäre. Ja bei RT ist man bei den bisher erschienen Games hinten dran. Aber bei den paar Titeln bisher wovon etwa 50% MP sind wird sowieso keiner RT einschalten. Und beim Rest kann man im Singleplayer auch mit 40 FPS Leben.
Also bitte nicht über Nvidia beschweren wenn man denen mit dem Portemonnaie den Hintern küsst.

Mein Freund du weißt leider nur die Hälfte! Ich hatte meine RTX 3080 bereits 3 tage nach Launch! Zu diesem Zeitpunkt wußte wirklich keiner das die kommenden Radeons so stark sein werden wie sie es jetzt am Ende sind! Ich war froh das ich überhaupt eine 3080 zu einem vertretbaren preis ergattert habe! Und rein von der Leistung bin ich sehr glücklich mit meiner Grafikkarte nach wie vor, die reine GPU-Power ist nach wie vor sehr beeindruckend. Mir stößt nur sauer auf, das Nvidia erst seinen Arsch bewegt wenn sie unter Druck gesetzt werden von der Konkurrenz und nicht lieber eine zeitgemäße Bestückung mit VRAM zum Vorteil des Kunden vornehmen!
 
  • Gefällt mir
Reaktionen: Hells_Bells
Tja mein Freund die 10GB Vram der 3080 waren die bekannt. Das AMD mit 16GB kommt war auch bekannt.
Ergänzung ()

Außerdem war schon Recht sicher das RDNA2 sehr nahe an die Ampere Ran kommt.
Ergänzung ()

Ich wollte dich jetzt auch nicht persönlich angreifen. Aber wenn man sich in den Beiträgen die Signaturen ansieht wer welche Hardware hat. Dann Frage ich mich wieso die Leute immer wieder bei Nvidia kaufen. Wenn sie so genervt sind wie sie verarscht werden.
 
Da bist du aber fett auf dem Holzweg, ich weiss noch ganz genau wie damals auf Fachseiten stand das es ganz schwer wird für Radeon da mitzuhalten! Und zu diesem Zeitpunkt (17.September) stand es nicht fest das Radeon 16GB verbauen wird!
 
bfdx schrieb:
Blödsinn. Die RTX 3090 nutzt nicht den Vollausbau des verbauten GA102-Chips, sondern nur 10.496 der 10.752 Shader
Au tatsächlich, das wären ja aberwitzige 2% mehr Recheneinheiten die dann für 1-2% mehr Leistung sorgen könnten. Wäre ja gelacht wenn die den absehbaren UVP Preis von 1800-2000€ für eine solche Karte nicht rechtfertigen würden. Du hast doch nicht ernsthaft gedacht das es die für lau geben würde, oder?
HessenAyatollah schrieb:
Die 3080 wäre auch mit 16GB und 320Bit mehr als schnell genug!
Und mit den nutzbaren Speicherchips unmöglich sinnvoll umsetzbar.
Die 3090 hat nur deshalb einen so großen Speicherausbau weil doppelt so viele Speicherchips pro 32 Bit Controller zum Einsatz kommen als bei der normalen 3080.
 
  • Gefällt mir
Reaktionen: bfdx
Viele, die heute vom StepUp Programm reden, werden das Problem haben, dass der Kauf der 3080 dann nicht älter als 90 Tage her sein darf. Außerdem führt EVGA in den Beispielen explizit auf, das ein Upgrade von 1080 auf 1080 TI z.B. nicht berechtigt ist. Ich gehe daher nicht davon aus, das 3080 auf 3080 TI möglich sein wird.

Allgemein fände ich eine 3080 TI Custom für 1200€ UVP im Vergleich zur 3080, welche mich Ende Oktober 787€ gekostet hat, viel zu teuer. Die 3090 liefert ca. 10% mehr, die 3080 TI wird dann vielleicht effektiv 7-8% mehr Leistung bringen(?!?), kostet aber bereits 400€-450€ (!) mehr. Da passt das Verhältnis überhaupt nicht, zumal ich bisher in UWQHD mit den 10GB bestens klar komme, meist sind 7-8GB in Benutzung.
 
Zurück
Oben