Notiz Nvidia GeForce RTX 3060: Asus TUF Gaming OC bestätigt GA106-300 mit 12 GB GDDR6

DKK007 schrieb:
Durchaus interessant. Also quasi eine 1660 Super / 2060 mit doppeltem VRAM.

Kann man nur schlecht vergleichen, da sich eine RTX 3060 wohl eher auf Niveau einer GTX 2070 Super / RX 5700 XT einpendeln dürfte, wohl + / - ein paar Prozentpunkte.

Worauf man aber gespannt sein darf, ob nVidia die GTX Serie auch wieder ins Spiel bringt, sprich Karten auf Basis des aktuellen Chips, nur ohne Raytracing.
 
  • Gefällt mir
Reaktionen: Innocience und Mcr-King
DiamondDog schrieb:
Wir gehen jetzt von gängigen Spielen aus nicht von Videoschnitt oder Codierung ect.
Und da hat die Auflösung den größten Impakt auf den Speicher.

Jein.
Ein auf 8k gestelltes fortnite wird weniger vram verbrauchen als ein auf Ultra gestelltes farcry 5 in 1080p.
Es redet bisher niemand von Videoschnitt...

Texturen in Games kosten völlig unabhängig von der Auflösung nun mal nur vram aber keine GPU Power.
 
  • Gefällt mir
Reaktionen: Ganjafield, DKK007, Shoryuken94 und eine weitere Person
Ltcrusher schrieb:
Worauf man aber gespannt sein darf, ob nVidia die GTX Serie auch wieder ins Spiel bringt, sprich Karten auf Basis des aktuellen Chips, nur ohne Raytracing.
Eigentlich nicht da die RTX3050ti den Einstieg bildet mit 8GB für ca 250-300€
 
GERmaximus schrieb:
Jein.
Ein auf 8k gestelltes fortnite wird weniger vram verbrauchen als ein auf Ultra gestelltes farcry 5 in 1080p.
Es redet bisher niemand von Videoschnitt...

Texturen in Games kosten völlig unabhängig von der Auflösung nun mal nur vram aber keine GPU Power.
Du vergleichst gerade Spiel A auf FHD mit Spiel B auf UHD.

Und dass ein augenkrebsspiel wie Fortnite keine Ansprüche stellt, darüber müssen wir nicht reden.

Und wie ich schon mal sagte, ich habe nicht behauptet dass es keine Spiele gibt die entsprechend vRam fressen. Ich habe gesagt, dass es ausnahmen sind die man an einer Hand abzählen kann. Als Hersteller würde ich auf Optionen auch Pfeifen und Kosten sparen ;)

Man könnte ja auch tauchfähige Autos bauen, für den Fall der Fälle falls man von einer Brücke fallen sollte..
Macht auch keener ;)

Der aktuelle vRam der 3060 Ti und der 3080 ist entsprechend der GPU Leistung angemessen bestückt.
 
der Unzensierte schrieb:
Eindeutig Letzeres. 12GB für eine midrange und 8GB für das high-end sprechen doch eine deutliche Sprache, oder?
die 8gb gddrx ab der 3080 sind trotzdem schneller wie die 12gb 08/15 gddr von 3070 abwärts....
Ergänzung ()

Dito schrieb:
@Ichthys Der Otto soll doch nichts kapieren. DAS ist der Plan!
Leider informiert sich der Otto auch zu wenig, sonst würde er nicht immer solche Produkte kaufen.
Mir und euch anderen kann es bedingt egal sein, denn wir kaufen "sinnvollen" Produkte.
für nvidia sprach für mich i.d.r. bessere treiberpflege. wenn ich mir bei amd den intervall an adrenalin treibern anschaue, naja. hardwaretechnisch würde ich aber z.zt. eher zu einer rx6800 tendieren, auch wenn die nur normalen ddr vram bietet
 
Zwirbelkatz schrieb:
Nvidia wisse schon, weshalb aktuelle Karten lediglich 8GB Speicher erhalten".
Natürlich wissen sie warum sie nur 8GB verbauen. Man soll doch bei den Super Varianten (doppelt pro Generation abcashen) oder spätestens bei der nächsten Generation aufrüsten. Wo kämen wir da hin, wenn aktuelle Karten über viele Jahre genutzt werden?
 
  • Gefällt mir
Reaktionen: Ganjafield, Mcr-King und Mensor
Als Zielgruppe Stelle ich mir den Schwiegervater meines Kumpels vor, der seinen Intel 4960x ( ?) unbedingt für seine Office Angelegenheiten und Wimmelspiele auf 64 GB aufgerüstet haben wollte 😁
 
  • Gefällt mir
Reaktionen: Bänki0815, DiamondDog und Crizzo
foo_1337 schrieb:
$$$. Wenn du 12gb mit 384 möchtest, kannst du dir vermutlich bald die 3080(s oder ti) kaufen.
ich möchte atm keine nvidia, warum auch. schrieb ja, das ich wenn, eher zu einer rx 6800 tendieren würde.
wenn schon eine nvidia dann wohl eher die 3060ti, zwecks größerer anbindung mit 256bit;)
 
  • Gefällt mir
Reaktionen: Mcr-King
Diese gpu ist genau das was ich brauche

allerdings nah an meine rkotzgrenze beim preis 349€ sind nee nummer
Der release aber erst Anfang Februar tut weh
ich gehe von eine sehr schnellen Abverkauf der FE innerhalb von 1 Minute aus.
Die Customs werden wohl bei 399-449€ landen + scalper Aufschlag
Aktuell versuche ja die Händler den US Preisaufschlag in der EU durchzusetzen.
Amd rx6700 kommt auch etwa Anfang März
Was mich stört ist die verdammte Knappheit an Angebot und somit den viel zu hohen Preisniveau.
Von den spec her ist die rtx3060 12gb ideal.
vermutlich muss man sofort bei Verkaufsstart blind kaufen Ansonsten wartete man Monate
 
  • Gefällt mir
Reaktionen: Mcr-King
Ichthys schrieb:
Eine interessante Modellflut seitens nvidia. Haben die Langeweile oder keinen Plan?
Auf jeden Fall haben Sie keine Karten zum Ausliefern
 
  • Gefällt mir
Reaktionen: schneeland, Bänki0815, DKK007 und 4 andere
In Zukunft dann:
RTX 4090 - 4GB
RTX 4080 - 8GB
RTX 4070 -10GB
RTX 4060 - 16GB
RTX 4050 - 20GB
Dazwischen natürlich noch Ti- und Super-Karten mit völlig zufällig verteilter VRAM-Menge.

Hier habt ihr es zuerst gelesen. 👍

🤪



Spaß beiseite.
Ich raff's auch nicht. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Ops, Ateles, schneeland und 6 andere
foo_1337 schrieb:
Wenn du 12gb mit 384 möchtest, kannst du dir vermutlich bald die 3080(s oder ti) kaufen.

Es ist gerade wieder das Gerücht aufgekommen, dass Nvidia die 3080Ti 20GB nicht bringt, sondern eine 3080Ti mit 12 GB und vollen 384 Bit :)

Simariqcocuq schrieb:
Freunde was hält ihr von einer rtx 2080 ti palit dual gebraucht mit rechnung und ovp für 560 euro?

Kann man machen, wenn man unbedingt jetzt eine Grafikkarte braucht. Ob man 560€ für eine über 2 Jahre alte GPU zahlen möchte muss jeder selbst wissen. Angesichts der aktuellen Liefersituation kann man das machen. Wären alle Karten zu Ihrer UVP verfügbar wäre es deutlich zu teuer.
Ergänzung ()

USB-Kabeljau schrieb:
Ich raff's auch nicht. 🤷‍♂️

Nvidia scheint ja auch wöchentlich etwas zu ändern, siehe aktuelle Gerüchte, dass es doch keine 20GB 3080Ti gibt.... Anscheinend würfeln sie einfach. Das ganze Ampere Lineup macht irgendwie wenig Sinn und wirkt nicht sehr durchdacht. Dabei hätte man mit den Chips richtig tolle Karten bauen können.

Z.B. eine 3080 mit 12GB @ 384 Bit mit normalen GDDR6 wäre super. Damit könnte man die gleiche Bandbreite wie mit 320 Bit GDDR6x erreichen, hätte eine halbwegs zur leistung passende Speichergröße, der Speicher müsste nicht halb verglühen und die Karten wären wohl eher günstiger als teurer. Aber bei jeder SKU denkt sich nvidia irgendeine neue Kleinigkeit aus, die stört. Turing war im Lineup zum Ende schon verwirrend, Ampere ist noch schlimmer. Es wäre echt ein Traum, wenn sie statt 20 komischen Variationen einfach mal 5-6 Klar abgegrenzte Karten mit sinnvoller Konfiguration bringen.

Mal gucken wie es mit RDNA2 wird. Hoffentlich reißt sich AMD etwas zusammen und gestaltet das Lineup etwas strukturierter und verzichtet diesmal auf irgendwelche Speicherkrüppel. 6900XT (16GB) > 6800XT (16GB) > 6800 (16GB) > 6700XT (12GB) > 6700 (12GB) > 6600XT (8GB) > 6800 (8GB). Mehr braucht es aus Kundensicht nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alpha.Male, maxpayne80, DrFreaK666 und 3 andere
foo_1337 schrieb:
Wird wohl eher Mitte oder gar Ende Februar werden.
Später China hatt neues Jahr Fest 2 Wochen lang also Anfang März. 😉
 
Shoryuken94 schrieb:
Mal gucken wie es mit RDNA2 wird. Hoffentlich reißt sich AMD etwas zusammen und gestaltet das Lineup etwas strukturierter und verzichtet diesmal auf irgendwelche Speicherkrüppel. 6900XT (16GB) > 6800XT (16GB) > 6800 (16GB) > 6700XT (12GB) > 6700 (12GB) > 6600XT (8GB) > 6800 (8GB). Mehr braucht es aus Kundensicht nicht.

So wird es nach aktuellem Stand bei AMD laufen.
 
Ist das ein Joke?
349 Dollar? ab Mitte Februar?

Es gibt im Moment garkeine Karten, und wenn erheblich über der UVP.

Das würde ich gerne sehen, das die 3060 Mitte Februar in großer Stückzahl für 350 Euro erhältlich ist.
Glauben tu ich da aber nicht dran.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich bezweifel das Nvidia hier viel spielraum hatte. Entweder 6 odrer 12 GB, sonst bräuchten Sie ein anderes Speicherinterface bzw. Chip. Also in den sauren Apfel gebissen und 12 GB gewählt. Mit 6 GB wären die Verkaufszahlen vermutlich zu gering für Nvidias Pläne.
 
  • Gefällt mir
Reaktionen: Ateles, hahaqp und Mcr-King
Zurück
Oben