News Abgespeckt: GeForce RTX 3060 mit 8 GB an 128 Bit jetzt bestätigt

Ich frage mich dauernd, wieso darf Nvidia das machen, verstößt das nicht gegen irgendwelche Regeln, ist das nicht so etwas wie bewusstes täuschen. Mal ehrlich, die meisten Leute sind bei weitem nicht so informiert, sie würden den unterschied nicht mal erkennen wenn man ihnen die die Eckdaten nebeneinander präsentiert, die nehmen eher an das eine ist eine normale Version und die andere OC Version, so wie es die Partnerkartenhersteller schon immer getan haben. In Ordnung, macht sie hundert Euro günstiger, dann wäre es akzeptabel, hier meine ich real günstiger und nicht nur theoretisch, macht mit den Karten Aktionen wo sich die Hersteller daran halten müssen.
 
IsaacClarke schrieb:
Ich frage mich dauernd, wieso darf Nvidia das machen, verstößt das nicht gegen irgendwelche Regeln, ist das nicht so etwas wie bewusstes täuschen.
Jeden Tag beim Einkaufen hast Du Standardprodukte, deren Verpackungsgröße gleich bleibt, aber der Inhalt weniger wurde.
An der Seite steht die Gramm Zahl.

An der Seite der 3060 steht die Variante.

Ich bashe Nvidia gerne für ihre f*ckups, aber hier ist dem Käufer das Informieren und Lesen zuzumuten, kostet wenige Minuten Internetsuche.
Zumal das hier keine Lebensmittel sind für 3 Euro oder ein Batteriekauf, sondern eine eine paar hundert Euro Ausgabe.

btw: AMD bringt 2 GPUs der 7900er Serie auf den Markt.
Nunja ;)

Die Gruppe
IsaacClarke schrieb:
die meisten Leute sind bei weitem nicht so informiert

wird es da sicher auch geben.
 
  • Gefällt mir
Reaktionen: karl_laschnikow, ThirdLife, Frettchen! und eine weitere Person
Ichthys schrieb:
Wieso? Du sagst es selbst. Benennung und Preis sind verkehrt. Und meiner Meinung nach muss die Lücke zwischen 3050 und 3060 nicht gefüllt werden. Wir reden von Karten, die mittlerweile Jahre alt sind. Die Lücke ist jetzt nicht mehr relevant.
Schau dir mal meine Karte an. Die 1650 ist die am meisten genutzte Karte laut Steam. Deine Meinung ist halt nicht die allgemeine Meinung
 
Das untere Ampere-Lineup wird ja noch länger weiterlaufen. da kommt es halt blöd, wenn die 3060 mit 12GB mehr Speicher als die 4060 hat. Daher lässt man die 3060 12Gb (wahrscheinlich?) demnächst auslaufen, die 3060 8GB soll dann diese Position "ersetzen". Den Leistungsunterschied wird der uninformierte "Normal-Kunde" schon nicht bemerken.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wozu eigentlich immer diese komplexen Namensgebungen ? NVidia könnte bei Lovelace doch einfach alle neuen Karten als RTX4090 verkaufen - mit 24GB, 16GB, 12GB, 11GB, 10GB, 8 GB RAM... Dann haben alle nur das Beste vom Besten mit lediglich unterschiedlich viel Speicher. Dass die Anzahl an Shadern, Cache und Speicher-Anbindungen dann "geringfügig" variieren - das kann der Kunde ja dann im Kleingedruckten nachlesen.
 
  • Gefällt mir
Reaktionen: sent!nel, TPZ, poi und 15 andere
Laphonso schrieb:
Der 6600 fehlen die DLSS Feature
Sie hat aber fsr, was nur marginal schlechter ist. Die neue 3060 ist mumpitz, der Preis ist für das downgrade zu hoch. Dann lieber die originale 3060 nehmen oder ne 6700 kaufen
 
  • Gefällt mir
Reaktionen: daknoll, simosh, msv und eine weitere Person
Das sind die anderen GPUs auch nicht, allerdings wird die 3060 unterteilt in 3060 und Mobile 3060 während es bei der 1650 und 1060 noch nicht der Fall war. Daher auch die Anmerkung zu den Steam Zahlen, die muss man an dieser Stelle halt mit Vorsicht genießen. Die Unterscheidung in 3xxx und 3xxx Laptop GPU gibt es erst ab der 3xxx Reihe.
 
  • Gefällt mir
Reaktionen: Laphonso
LamaMitHut schrieb:
Welche Karte von Nvidia lohnt sich denn überhaupt noch?
Die 3060ti FE war lange Zeit für 439€ direkt bei Nvidia bzw. Nbb. Scheint aber aktuell nicht mehr verfügbar zu sein. Das fand ich noch annehmbar und macht eigentlich alle Custom Modelle jenseits der 500€ obsolet und ne 3070 ist dann auch uninteressant, da beide die gleiche große Macke mit den 8GB haben. Hatte kurz eine 3060 12GB für 350€ im Rechner. Fand ich wohl auch ganz in Ordnung, aber dann kam die 6800 für 499€, was für mich jetzt einfach P/L die beste Option gewesen ist.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wie schon gesagt, der Kunde ist schuld am Problem, wenn naive Menschen sich abziehen lassen wollen, wieso nicht?

Gibt so ein Trick... Nicht kaufen, aber 90% tun es trotzdem, also bringt es nichts, sich drüber aufzuregen, seit dieses diablo spiel eingeschlagen ist wie ne Bombe, trotz des shitstorms weiß ich genau wo das problem ist. Ich bin erstmal aus dem PC Markt wenn ich in 10 Jahr noch mal anfangen sollte wird es bestimmt heißen, neues Haus oder Grafikkarte und sogar dann würden noch genug kaufen.
 
  • Gefällt mir
Reaktionen: ferris19 und danyundsahne
Die einzige aber peinliche Lösung von Nvidia eine 3060 für 329,- als real kaufbares Produkt offerieren zu können. :freak:
 
  • Gefällt mir
Reaktionen: eXe777 und Shy Bell
sebish schrieb:
Wer kauft denn jetzt noch eine Low-End Karte aus der letzten Gen? Das macht doch überhaupt keinen Sinn. Wenn überhaupt, dann nutzt man die gefallenen Preise der Top Karten. Oder kauft 4XXX.
EVtl. weil die nächste Generation keine Karten unter 500€ bieten wird und Nv das Lineup unter 500€ mit der 3K Reihe bedienen muss/will ?
sarge05 schrieb:
mit welcher grafikkarte wird sie dann vergleichbar sein ? RTX 3050 oder wie !
Die RTX3050 ist ja je nach game nur knapp über der 1070 bis hoch zur GTX 1080. Denke die 3060 dürfte hier zumindest auf GTX1080 niveau rauskommen. DAS Problem das ich bei der 3060 sehe ist, das sie nicht mehr mit 12gb punkten kann gegenüber der RX6600 / RX 6600 die auch effizient zu werke geht.
Also persönlich kann ich mir nicht vorstellen, dass die 3060 hier irgendwie punkten wird können, aber mal die Tests abwarten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Ohne Witz, ich glaub diese ganze GPU Sch**** von nVidia, hat nie so wenig Spaß gemacht wie aktuell. Inzwischen hab ich Angst vor jeder weiteren Neuvorstellung :D
 
  • Gefällt mir
Reaktionen: scheru, danyundsahne und Onkel Föhn
Känguru schrieb:
Wozu eigentlich immer diese komplexen Namensgebungen ? NVidia könnte bei Lovelace doch einfach alle neuen Karten als RTX4090 verkaufen - mit 24GB, 16GB, 12GB, 11GB, 10GB, 8 GB RAM... Dann haben alle nur das Beste vom Besten mit lediglich unterschiedlich viel Speicher. Dass die Anzahl an Shadern, Cache und Speicher-Anbindungen dann "geringfügig" variieren - das kann der Kunde ja dann im Kleingedruckten nachlesen.
Fyi ;)

MfG Föhn.
 

Anhänge

  • 4080.jpg
    4080.jpg
    70,7 KB · Aufrufe: 261
  • Gefällt mir
Reaktionen: Känguru, Poati, Balu_ und 7 andere
Wenn der Preis so knapp unter 200 wäre, hätte keiner was gesagt, aber so wird der unwissende Kunde halt wieder einmal für dumm verkauft.
 
  • Gefällt mir
Reaktionen: danyundsahne und Onkel Föhn
Wechsler schrieb:
Reicht doch so. Die Frage ist, ob die Karte mehr als 150 € kosten wird.
Das ist genau das Problem sie ist NEU und die Händler knallen erstmal den IST NEU Bonus drauf!
Und aus genau diesem Grund prangert Hardware Unboxed diese Karte in ihrem Test auch so an weil weil die in Übersee durchschnittlich ~350$ kostet und das ist GENAU der GLEICHE Preis zum 12GB Modell.
Wie soll ein Leihe da unterscheiden der einfach nur eine neue Karte benötigt und ihm erstmal gar nicht auffällt das da KLEIN am Karton einmal 12G und einmal 8G stehen kann wenn sie das gleiche kosten aber selbst wenn da im Preis eine kleine Differenz ist bzw. irgendwann sein wird woher weis der Leihe das da mal eben bis zu 30% Differenz in der Leistung sind wenn es nach außen am Karton trotz genauen betrachten doch nur 4GB weniger Speicher sein sollen!?

Es ist der gleiche Beschiss wie bei der ursprünglich geplanten 4080-12G !
 
  • Gefällt mir
Reaktionen: Känguru, eXe777, ottocolore und 7 andere
Vor Beginn der Vorstellung der 4090 gab es ja mal einen Leak mit allen Daten der Karten 4050/4060/4070/4080/4090.
Schon damals konnte man sehen, dass die große 4090 ein Monster wird, hingegen die kleineren 40x0 Ableger aber nur sehr schwach unterwegs sein werden und von nVidia sowohl beim Speicherbus wie auch beim Chip und Recheneinheiten stark beschnitten werden.
Die bessere Rechenleistung wird wohl einzig vom höheren Takt her rühren, den nVidia ja der neuen Fertigungsgröße zu verdanken hat.
Damit macht es Sinn, jetzt die 3060 zu beschneiden, damit es nicht wieder diesen Aufschrei gibt, dass die neue 4060 den kleineren Chip, weniger VRAM hat und nur ca. 20% schneller als die 3060 12G.
Nun scheint sich dieser Leak immer weiter zu bestätigen wonach nVidia durch diese Beschneidungen einen geringeren Herstellungspreis hat, aber gleichzeitig durch einen höheren Verkaufspreis die Marge deutlich anhebt um die Verluste durch den Wegfall der Miner zumindest teilweise zu kompensieren.
Ein wirklich drastischer Fall von Betrug am Kunden!
Ich hoffe die Spielerschaft wird auch weiter aufschreien wie schon bei der 4080, bei der beide geplante Ableger (12G und 16G) ein Betrug am Kunden sind! die 12G die jetzt als 4070ti kommen wird, ist ja immer noch keine 4070 sondern dem Chip, des Speicherbusses und der Speicherausstattung her eine 4060(ti).
Ein schlimmer Fall von Downgrade der noch verschärft wird durch die unverschämte Preisgestaltung.
 
  • Gefällt mir
Reaktionen: TouchGameplay, scheru, iceshield und 7 andere
Hat der Refresh mit schwächerer Hardware vielleicht etwas mit der 25% hohen Sondersteuer in der USA bei Import-Hardware, welche ab 01.01.2023 in Kraft tritt zu tun? Könnte ja der Margensicherung dienen, da die GPUs ja doch eher im Ausland gefertigt werden. Könnte für uns ja auch noch lustig werden, wenn sich der MSRP in den USA erhöht. Hätte ja auf Umwege vermutlich auch eine Teuerung bei uns zur Folge.
 
So wird es genutzt. Aber eigentlich müsste eine Sondersteuer in den USA dazu führen, dass hier günstiger angeboten wird. Ich hoffe ja immer noch, dass einer der Hersteller einknickt und endlich die Preise wieder runter kommen. Man wird ja wohl noch träumen dürfen.
 
Zurück
Oben