News Neue GeForce RTX 3050: Die 6-GB-Version ist ab 185 Euro im Handel verfügbar

Gizzmow schrieb:
braucht aber (leider) nochmal einen externen Stromanschluss.
Falsch,
die A380 braucht nicht unbedingt einen !

frankkl
 
  • Gefällt mir
Reaktionen: SweetOhm
rorian schrieb:
Habe nicht behauptet das es dafür keinen Markt gibt, sondern das es bereits Alternativen zu dieser Karte gibt die vielleicht besser wären, die Leute aber kaufen weil NVIDIA drauf steht.
Hä? Ne, das hast du so ja nicht geschrieben. Sonst hätte ich wahrscheinlich auch gar nix gesagt ;)
Du schreibst, dass es Dinge sind, die die Welt nicht braucht (nichts davon dass es Alternativen gibt). Mal davon ab, sorry, dass ich nicht noch den halben Thread lese um eventuell anders lautende Beiträge zu finden. Da kann man dann auch die ursprungs Aussage editieren wenn es so nicht stimmt, was da steht bzw. man das so gar nicht sagen wollte ;)
 
fdsonne schrieb:
Du schreibst von Augenhöhe
Mag sein, dass du das so raus lesen möchtest:
Zwirbelkatz schrieb:
Diese [1650] dürfte in etwa auf Augenhöhe einer der größeren Ryzen 8000G-APUs sein.
Weswegen wir jetzt wegen, deiner Behauptung nach, 10%+ diskutieren, kann ich nicht nachvollziehen.

fdsonne schrieb:
Die 3050 wird wahrscheinlich schneller als ne 1650.
Ich habe keine APU mit einer 3050 verglichen. Um was geht es dir?


fdsonne schrieb:
Keine seriöse Kaufberatung empfiehlt bei der Frage nach einer dGPU für einen vorhandenen PC ein komplett neues System.
Das hängt vom Alter des Systems ab. Es gibt Beratungen, da sind die Teile zu alt, oder zu fehleranfällig ohne klare Ursache der Fehler. Es gibt Beratungen mit üppigem Budget, trotz verhaltenem Wunsch nach (mehr) Grafikleistung. Eine Allaussage kann ich daraus nicht ableiten.
 
  • Gefällt mir
Reaktionen: SweetOhm
Na da erhoff ich mir ja gleich einen Test des 8000G, einmal mit iGPU, einmal mit der neuen 3050, einmal mit der alten 1060 und 1660, sowie mit RX580 und RX6600. Dann hätten wir alte Karten und Budget-Bereich gut abgedeckt. :-)
 
  • Gefällt mir
Reaktionen: SweetOhm und stevefrogs
Draco Nobilis schrieb:
Nvidia hat eine Bruttomarge von >70%.
AMD hat eine von ca. 40%.
Es ist daher physikalisch nicht möglich das eine NVIDIA Grafikkarte vs AMD APU im selben Leistungssegment, Fertiger und vergleichbaren Technologiestand günstiger sein kann.
Doch natürlich ist das möglich. Denn die Bruttomarge sagt jetzt genau etwas über irgend ein wahllos gepicketes Produkt aus?? Richtig, gar nix...

Mal davon ab ist das Thema weit komplexer. Während die Preisgestaltung einer dGPU sich primär am Markt der dGPUs richtet, richtet sich die Preisgestaltung einer APU primär am CPU Markt aus.
Um es mal ganz salopp zu sagen, AMD kann keine 8700G APU für gesponnene 1000€ verkaufen, weil sich das Ding dann mit ner 1000€ CPU messen würde. Soooo wichtig ist die GPU in einer APU für den Markt nicht. Denn es ist eben nur das absolute Minimum.

Es wundern sich die Leute ja häufig, warum AMD mit der PS5/Xbox ne große APU mit viel Bumms, Speicher und Board in entsprechend schnell für so günstig vertreiben kann - während das im x86 PC Umfeld mit sagen wir nem 8700G eben viel teurer (pro Leistungsindex) ist. -> eben weil die Konsole keine Konkurrenz hat, der Prozessor im PC aber schon.

Nimmt man hier NV ins Spiel, die können x-beliebig ihre dGPUs für Gamer bepreisen, weil ihr stärkster Konkurrent sie selbst sind. Wenn sie es für richtig halten, ne Preisschlacht im LowEnd zu starten, dann machen die das. Aber es ist akuell einfach nicht notwendig, weil der Markt es her gibt, viel höhere Preise zu verlangen. Bei AMD btw. nicht. Denn die Hardware ist in aller Regel gut, aber absolut gesehen will das Zeug "Niemand" haben
Ergänzung ()

Zwirbelkatz schrieb:
Weswegen wir jetzt wegen, deiner Behauptung nach, 10%+ diskutieren, kann ich nicht nachvollziehen.
Ist mMn nicht "in etwa Augenhöhe" - denn 780M mit schnellem LPDDR5X 6400er Speicher ist in etwa 1050TI Leistung. Also in etwa Augenhöhe. 1650 ist ~30% drüber.

30% ist mehr als von Zen2 auf Zen3 an Leistungsboost gab. Es ist mehr als von Zen3 auf 4. Es ist mehr, deutlich sogar, als die damaligen Intel TickTock Schritte. Es ist in etwa so viel wie 2080TI auf 1080TI, die Differenz von 4090 auf 4080 usw. -> das ist halt nicht "in etwa Augenhöhe". Zumindest nicht wenn man es nüchern betrachtet.

Zwirbelkatz schrieb:
Das hängt vom Alter des Systems ab. Es gibt Beratungen, da sind die Teile zu alt, oder zu fehleranfällig ohne klare Ursache der Fehler. Es gibt Beratungen mit üppigem Budget, trotz verhaltenem Wunsch nach (mehr) Grafikleistung. Eine Allaussage kann ich daraus nicht ableiten.
Bitte nochmal lesen. Ich sagte, keine seriöse Kaufberatung empfiehlt bei der Frage nach einer dGPU... -> der Rest ist mMn wieder die übliche Forenbubbel Geschichte, wo Hinz und Kunz meint, nur mit aktuellster Technik kann man ein System betreiben.

Beispiele habe ich dir ja schon genannt, AM4/Intel der letzten 5 Jahre, wo die Basisleistung mehr als ausreichend sein kann! aber der GPU Part einfach aufgrund der mauen Vega/Intel IGP und den alten Schnittstellen mit einer Stromstecker losen dGPU bspw. gut bedient sind. Teilweise (AM4) sogar ne dGPU stecken haben, die man dann einfach tauscht für neuere Standards.
120Hz@UHD ist bspw. mit Vega in aller Regel nicht.


Mir erschließt sich nicht, wieso man an einem breiteren Angebot hier irgend einen Fehler sehen will. Mehr Angebot ist IMMER gut. Zudem das hier keinen Aufwand auf gar keiner Seite erzeugt. Denn das ist Resteverwertung ohne echten Mitteleinsatz. Besser als Weg und neu ist das in Jedemfall! Egal ob beim Kunden oder bei Hersteller.
 
Zuletzt bearbeitet:
fdsonne schrieb:
Mir erschließt sich nicht, wieso man an einem breiteren Angebot hier irgend einen Fehler sehen will. Mehr Angebot ist IMMER gut.
Da sind wir einer Meinung:

Zwirbelkatz schrieb:
Besser als irgendwelche x4 angebundenen Gurken, die zusätzlich mit Stromstecker beatmet werden müssen, sind beide hier diskutierten Lösungen, mMn bei weitem.
... was im übrigen auf bspw. eine 6500 XT anspielt.
Mancher erkennt diese Seitenhieb eventuell nicht.


fdsonne schrieb:
Beispiele habe ich dir ja schon genannt, AM4/Intel der letzten 5 Jahre, wo die Basisleistung mehr als ausreichend sein kann!
Das kann AM4, ja. Ich meinte eher Sandy 2400/2500 von vor über 10 Jahren, oder einen Intel 4460. Oder was immer gerne kommt ist ein Intel i5 6600; gar nicht SOOO alt, aber halt nur 4 Threads. Wobei dort ein i7 Upgrade unverhältnismäßig viel kostet.

Es wird Ratsuchende geben, für die ist eine 3050 ohne Stromanschluss genau das Richtige. Zum Teil wollen sie sich gar nicht tiefer mit der Thematik auseinander setzen. Es gibt jedoch auch Nutzer, die gerne reinen Tisch machen - sei es unter der Perspektive, dass AM5 noch einige Jahre halten könnte; oder aber weil das bisherige System bereits an dritte versprochen ist.
 
  • Gefällt mir
Reaktionen: SweetOhm und Nitschi66
  • Gefällt mir
Reaktionen: Gigaherz und rorian
Eier-Salat schrieb:
Vor vielen Jahren konnte NVidia im Low-Budget Bereich ordentlich mitmischen, aber mittlerweile, warum auch immer, sind sie dazu nicht mehr in der Lage oder wollen es einfach nicht mehr. Eine RTX 3050 ab 230€ ist kein Low-Budget. Und auch mit der 6GB Version werden sie es nicht schaffen. Wie gesagt hat AMD eine sparsamere und günstigere GPU am Start, die RX 6400.
Wo ist denn bei dir "LowEnd"?

230€ heute sind in etwa 180€ aus 2016 "wert". Reine Inflation. Gut nun war 2016 der Euro/Dollar Kurs halbwegs ähnlich. Geht man noch was zurück, waren wir mal bei 1:1,20 oder 1:1,30 anstatt wie heute bei 1:1,10 zzgl. Steuern wohlgemerkt.

Wenn man jetzt sagt, bei um die 100€ startete sowas damals in 2016 - so wären das ungefähr 125€ heute, die man mindestens dafür aufbringen müsste. Die abgespeckte 3050 muss also irgendwo zwischen liegen. Da ist ne Menge Luft dafür.
Besagte 6400er gibts bei einem Händler für knapp 120€, andere listen aber auch Modelle für 140, 150, 170€.
Zwirbelkatz schrieb:
Das kann AM4, ja. Ich meinte eher Sandy 2400/2500 von vor über 10 Jahren, oder einen Intel 4460. Oder was immer gerne kommt ist ein Intel i5 6600; gar nicht SOOO alt, aber halt nur 4 Threads. Wobei dort ein i7 Upgrade unverhältnismäßig viel kostet.
Ja ist ja alles OK - aber das ist doch nicht (mehr) die Basis?
Der übliche Wechselzyklus im PC Bereich liegt in etwa bei 3-5 Jahre. Sicher gibt es manche, die das länger nutzen. Aber jetzt mit 10+ Jahre alter Kamelle zu argumentieren?

Vor allem noch, wenn man davon ausgeht, dass die Basis der meisten eben aus einem Rutsch ist. Also CPU, Board, RAM, GPU usw. halbwegs vom Alter identisch ist. Wer damit heute noch auskommt (also nen keine Ahnung i3 oder i5 aus 2011! (Sandy Bridge) - was 13 Jahre her ist, der wird mMn heute aber dann ganz bestimmt weder ne 8700G noch ne 3050 OEM irgendwas suchen. Aber das ist nur meine Ansicht. -> mit dem gleichen Maßstab würde man dann eher in der Mittelklasse schauen und das wieder versuchen, 10+ Jahre zu betreiben. Oder eben so ner APU starten und dann später eine dGPU zustecken, wenn das zu langsam wird. Wo dann in x-Jahren wieder so ein LowEnd dGPU Teil durchaus interessant wird.
 
Ich verstehe nicht, weshalb sie nicht einfach eine 4060 genommen haben, die per Firmware auf 75 W limitiert wird. Durch das Plus an Recheneinheiten wäre das viel effizienter
 
Zwirbelkatz schrieb:
Es wird Ratsuchende geben, für die ist eine 3050 ohne Stromanschluss genau das Richtige.
richtig, bin ich auch der Meinung.
Ergänzung ()

marakuhja schrieb:
Durch das Plus an Recheneinheiten wäre das viel effizienter
aber auch in der Produktion deutlich teurer. Warum sollte NVIDIA unnötig teure Chips für den Leistungsbereich verwenden!
 
  • Gefällt mir
Reaktionen: SweetOhm und knoxxi
marakuhja schrieb:
Ich verstehe nicht, weshalb sie nicht einfach eine 4060 genommen haben, die per Firmware auf 75 W limitiert wird. Durch das Plus an Recheneinheiten wäre das viel effizienter
Vermutlich, weil sie AD107-Chips viel lieber auf 4060-Grafikkarten, in 4060-Laptops und in 4050-Laptops verkaufen.
 
  • Gefällt mir
Reaktionen: SweetOhm
marakuhja schrieb:
Ich verstehe nicht, weshalb sie nicht einfach eine 4060 genommen haben, die per Firmware auf 75 W limitiert wird. Durch das Plus an Recheneinheiten wäre das viel effizienter

Weil man eine 4060 für erheblich mehr Geld verkaufen kann und nvidia nichts verschenken will? Duiii.
 
  • Gefällt mir
Reaktionen: SweetOhm
Yosup schrieb:
Wie hier schon manche schrieben, in unserer Bubble unterschätzt man den Bedarf nach solchen Karten. Viele denken ja auch, dass die iGPUs letztendlich nur für Textverarbeitung und Browsen reichen und auch nur dafür eingesetzt werden. Das ist eine völlige Fehleinschätzung.
Ja, das mag sein. Aber schaut man sich mal die (natürlich eh verfälschte) Steam Statistik an, sieht man, dass mittlerweile auch dort die RTX 3060 die meistgenutzte Karte ist.
Bis vor nicht allzu langer Zeit war das noch die GTX 1060.
Also selbst hier hat sich das Ganze mittlerweile zu einer Karte mit wenigstens 8GB Speicher und entsprechender GPU Leistung hin verschoben. Und da sind ja die Millionen von Spielern, die nicht das High End Forendenken an den Tag legen mit dabei.

Jetzt also nochmal eine nochmals schwächere RTX 3050 mit nur 6GB Speicher zu bringen, ist schlicht unsinnig. Das braucht niemand.
Wer wirklich nicht mehr Leistung/Speicher braucht und günstig kaufen will, der holt sich was auf dem Gebrauchtmarkt für nochmals deutlich weniger Geld.

Zumal NVidia sich ja nicht entblöden wird, auch diese Karte wieder als "Gaming" Produkt zu vermarkten. Besonders tolles "Gaming" abseits von älteren oder wenig anspruchsvollen Titeln kann man damit aber nicht betreiben.
Da wird sogar sowas wie Fortnite schon nicht mehr besonders prall drauf laufen.
 
  • Gefällt mir
Reaktionen: SweetOhm und Tidus2007
Neodar schrieb:
Jetzt also nochmal eine nochmals schwächere RTX 3050 mit nur 6GB Speicher zu bringen, ist schlicht unsinnig. Das braucht niemand.
Das stimmt einfach nicht,
wenn die neue RTX 3050 preislich nicht zuteuer wird wäre das eine alternative zur A380
für meinen normalen Multimedia PC mit noch einer GT 1030 !

Übrigends habe jetzt grade einen neuen 27 " Monitor mit WQHD 1440p Auflösung :)

frankkl
 
Neodar schrieb:
Ja, das mag sein. Aber schaut man sich mal die (natürlich eh verfälschte) Steam Statistik an, sieht man, dass mittlerweile auch dort die RTX 3060 die meistgenutzte Karte ist.
Bis vor nicht allzu langer Zeit war das noch die GTX 1060.
Also selbst hier hat sich das Ganze mittlerweile zu einer Karte mit wenigstens 8GB Speicher und entsprechender GPU Leistung hin verschoben. Und da sind ja die Millionen von Spielern, die nicht das High End Forendenken an den Tag legen mit dabei.
Es gibt aber nicht nur die zwei Kundenkreise "Highend" und "Nicht-Highend".

Neodar schrieb:
Jetzt also nochmal eine nochmals schwächere RTX 3050 mit nur 6GB Speicher zu bringen, ist schlicht unsinnig. Das braucht niemand. Wer wirklich nicht mehr Leistung/Speicher braucht und günstig kaufen will, der holt sich was auf dem Gebrauchtmarkt für nochmals deutlich weniger Geld.
Nicht jeder möchte Gebrauchtware.


Neodar schrieb:
Zumal NVidia sich ja nicht entblöden wird, auch diese Karte wieder als "Gaming" Produkt zu vermarkten. Besonders tolles "Gaming" abseits von älteren oder wenig anspruchsvollen Titeln kann man damit aber nicht betreiben.
Und ältere oder weniger anspruchsvolle Spiele sind kein "Gaming"? Sind dann Nintendo Switch, Steam Deck, Rog Ally, Legion Go und MSI Claw auch keine "Gaming"-Produkte, weil sie langsamer als eine RTX 3060 sind?

Die Switch 2 wird voraussichtlich auch langsamer als eine RTX 3060 sein. Digital Foundry hat mal mit einer runtergetakteten RTX 2050 simuliert:

 
Neodar schrieb:
Jetzt also nochmal eine nochmals schwächere RTX 3050 mit nur 6GB Speicher zu bringen, ist schlicht unsinnig. Das braucht niemand.
Wer wirklich nicht mehr Leistung/Speicher braucht und günstig kaufen will, der holt sich was auf dem Gebrauchtmarkt für nochmals deutlich weniger Geld.
Zumal NVidia sich ja nicht entblöden wird, auch diese Karte wieder als "Gaming" Produkt zu vermarkten. Besonders tolles "Gaming" abseits von älteren oder wenig anspruchsvollen Titeln kann man damit aber nicht betreiben.
Du siehst nur Deinen kleinen Ausschnitt der Welt, und keinen globalen Markt von Südamerika über Indien bis Fernost/Asien.

Die technische Kritik an der Karte teile ich ja, aber welche Produkte sich weltweit zu welchen Preisen absetzen lassen, da wäre ich vorsichtig ausgerechnet NVidia erklären zu wollen wie die Welt (hier im Wortsinne) funktioniert. Dass Team Grün keine Skrupel hat Produkte auf den Markt zu bringen, bei denen man die Augenbrauen hochzieht steht ausser Frage, aber genauso auch, dass sie Märkte richtig einschätzen und ihre Produkte gut verkaufen können.
 
Bei diesen "Einsparungen" (GPU Takt, Boost, Speicherinterface und Speichertakt) sollten die 70 Watt auch nicht wesentlich überschritten werden. Was mich eher stört, in welche Richtung der Preis für so eine einfache GraKa sich bewegt.
 
  • Gefällt mir
Reaktionen: SweetOhm und Ralf74
Zurück
Oben