Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNeue GeForce RTX 3050: Die 6-GB-Version ist ab 185 Euro im Handel verfügbar
Habe nicht behauptet das es dafür keinen Markt gibt, sondern das es bereits Alternativen zu dieser Karte gibt die vielleicht besser wären, die Leute aber kaufen weil NVIDIA drauf steht.
Hä? Ne, das hast du so ja nicht geschrieben. Sonst hätte ich wahrscheinlich auch gar nix gesagt
Du schreibst, dass es Dinge sind, die die Welt nicht braucht (nichts davon dass es Alternativen gibt). Mal davon ab, sorry, dass ich nicht noch den halben Thread lese um eventuell anders lautende Beiträge zu finden. Da kann man dann auch die ursprungs Aussage editieren wenn es so nicht stimmt, was da steht bzw. man das so gar nicht sagen wollte
Das hängt vom Alter des Systems ab. Es gibt Beratungen, da sind die Teile zu alt, oder zu fehleranfällig ohne klare Ursache der Fehler. Es gibt Beratungen mit üppigem Budget, trotz verhaltenem Wunsch nach (mehr) Grafikleistung. Eine Allaussage kann ich daraus nicht ableiten.
Na da erhoff ich mir ja gleich einen Test des 8000G, einmal mit iGPU, einmal mit der neuen 3050, einmal mit der alten 1060 und 1660, sowie mit RX580 und RX6600. Dann hätten wir alte Karten und Budget-Bereich gut abgedeckt. :-)
Nvidia hat eine Bruttomarge von >70%.
AMD hat eine von ca. 40%.
Es ist daher physikalisch nicht möglich das eine NVIDIA Grafikkarte vs AMD APU im selben Leistungssegment, Fertiger und vergleichbaren Technologiestand günstiger sein kann.
Doch natürlich ist das möglich. Denn die Bruttomarge sagt jetzt genau etwas über irgend ein wahllos gepicketes Produkt aus?? Richtig, gar nix...
Mal davon ab ist das Thema weit komplexer. Während die Preisgestaltung einer dGPU sich primär am Markt der dGPUs richtet, richtet sich die Preisgestaltung einer APU primär am CPU Markt aus.
Um es mal ganz salopp zu sagen, AMD kann keine 8700G APU für gesponnene 1000€ verkaufen, weil sich das Ding dann mit ner 1000€ CPU messen würde. Soooo wichtig ist die GPU in einer APU für den Markt nicht. Denn es ist eben nur das absolute Minimum.
Es wundern sich die Leute ja häufig, warum AMD mit der PS5/Xbox ne große APU mit viel Bumms, Speicher und Board in entsprechend schnell für so günstig vertreiben kann - während das im x86 PC Umfeld mit sagen wir nem 8700G eben viel teurer (pro Leistungsindex) ist. -> eben weil die Konsole keine Konkurrenz hat, der Prozessor im PC aber schon.
Nimmt man hier NV ins Spiel, die können x-beliebig ihre dGPUs für Gamer bepreisen, weil ihr stärkster Konkurrent sie selbst sind. Wenn sie es für richtig halten, ne Preisschlacht im LowEnd zu starten, dann machen die das. Aber es ist akuell einfach nicht notwendig, weil der Markt es her gibt, viel höhere Preise zu verlangen. Bei AMD btw. nicht. Denn die Hardware ist in aller Regel gut, aber absolut gesehen will das Zeug "Niemand" haben
Ergänzung ()
Zwirbelkatz schrieb:
Weswegen wir jetzt wegen, deiner Behauptung nach, 10%+ diskutieren, kann ich nicht nachvollziehen.
Ist mMn nicht "in etwa Augenhöhe" - denn 780M mit schnellem LPDDR5X 6400er Speicher ist in etwa 1050TI Leistung. Also in etwa Augenhöhe. 1650 ist ~30% drüber.
30% ist mehr als von Zen2 auf Zen3 an Leistungsboost gab. Es ist mehr als von Zen3 auf 4. Es ist mehr, deutlich sogar, als die damaligen Intel TickTock Schritte. Es ist in etwa so viel wie 2080TI auf 1080TI, die Differenz von 4090 auf 4080 usw. -> das ist halt nicht "in etwa Augenhöhe". Zumindest nicht wenn man es nüchern betrachtet.
Zwirbelkatz schrieb:
Das hängt vom Alter des Systems ab. Es gibt Beratungen, da sind die Teile zu alt, oder zu fehleranfällig ohne klare Ursache der Fehler. Es gibt Beratungen mit üppigem Budget, trotz verhaltenem Wunsch nach (mehr) Grafikleistung. Eine Allaussage kann ich daraus nicht ableiten.
Bitte nochmal lesen. Ich sagte, keine seriöse Kaufberatung empfiehlt bei der Frage nach einer dGPU... -> der Rest ist mMn wieder die übliche Forenbubbel Geschichte, wo Hinz und Kunz meint, nur mit aktuellster Technik kann man ein System betreiben.
Beispiele habe ich dir ja schon genannt, AM4/Intel der letzten 5 Jahre, wo die Basisleistung mehr als ausreichend sein kann! aber der GPU Part einfach aufgrund der mauen Vega/Intel IGP und den alten Schnittstellen mit einer Stromstecker losen dGPU bspw. gut bedient sind. Teilweise (AM4) sogar ne dGPU stecken haben, die man dann einfach tauscht für neuere Standards.
120Hz@UHD ist bspw. mit Vega in aller Regel nicht.
Mir erschließt sich nicht, wieso man an einem breiteren Angebot hier irgend einen Fehler sehen will. Mehr Angebot ist IMMER gut. Zudem das hier keinen Aufwand auf gar keiner Seite erzeugt. Denn das ist Resteverwertung ohne echten Mitteleinsatz. Besser als Weg und neu ist das in Jedemfall! Egal ob beim Kunden oder bei Hersteller.
Besser als irgendwelche x4 angebundenen Gurken, die zusätzlich mit Stromstecker beatmet werden müssen, sind beide hier diskutierten Lösungen, mMn bei weitem.
Das kann AM4, ja. Ich meinte eher Sandy 2400/2500 von vor über 10 Jahren, oder einen Intel 4460. Oder was immer gerne kommt ist ein Intel i5 6600; gar nicht SOOO alt, aber halt nur 4 Threads. Wobei dort ein i7 Upgrade unverhältnismäßig viel kostet.
Es wird Ratsuchende geben, für die ist eine 3050 ohne Stromanschluss genau das Richtige. Zum Teil wollen sie sich gar nicht tiefer mit der Thematik auseinander setzen. Es gibt jedoch auch Nutzer, die gerne reinen Tisch machen - sei es unter der Perspektive, dass AM5 noch einige Jahre halten könnte; oder aber weil das bisherige System bereits an dritte versprochen ist.
Vor vielen Jahren konnte NVidia im Low-Budget Bereich ordentlich mitmischen, aber mittlerweile, warum auch immer, sind sie dazu nicht mehr in der Lage oder wollen es einfach nicht mehr. Eine RTX 3050 ab 230€ ist kein Low-Budget. Und auch mit der 6GB Version werden sie es nicht schaffen. Wie gesagt hat AMD eine sparsamere und günstigere GPU am Start, die RX 6400.
230€ heute sind in etwa 180€ aus 2016 "wert". Reine Inflation. Gut nun war 2016 der Euro/Dollar Kurs halbwegs ähnlich. Geht man noch was zurück, waren wir mal bei 1:1,20 oder 1:1,30 anstatt wie heute bei 1:1,10 zzgl. Steuern wohlgemerkt.
Wenn man jetzt sagt, bei um die 100€ startete sowas damals in 2016 - so wären das ungefähr 125€ heute, die man mindestens dafür aufbringen müsste. Die abgespeckte 3050 muss also irgendwo zwischen liegen. Da ist ne Menge Luft dafür.
Besagte 6400er gibts bei einem Händler für knapp 120€, andere listen aber auch Modelle für 140, 150, 170€.
Zwirbelkatz schrieb:
Das kann AM4, ja. Ich meinte eher Sandy 2400/2500 von vor über 10 Jahren, oder einen Intel 4460. Oder was immer gerne kommt ist ein Intel i5 6600; gar nicht SOOO alt, aber halt nur 4 Threads. Wobei dort ein i7 Upgrade unverhältnismäßig viel kostet.
Ja ist ja alles OK - aber das ist doch nicht (mehr) die Basis?
Der übliche Wechselzyklus im PC Bereich liegt in etwa bei 3-5 Jahre. Sicher gibt es manche, die das länger nutzen. Aber jetzt mit 10+ Jahre alter Kamelle zu argumentieren?
Vor allem noch, wenn man davon ausgeht, dass die Basis der meisten eben aus einem Rutsch ist. Also CPU, Board, RAM, GPU usw. halbwegs vom Alter identisch ist. Wer damit heute noch auskommt (also nen keine Ahnung i3 oder i5 aus 2011! (Sandy Bridge) - was 13 Jahre her ist, der wird mMn heute aber dann ganz bestimmt weder ne 8700G noch ne 3050 OEM irgendwas suchen. Aber das ist nur meine Ansicht. -> mit dem gleichen Maßstab würde man dann eher in der Mittelklasse schauen und das wieder versuchen, 10+ Jahre zu betreiben. Oder eben so ner APU starten und dann später eine dGPU zustecken, wenn das zu langsam wird. Wo dann in x-Jahren wieder so ein LowEnd dGPU Teil durchaus interessant wird.
Ich verstehe nicht, weshalb sie nicht einfach eine 4060 genommen haben, die per Firmware auf 75 W limitiert wird. Durch das Plus an Recheneinheiten wäre das viel effizienter
Ich verstehe nicht, weshalb sie nicht einfach eine 4060 genommen haben, die per Firmware auf 75 W limitiert wird. Durch das Plus an Recheneinheiten wäre das viel effizienter
Ich verstehe nicht, weshalb sie nicht einfach eine 4060 genommen haben, die per Firmware auf 75 W limitiert wird. Durch das Plus an Recheneinheiten wäre das viel effizienter
Wie hier schon manche schrieben, in unserer Bubble unterschätzt man den Bedarf nach solchen Karten. Viele denken ja auch, dass die iGPUs letztendlich nur für Textverarbeitung und Browsen reichen und auch nur dafür eingesetzt werden. Das ist eine völlige Fehleinschätzung.
Ja, das mag sein. Aber schaut man sich mal die (natürlich eh verfälschte) Steam Statistik an, sieht man, dass mittlerweile auch dort die RTX 3060 die meistgenutzte Karte ist.
Bis vor nicht allzu langer Zeit war das noch die GTX 1060.
Also selbst hier hat sich das Ganze mittlerweile zu einer Karte mit wenigstens 8GB Speicher und entsprechender GPU Leistung hin verschoben. Und da sind ja die Millionen von Spielern, die nicht das High End Forendenken an den Tag legen mit dabei.
Jetzt also nochmal eine nochmals schwächere RTX 3050 mit nur 6GB Speicher zu bringen, ist schlicht unsinnig. Das braucht niemand.
Wer wirklich nicht mehr Leistung/Speicher braucht und günstig kaufen will, der holt sich was auf dem Gebrauchtmarkt für nochmals deutlich weniger Geld.
Zumal NVidia sich ja nicht entblöden wird, auch diese Karte wieder als "Gaming" Produkt zu vermarkten. Besonders tolles "Gaming" abseits von älteren oder wenig anspruchsvollen Titeln kann man damit aber nicht betreiben.
Da wird sogar sowas wie Fortnite schon nicht mehr besonders prall drauf laufen.
Das stimmt einfach nicht,
wenn die neue RTX 3050 preislich nicht zuteuer wird wäre das eine alternative zur A380
für meinen normalen Multimedia PC mit noch einer GT 1030 !
Übrigends habe jetzt grade einen neuen 27 " Monitor mit WQHD 1440p Auflösung
Ja, das mag sein. Aber schaut man sich mal die (natürlich eh verfälschte) Steam Statistik an, sieht man, dass mittlerweile auch dort die RTX 3060 die meistgenutzte Karte ist.
Bis vor nicht allzu langer Zeit war das noch die GTX 1060.
Also selbst hier hat sich das Ganze mittlerweile zu einer Karte mit wenigstens 8GB Speicher und entsprechender GPU Leistung hin verschoben. Und da sind ja die Millionen von Spielern, die nicht das High End Forendenken an den Tag legen mit dabei.
Es gibt aber nicht nur die zwei Kundenkreise "Highend" und "Nicht-Highend".
Neodar schrieb:
Jetzt also nochmal eine nochmals schwächere RTX 3050 mit nur 6GB Speicher zu bringen, ist schlicht unsinnig. Das braucht niemand. Wer wirklich nicht mehr Leistung/Speicher braucht und günstig kaufen will, der holt sich was auf dem Gebrauchtmarkt für nochmals deutlich weniger Geld.
Zumal NVidia sich ja nicht entblöden wird, auch diese Karte wieder als "Gaming" Produkt zu vermarkten. Besonders tolles "Gaming" abseits von älteren oder wenig anspruchsvollen Titeln kann man damit aber nicht betreiben.
Und ältere oder weniger anspruchsvolle Spiele sind kein "Gaming"? Sind dann Nintendo Switch, Steam Deck, Rog Ally, Legion Go und MSI Claw auch keine "Gaming"-Produkte, weil sie langsamer als eine RTX 3060 sind?
Die Switch 2 wird voraussichtlich auch langsamer als eine RTX 3060 sein. Digital Foundry hat mal mit einer runtergetakteten RTX 2050 simuliert:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Jetzt also nochmal eine nochmals schwächere RTX 3050 mit nur 6GB Speicher zu bringen, ist schlicht unsinnig. Das braucht niemand.
Wer wirklich nicht mehr Leistung/Speicher braucht und günstig kaufen will, der holt sich was auf dem Gebrauchtmarkt für nochmals deutlich weniger Geld.
Zumal NVidia sich ja nicht entblöden wird, auch diese Karte wieder als "Gaming" Produkt zu vermarkten. Besonders tolles "Gaming" abseits von älteren oder wenig anspruchsvollen Titeln kann man damit aber nicht betreiben.
Du siehst nur Deinen kleinen Ausschnitt der Welt, und keinen globalen Markt von Südamerika über Indien bis Fernost/Asien.
Die technische Kritik an der Karte teile ich ja, aber welche Produkte sich weltweit zu welchen Preisen absetzen lassen, da wäre ich vorsichtig ausgerechnet NVidia erklären zu wollen wie die Welt (hier im Wortsinne) funktioniert. Dass Team Grün keine Skrupel hat Produkte auf den Markt zu bringen, bei denen man die Augenbrauen hochzieht steht ausser Frage, aber genauso auch, dass sie Märkte richtig einschätzen und ihre Produkte gut verkaufen können.
Bei diesen "Einsparungen" (GPU Takt, Boost, Speicherinterface und Speichertakt) sollten die 70 Watt auch nicht wesentlich überschritten werden. Was mich eher stört, in welche Richtung der Preis für so eine einfache GraKa sich bewegt.