News Desktop-Grafikkarten: Nvidias weltweiter Marktanteil klettert auf fast 90 Prozent

Die alten GTX 1050 Ti oder GTX 1060, die schon 8 Jahre alt sind, werden auch noch für 50-80 Euro gekauft. Und das sind wesentlich mehr als 10% vom Neupreis.
Nur so als Info.
 
@Icke-ffm Es ging um den Ausgangswert, das ein Auto einen anderen Wertverlust hat als eine Grafikkarte steht ja außer Frage.^^

Ich hab ein Auto zu Auto Vergleich gemacht und eine Verdreifachung des Preises kann man sicher nicht von Dieselskandalen ableiten, meins hat davon im Wert profitiert, ist ein Benziner.^^
Icke-ffm schrieb:
bez ist trotz mittlerweile sogar trotz 120t km mehr mehr wert wie ich vor 5 Jahren bezahlt habe wo keiner mehr Diesel haben wollte
Eben, das sage ich doch, Wertverlust des Geldes, du bekommst mehr Geld was aber weniger Wert ist, schau mal wie viel du für deine Autoreihe mit dem gleichen KM-Stand/Alter/PS von vor 5 Jahren heute bezahlen müsstest, wobei mit 5 Jahren ist es vermutlich nicht ganz so gravierend wie mit 10 Jahren.^^
 
  • Gefällt mir
Reaktionen: Icke-ffm
Icke-ffm schrieb:
Bei solchen Aussagen frage ich mich jedesmal wieviel die Leute am PC Zocken das, dass ins Gewicht fällt,
die 100 Watt ins Gewicht fallen, ich für meinen Teil zocke maximal 100h im Jahr was dann am Ende 4€ sind da kostet mich nen Döner schon das doppelte. Abgesehen davon kann man die Karten alle noch undervolten wenn man möchte.
Aber eine 8GB Karte die in Raster schon heute 12% Langsamer ist und selbst in RT nicht schneller wie eine 30€ günstigere Karte die schon heute in 7 von 12 Games RT Games langsamer läuft erschließt sich mir nicht
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-4060-test.84658/seite-2
Auf 100 h nur zocken, komme ich locker in einem Monat. Sonst läuft der PC täglich auch 6-8 Stunden.
Es geht aber nicht nur um Stromkosten selbst.
Mann muss auch mehrere andere Faktoren beachten. Es wir ein stärkeres Netzteil benötigt, bessere Kühlung im Gehäuse selbst, evtl auch ein anderes größeres Gehäuse. Auch Lautstärke und Temperaturen spielen eine Rolle.
Außerdem ist der IDLE Stromverbrauch bei den AMD Karten immer noch ein Thema.
Da hast du jetzt etwas zu einfach gedacht.
 
Zuletzt bearbeitet:
Gravlens schrieb:
wobei mit 5 Jahren ist es vermutlich nicht ganz so gravierend wie mit 10 Jahren.
Ja da bin ich bei Dir und selbst meiner in 5 Jahre neuer kostet ab 2,5 mal soviel mit der Ausstattung sicher auch das 3fache. Das Geld ist halt nichts mehr wert, das auch ich dem Junior zu Weinachten eine 2080ti für 120€ geholt habe
maxi_rodriges schrieb:
Die alten GTX 1050 Ti oder GTX 1060, die schon 8 Jahre alt sind, werden auch noch für 50-80 Euro gekauft. Und das sind wesentlich mehr als 10% vom Neupreis.
was aber dem geschuldet ist das Du diese Leistung neu heute auch noch immer +150€ zahlen musst eine RX6500-4GB ist nicht wesentlich schneller wie 1050ti kostet aber mehr wie die damals gekostet hat.
maxi_rodriges schrieb:
Auf 100 h nur zocken, komme ich locker in einem Monat
auf soviel Freizeit komme ich vielleicht in 1Monat wenn man die WE mitnimmt wo ich aber meist was besseres zu tun habe wie am Compi zum arbeiten nutze ich den Lappi oder ipad
 
  • Gefällt mir
Reaktionen: Gravlens
maxi_rodriges schrieb:
Außerdem ist der IDLE Stromverbrauch bei den AMD Karten immer noch ein Thema.
Also meine RX 6700 liegt bei 5-7 Watt im idle, laut dem was der Treiber zeigt. Das würde ich jetzt nicht als viel bezeichnen.
 
  • Gefällt mir
Reaktionen: Nooblander, Jagdwurst und Icke-ffm
Icke-ffm schrieb:
Bei solchen Aussagen frage ich mich jedesmal wieviel die Leute am PC Zocken das, dass ins Gewicht fällt,
die 100 Watt ins Gewicht fallen, ich für meinen Teil zocke maximal 100h im Jahr was dann am Ende 4€ sind da kostet mich nen Döner schon das doppelte.
schonmal daran gedacht das es dabei nicht immer um das Geld geht? Für manche ist das eine einstellungssache.
 
  • Gefällt mir
Reaktionen: Knergy
Lool ja das sind die Selben die sich Liber einen Umweltfreundlichen Tesla oder EPorsche kaufen, Biomassengemüse für den doppelten Preis was in Kunststoff eingeschweißt wird oder noch schlimmer E-Bike oder E- Roller fahren anstelle was für die Gesundheit zu schaffen, sorry aber die haben zuviel Geld und denken sie tun was gutes für die Umwelt im Fliegenschiss Deutschland, das dafür aber Kohlekraftwerke weiter laufen müssen, oder Strom teuer mit gekauftem Gas oder eingekauftem Atomstrom weiter die Preise treibt können die nicht verstehen, sorry aber
 
  • Gefällt mir
Reaktionen: JarlBallin
Icke-ffm schrieb:
150€ zahlen musst eine RX6500-4GB ist nicht wesentlich schneller wie 1050ti kostet aber mehr wie die damals gekostet hat.
das kannst du pauschal garnicht sagen. denn wenn der speicher nicht limitiert können da locker 70-200% unterschied sein. Du findest nur keine vernünftigen tests mehr dazu, da keiner mit niedrigen/mittleren einstellungen testet und man somit keine zuverlässige aussage treffen kann. Wobei ich immer noch nicht verstanden hatte warum AMD die Karte mit 8gb nicht hier angeboten hatte. klar man kann sie mittlerweile kaufen, durch die geringe Anzahl ist sie fast so teuer wie die schnellere rx6600. Das Hat AMD damals wirklich versaut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm
Bestes Beispiel Dell, typischer Intel Jünger AMD Notebooks oder Desktops sind nahezu verschwunden, dafür gibt es nun zumindest eine 7900xtx in einem Intel Rechner, aber keine Rysen Desktops mehr und das einzig verbleibende AW NB ist out of Stock, da kommen mit Garantie spätestens im Q3 wieder AMD Neuwagen kommen wird denn sowohl für Dell, Intel, Nvidia als auch AMD ist USA der wichtigste Markt, China ist zu unsicher. Und Dell ist absoluter Marktführer in US was x86 angeht
 

Anhänge

  • IMG_0002.png
    IMG_0002.png
    432,1 KB · Aufrufe: 66
Legalev schrieb:
Mal sehen was dann kommt an Innovationen und Preisen von der Lederjacke.
Wir werden innovative, noch nie dagewesene Preisklassen sehen.
 
  • Gefällt mir
Reaktionen: Legalev und Icke-ffm
Northstar2710 schrieb:
das kannst du pauschaö garnicht sagen. denn wenn der speicher nicht limitiert können da locker 70-200% unterschied sein. Du findest nur keine vernünftigen tests mehr dazu, da keiner mit niedrigen/mittleren einstellungen testet und man somit keine zuverlässige aussage treffen kann. Wobei ich immer noch nicht verstanden hatte warum AMD die Karte mit 8gb nicht hier angeboten hatte. klar man kann sie mittlerweile kaufen, durch die geringe Anzahl ist sie fast so teuer wie die schnellere rx6600. Das Hat AMD damals wirklich versaut.
Ja möglich aber eben nur dann und 4GB Speicher reicht bei fast keinem Aktuellem Game mehr in FHD und was bringen mir 200% Leistung in alten Games für 300% Aufpreis, die 6500kam 2022 und war wohl für NB gedacht ein paar gab es ja auch aber mit der Krise 22 dann doch nicht wirklich gekommen, aber selbst Nvidia verkauft hat in 2023 noch Design Wins für die MX550 aus 2021 oder MX330 aus 2020 bekommen.
Die 6500 kam zur falschen Zeit am Beginn der Kriese
Ergänzung ()

Project 2501 schrieb:
Wir werden innovative, noch nie dagewesene Preisklassen sehen.
Im DIY Markt sicherlich, aber denke wir werden zumindest die gebraucht Preise werden wohl fallen, denn sowohl Nvidia als auch AMD und Intel die Preise anziehen und wenn einer mit mehr wie 24GB Speicher kommt sollte mann in 2025 auch nichts mehr unter 20GB kaufen
 
Zuletzt bearbeitet:
Cerebral_Amoebe schrieb:
Du vergleichst eine Vorgängerkarte mit einer aktuellen, komischer Vergleich.

Es wurde EXPLIZIT nach dem Vergleich 4060ti vs 6800 gefragt. Also frag nicht mich danach, sondern @Apocalypse warum er hier danach fragt.

Apocalypse schrieb:
Ich finde es wirklich beindruckend das du eine Quelle verwendest, bei der dann aus 10 RT-Benchmarks die 7800xt 7x schneller als die 4060ti 16GB abschneidet, die 6800xt immerhin noch 4 von 10 mal in RT schneller als die 4060TI 16GB ist und sogar die 7700xt dann noch in 3/10 Benchmarks vorne liegt. Und das ist dann sogar schon deine gewählte Quelle.

Es ging um den Vergleich 4060ti vs 6800. Da die 6800 nicht im Benchmark ist, habe ich "vergleichbare" AMD Karten herangezogen.

Apocalypse schrieb:
Das heißt du zeigst mir rein zufällig die zwei von den drei Beispielen, wo dann die "370€" 4060ti 16GB vor der 7800xt ist. Ach ne verschaut, für 370€ ist es ja nur ne Ventus 8GB. :volllol:

Mea culpa, die 370€ ist tatsächlich die 8GB Variante. 450€ sind es für die 16GB Variante.
Persönlich angreifen muss man deswegen aber niemanden, mache ich ja auch nicht.

Apocalypse schrieb:
Geht das nur mir so, oder kommt dir das auch irgendwie selbst im Nachhinein betrachtet unehrlich vor?

Und ich ignorer mal komplett das mit Hogwarts Legacy dann auch noch ausgerechnet ein Titel dabei ist, der dann mit 8GB noch mit ruckeln und Texture Problemen zu kämpfen hatte, was dann später per Patch angepasst wurde. Jetzt fehlen halt einfach nur Texturen. ;-)

Ich meinte die 16GB Variante. Und meine Aussage bleibt bestehen, die 4060ti für 450€ kann mithalten. Das war ja Deine Frage:

Apocalypse schrieb:
Hmm, 4060ti 16GB, kann die in RT überhaupt mit irgendwas in ihrer Preisklasse mithalten? Ist da nicht selbst ne 6800 auch in RT schneller?


7800XT - ab 499€
7700XT - ab 399€
 
  • Gefällt mir
Reaktionen: Apocalypse
raPid-81 schrieb:
7800XT - ab 499€
7700XT - ab 399€
Sorry aber kann sie mit der 7700xt gerade so mit 3% Vorsprung in WQHD RT, in Raster St. sie schon 10% Langsamer und zugegeben 16 GB sind für FHD übertrieben aktuell 12 der 7700xt untertrieben die 7800xt liegt aber in WUHD bereits 11,5% in RT unterlegen im Raster gar 28,8% und das bei nur 50€ Aufbreis, für weitere 50€ Aufpreis bekommst dann die 4070 die aber auch nur für FHD taugt da nur 12GB und ledeglich in RT schneller ist
 
  • Gefällt mir
Reaktionen: JarlBallin und Apocalypse
Warum kommt hier ständig kompletter Unsinn als Antwort auf meine Posts?

Die Frage war: "Kann die 4060ti mit AMD Karten in derselben Preisklasse in RT Spielen mithalten?". Und es wurde explizit noch nach der 6800 als Beispiel gefragt.

Meine Antwort BLEIBT DIESELBE: JA, SIE KANN MITHALTEN. Was ist daran so schwer zu verstehen?

für weitere 50€ Aufpreis bekommst dann die 4070 die aber auch nur für FHD taugt da nur 12GB und ledeglich in RT schneller ist

Und das ist einfach mal total daneben. Ich zocke mit einer 3080 10GB auf WQHD RT Titel. Kein Problem mit dem VRAM. Warum sollte eine Karte mit 12GB da jetzt Probleme haben?
 
  • Gefällt mir
Reaktionen: Apocalypse
raPid-81 schrieb:
Warum kommt hier ständig kompletter Unsinn als Antwort auf meine Posts?

Die Frage war: "Kann die 4060ti mit AMD Karten in derselben Preisklasse in RT Spielen mithalten?". Und es wurde explizit noch nach der 6800 als Beispiel gefragt.

Meine Antwort BLEIBT DIESELBE: JA, SIE KANN MITHALTEN. Was ist daran so schwer zu verstehen
nein sicher nicht aber Du vergleichst old Gen gegen new Gen. und eine 4060ti 8 GB ist selbst in FHD gerade mal 3% Schneller in RT dafür aber 10% hinter der 6800 in Raster, die das selbe Kosten.
https://www.computerbase.de/artikel...chmarks_mit_und_ohne_raytracing_in_1920__1080
raPid-81 schrieb:
Und das ist einfach mal total daneben. Ich zocke mit einer 3080 10GB auf WQHD RT Titel. Kein Problem mit dem VRAM. Warum sollte eine Karte mit 12GB da jetzt Probleme haben?
wo habe ich das denn jetzt geschrieben ?!? Aktuell reichen die 10/12 GB noch für WQHD klar aber in 2 Jahren würde ich gerne gerade einen RT test sehen der eine 3080ti gegen eine RX6950 stellt und dann wird die TI in UHD kein Land mehr sehen, obwohl sie Aktuell aktuell noch meilenweit vor der 6950xt liegt in RT
 
  • Gefällt mir
Reaktionen: JarlBallin
Icke-ffm schrieb:
... für weitere 50€ Aufpreis bekommst dann die 4070 die aber auch nur für FHD taugt da nur 12GB und ledeglich in RT schneller ist
Full HD? Bis auf sehr wenige Ausnahmen reicht der Speicher für Ultra HD und daran wird sich bis 2027 so schnell nichts ändern, weil die Konsolen auch nicht mehr Speicher bekommen.
 
  • Gefällt mir
Reaktionen: raPid-81
Icke-ffm schrieb:
nein sicher nicht aber Du vergleichst old Gen gegen new Gen. und eine 4060ti 8 GB ist selbst in FHD gerade mal 3% Schneller in RT dafür aber 10% hinter der 6800 in Raster, die das selbe Kosten.

Ey sach mal, Leseverständnis!?

ICH wurde gefragt ob eine 4060ti überhaupt in RT Titeln (!!!) mit vergleichbaren AMD Karten mithalten kann. Siehe hier, da habe ich das Original Zitat sogar noch mal verlinkt.

Es geht NICHT um Raster. Es geht um RT Titel! Und um Karten auf ähnlichem Preisniveau! Und kann sie da mithalten? JA, siehe Benchmarks. Hier der RT Index, im Vergleich zu ungefähr gleich teuren AMD Karten:

1717946620573.png


Gelb = FullHD Index
Grün = WQHD Index

Preise:
4060ti 8 GB - ab 370€
4060ti 16 GB - ab 450€
7800XT - ab 499€
7700XT - ab 399€

Icke-ffm schrieb:
wo habe ich das denn jetzt geschrieben ?!? Aktuell reichen die 10/12 GB noch für WQHD klar aber in 2 Jahren würde ich gerne gerade einen RT test sehen der eine 3080ti gegen eine RX6950 stellt und dann wird die TI in UHD kein Land mehr sehen, obwohl sie Aktuell aktuell noch meilenweit vor der 6950xt liegt in RT

Du hast geschrieben dass eine 4070 aufgrund ihrer 12 GB nur für RT in FullHD taugt. Deine Worte. Kein Wort von "in 2 Jahren" oder sowas. Und was in X Jahren wie vielleicht sein wird ist für die Diskussion eigentlich irrelevant.

Edit: Index erweitert um 4060ti 8 GB und 16 GB Variante
 
Das bedeutet aber nicht dass ich als User da mit gehe!

Zum arbeiten werden 2 4090 rxyz und 2 A-6000 new gen reichen und halten.
Ich bin die nächsten 5 Jahre aus dem Spiel.
Und wenn der KI-kack noch dicker und feste druff und drinn kommt, erst recht nicht mehr.
Und wenn die schöne Ki eh alles baut dann brauchen wir doch nix mehr.
Es ist mir egal. out
 
Icke-ffm schrieb:
Aktuell reichen die 10/12 GB noch für WQHD klar aber in 2 Jahren würde ich gerne gerade einen RT test sehen der eine 3080ti gegen eine RX6950 stellt und dann wird die TI in UHD kein Land mehr sehen, obwohl sie Aktuell aktuell noch meilenweit vor der 6950xt liegt in RT
Wie kommt man zu so einer Annahme? Bekommt die RX 6950XT Raytracing Cores spendiert?
 
Icke-ffm schrieb:
nein sicher nicht aber Du vergleichst old Gen gegen new Gen.
Es wurde doch genau danach gefragt. So schwer? Letztendlich völlig egal, die Karten sind so am Markt platziert, dass Nvidia offenbar genügend absetzt.

Und wie immer wird DLSS vergessen, was bei vergleichbarer Qualität zu FSR einfach mehr Performance bringt und deshalb ein etwas höherer Nvidia Preis gerechtfertigt ist.
 
  • Gefällt mir
Reaktionen: Apocalypse
Zurück
Oben