News Desktop-Grafikkarten: Nvidias weltweiter Marktanteil klettert auf fast 90 Prozent

raPid-81 schrieb:
Mea culpa, die 370€ ist tatsächlich die 8GB Variante. 450€ sind es für die 16GB Variante.
Persönlich angreifen muss man deswegen aber niemanden, mache ich ja auch nicht.



Ich meinte die 16GB Variante. Und meine Aussage bleibt bestehen, die 4060ti für 450€ kann mithalten. Das war ja Deine Frage:




7800XT - ab 499€
7700XT - ab 399€
Und die 4060ti 16gb dann galt genau dazwischen. Und ein paar Restbestände der 6800 für iirc ab 389 oder so.
Persönlich angreifen wollte ich dich übrigens überhaupt nicht. Die Diskrepanz zwischen der Aussage von dir, einem genannten Preis, einem von zwei Beispielen bei der die 8GB Version dann auch noch Probleme macht und letztendlich das i-Tüpfelchen mit der Feststellung von dir das die 7800xt in RT langsamer ist, obwohl ja selbst der Summe der Benchmarks die du rausgesucht hast die 7800xt überwiegend in RT schneller wäre.

Das hat halt einfach unehrlich gewirkt also hab ich nachfragt. Du hast dich für den Verkucker beim Preis entschuldigt, der mir übrigens auch erst passiert ist, die Grundaussage klar gestellt und etwas relativiert. Hab ich jetzt auch überhaupt kein Problem mehr mit.

Um genau zu sein, verzichte ich jetzt auch darauf einen anderen Parkour rauszusuchen wo die 6800 dann iirc minimal vorne lag. Macht ja eh keinen wirklichen Unterschied.

Quidproquo77 schrieb:
Und wie immer wird DLSS vergessen, was bei vergleichbarer Qualität zu FSR einfach mehr Performance bringt und deshalb ein etwas höherer Nvidia Preis gerechtfertigt ist.
Naja, mit 8GB ist das mit der vergleichbaren Qualität auch nicht immer geben, weil da schon mal die Texturen einen Strich durch die Rechnung machen können.

FSR glänzt auch immer öfter und AFMF hat auch so seine stärken. Anderseits, und das ist viel wichtiger ist das alles reichlich spät für AMD gekommen. Klar, ich freu mich, das die RDNA2 Karte hier wirklich wie feiner Wein gereift ist. aber wer nicht Grafikkarten ewig benutzt wird wahrscheinlich jetzt gerade schon auf Blackwell schielen.

Aber wie schon öfter gesagt, bei den meisten Karten ist es im Grunde latte, wer ne 4090 will muss halt zur 4090 greifen, wer Budget RT will kommt wohl an der 4070super nur schwer vorbei, wer viel RAM in der Midrange will ... ist arm dran, weil der hat dann schon ne 6800 vor ein paar Jahren gekauft und findet hoffentlich dann dieses Jahr endlich ein brauchbares Upgrade, etc
 
  • Gefällt mir
Reaktionen: JarlBallin, Hellyeah und raPid-81
  • Gefällt mir
Reaktionen: JarlBallin
Quidproquo77 schrieb:
Und wie immer wird DLSS vergessen, was bei vergleichbarer Qualität zu FSR einfach mehr Performance bringt und deshalb ein etwas höherer Nvidia Preis gerechtfertigt ist.
Was leider nur bei WQHD und 4K Sinn macht, weder DLSS noch FSR (XeSS kann ich mangels Arc-Karte nicht prüfen) können in Full HD überzeugen und das ist die angepeilte Auflösung der RTX 4060 Ti.

Ab der 4070 Super sehe ich es aber wie Du, da führt kein Weg an Nvidia vorbei, wenn man RT-Leistung vorzieht.
 
Cerebral_Amoebe schrieb:
Was leider nur bei WQHD und 4K Sinn macht, weder DLSS noch FSR (XeSS kann ich mangels Arc-Karte nicht prüfen) können in Full HD überzeugen und das ist die angepeilte Auflösung der RTX 4060 Ti.
Sehe ich nicht so. DLAA bringt auf einem Full HD Monitor ( habe selbst noch einen) eine gute BQ Steigerung, während Native FSR das nicht bieten kann. DLSS Q ist in Full HD meiner Meinung nach ein guter Kompromiss, während FSR bröselt und flimmert.
 
@supermanlovers Mit Deiner Argumentation zum Kartellrecht hätte ja auch Nvidia Arm kaufen dürfen und auch die Übernahme von Activivion durch MS wäre durchgewunken worden?
 
  • Gefällt mir
Reaktionen: JarlBallin
Quidproquo77 schrieb:
DLSS Q ist in Full HD meiner Meinung nach ein guter Kompromiss, während FSR bröselt und flimmert.
In Cyberpunk ist beides gleich bröselig.

DLAA/FSR nativ:
Das sind halt Funktionen, die nicht in jeden Spiel verfügbar sind und ich immer hoffen muss, dass es eventuell per Patch nachgereicht wird.
 
  • Gefällt mir
Reaktionen: JarlBallin
@DFFVB
Auch hier wieder völlig andere Fälle. Sie wollten etwas zusätzliches kaufen. Du willst eine bestehende Firma zerschlagen die schlicht erfolgreich ist, weil sie bessere Produkte als die Konkurrenz herstellt. Für eine Zerschlagung gibt's in der EU (sicher auch in den USA) deutlich höhere Hürden.
 
@supermanlovers Man muss zwischen Ursache und Wirkung unterscheiden. Das eine ist eine marktbherrschende Stellung, das andere das Ausnutzen davon. Ich bin mir sehr sicher, dass Nvidia hier auch Gebrauch von macht (bspw. abreden wie hier) Und hier kannst Du es auch ganz gut nachlesen. Bist Du vom Fach oder ist das nur Bauchgefühlt bei Dir? Und für sowas mein 5.000 Beitrag 🤣
 
@DFFVB
Prüfen kann man natürlich immer. Ist die Aufgabe von Behörden. Im Zweifel wird bei Nvidia das Gaming, Server und Auto oder KI Chip Sparte in 2-4 Firmen aufgeteilt. Ob das etwas an den 80 Prozent ändert?

Nicht vom Fach. Nur Steuerberater und Wirtschaftsprüfer.
 
supermanlovers schrieb:
Ob das etwas an den 80 Prozent ändert

Kommt etwas drauf, wenn die Entwicklung aus anderen Sparten quersubventioniert wird, hätten sie so weniger Mittel und AMD könnte ggf aufholen, im Giftschrank der Kartellbehörden gibts ja sicherlich noch andere Mittelchen - plötzlich müsste ggf. ein Patetn unter FRAND gestellt werden...

Dann sollten wir zu Deiner ursprünglichen Aussage zurückkehren "Sehr unwahrscheinlich" - damit sagst Du, dass Du es sehr unwahrscheinlich siehst, dass die Kartellbehörden sich das näher anschauen - wenn ich mir anschaue wie oft Dinge in den letzten Jahren untersucht wurden (und auch werden --> siehe Frankreich) halte ich das nicht für sehr unwahrsceinlich bzw. passiert es ja schon

supermanlovers schrieb:
Nur Steuerberater und Wirtschaftsprüfer.

Ich hab vor 15 Jahren mal Kartellrecht gehört, und mein Bauchgefühl sagt mir, da ist ne Grundlage vorhanden ;-)
 
  • Gefällt mir
Reaktionen: supermanlovers
DFFVB schrieb:
Dann sollten wir zu Deiner ursprünglichen Aussage zurückkehren "Sehr unwahrscheinlich" - damit sagst Du, dass Du es sehr unwahrscheinlich siehst, dass die Kartellbehörden sich das näher anschauen
Achso. Ich meine das eine Zerschlagung sehr unwahrscheinlich ist. Anschauen können sich Behörden alles.

3-4 verbundene Unternehmen bremst kaum etwas. Die können sich beliebig über Beratungen oder Lizenzen Gelder hin- und herschieben. (das ist eher mein Fachgebiet als Wirtschaftsprüfer, weil völlig rechtsfrei ist das auch nicht. Verrechnungspreise und so)

Volkswagen, Google oder Facebook wickeln ihre Geschäfte auch über zahlreiche Einzelfirmen ab. Darüber ist nur eine Dachgesellschaft (welche die Anteile hält). Ich schätze bei Nvidia ist das nicht anders. Müsste ich mir bei Langeweile mal anschauen.

Ich möchte lediglich nichts was den Aktienkurs negativ beeinflusst. Die 5090, 6090 und 7090 sind schon längst finanziert (habe Nvidia allerdings nur über spezielle ETFs)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DFFVB
Cerebral_Amoebe schrieb:
In Cyberpunk ist beides gleich bröselig.
Da sind Welten dazwischen. Aber ich vermute mal du hast aktuell keine GeForce, bzw. hast du nicht damit auseinandergesetzt.
Das Full HD DLSS Bild sieht meiner Ansicht nach deutlich ruhiger und von den Details vergleichbar mit nativ aus und Längen besser als Xess und FSR.
Cerebral_Amoebe schrieb:
DLAA/FSR nativ:
Das sind halt Funktionen, die nicht in jeden Spiel verfügbar sind und ich immer hoffen muss, dass es eventuell per Patch nachgereicht wird.
Sicher, aber weil du gemeint hast, DLSS hätte in Full HD keinen Vorteil, weil alles so schlecht aussieht.
Dann kann man immer noch auf DLAA gehen, was dann etwa so gut aussieht wie WQHD Nativ.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Samuelz und DFFVB
88 Prozent Marktanteil ist juristisch gesehen ein Monopol.
Man kann nur hoffen, dass AMD und Intel sich möglichst bald fangen und konkurrenzfähige Produkte auf den Markt werfen.
 
Quidproquo77 schrieb:
Das Full HD DLSS Bild sieht meiner Ansicht nach deutlich ruhiger und von den Details vergleichbar mit nativ aus und Längen besser als Xess und FSR.

Wobei XeSS schon gut wegkommt muss man sagen. Was mich interessieren würde: Welche Qualitätsstufen wurden da genutzt? Bei allen Upscalern der "Quality" Modus vermutlich?
 
@Quidproquo77

Bei der Schrift sieht DLSS am besten aus und ja, das kommt nativ schon näher als die beiden anderen, aber die Unschärfe fällt sofort auf, wenn man vorher nativ gesehen hat.
Bei Doom wäre es mir egal, aber bei Rollenspielen halte ich doch schonmal inne und schaue mich um.

Den letzten Vergleich hatte ich Ende September 2023 mit der RTX 3060 und der RX 7700XT gemacht, indem ich den Benchmark laufen lassen habe.
Da sahen die Palmen draußen mit DLSS/FSR bei beiden bescheiden aus.
 
  • Gefällt mir
Reaktionen: JarlBallin und Project 2501
raPid-81 schrieb:
Wobei XeSS schon gut wegkommt muss man sagen. Was mich interessieren würde: Welche Qualitätsstufen wurden da genutzt?
Ja Quality. XeSS ist etwas stärker als FSR, dennoch fehlen die Bildruhe, die Details in der Ferne und etwas die Schärfe, bzw. Rekonstruktion. Aber mal sehen was AMD mit 3.1 vorstellt, müsste eigentlich bald soweit sein.
Im Direktvergleich mit etwas Zoom aber klar ersichtlich.

Unbenannt.PNG

FSR bröselt stark im Gitterbereich, bei der Palme und im Hintergrund.
Cerebral_Amoebe schrieb:
Bei der Schrift sieht DLSS am besten aus und ja, das kommt nativ schon näher als die beiden anderen, aber die Unschärfe fällt sofort auf, wenn man vorher nativ gesehen hat.
Kannst du mir das mal markieren? Wo siehst du beispielsweise oben eine Unschärfe?
Ist mir mit DLSS noch nie aufgefallen, allerdings kann man es mit Schärfe auch übertreiben und dann entstehen erneut Artefakte.
Cerebral_Amoebe schrieb:
Den letzten Vergleich hatte ich Ende September 2023 mit der RTX 3060 und der RX 7700XT gemacht, indem ich den Benchmark laufen lassen habe.
Da sahen die Palmen draußen mit DLSS/FSR bei beiden bescheiden aus.
Kann auch auch nicht bestätigen, gerade die Palmen, schneiden mit FSR, wie du auch oben siehst von der Flimmerneigung in Bewegung und der Rekonstruktion schwächer ab als mit Xess, deutlich schwächer als mit DLSS oder nativ mit TAA.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Kannst du mir das mal markieren? Wo siehst du beispielsweise oben eine Unschärfe?
In dem Video der Schriftzug MarkX24.

2024-06-10 20 48 26.png


Bei den Bildern sieht FSR bei der Palme wie Matsche aus, der Text andererseits auf der Werbetafel "WE CAN HELP ALL" ist bei FSR schärfer als DLSS,XeSS und nativ.

Bei dem Gitter versagen alle drei Upscaler, denn aus der quadratischen Lochung machen die eine rechteckige Lochung mit kleineren Abständen und ja, ich bin pingelig;)

Unbenannt.PNG


Mich überzeugen die Upscaler noch nicht bei Full HD.
WQHD und 4K mit Upscaler habe ich schon bei Bekannten gesehen, da funktioniert es wesentlich besser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
ich resigniere bald und fresse die Fünfhundertvierzig Euro völlig überteuerte ad104 chip/rtx4070 200w
Dabei könnte es so gute sku geben bsp rtx 4500 ada (ab 1500€)
60sm 2,5ghz 130w tbp grob rx4070 super perf. 24gb vram. Die ideale gpu
amd hat einfach nix entgegenzusetzen die rx7600xt hat genau die gleiche dxr perf wie meine rtx3060 +-0% in raster den einzigen Vorteil +20% dank geringere Bandbreite effektiv 308gb/s vs 360gb/s
alle andere sku sind jenseits der 230w undenkbar.
Bliebe gebr die rtx a4000 gebr ab 400€ 16gb ga104 130w 13tf etwa rtx3060ti perf

Zur Statistik habe ich schon was geschrieben diese zahlen sind von den aib quasi auch laptptop intrigiert und da hat amd nen verdammt geringen Marktanteil da explizit dgpu gemeint sind die apu fallen da raus den da holt amd massiv auf.
Dank den neuen rdna basierende apu. Wo ne dgpu fasst unnötig wird und mit ryzen ai pc was am laptops als erstes kommt mit 256bit si
da bleibe nur die Latenz über die höher ist zum vram aber amd hat ja inf cache in den apu drin.
Das egalisiert den Nachteil der längeren Latenz (statt 1-4ns dann 16-30ns)
Ein großer l4 cache (hbm3 512mb) mit dann 12ns (cl20) wäre die Lösung dies könnte mit camm2 32gb verbunden werden an 256bit ddr5 8000 grob 256gb/s damit sind sämtlich entry level dgpu im laptopmarkt überflüssig und das wird es ab 2026 auch am desktop geben wie der sockel heißt ist offen sicher ist nur, nicht am6.
Das erklärt auch warum amd den support von am5 bis 2027 erweitert hat
apu entry pc vermutlich ai pc gebranded mit 256bit camm2 Modul
Und desktop ab 2027 am6 mit ddr6 dualchannel ab 16 Kerne ohne igp hedt
intel muss endlich was konkurrenzfähiges liefern arrow lake schein ne gurke zu werden.
panther lake ist offen Tendenz auch Katastrophe da eigene Fertigung und kein Takt Vorsprung mehr man wird definitiv unter amd zen7 sein (7,3ghz)
ich vermute das man gerade 6,0ghz erreicht bei 190w statt heute 280w
Da muss die arch massiv an Latenz verringert haben um dann noch ipc herauszuholen.
mein rat an intel gebt die Fertigung auf bzw Auftragsfertiger und nutzt tsmc n2 node damit wäre man bei 7,6ghz Latenz bei 0,7ns l3 bei 11,2ns amd indes bei 0,6ns l3 9,1ns

bei laptops wird man nvidia und intel cpu pushen aber nur noch high end laptops ab den gx103 mit min 80sm 3,6ghz (a16 node 110w tdp = 160w laptop)

Das ist komplettes Managment versagen bei intel durch zu straffe Zeitpläne und kein gebildetes personal. Das selbst amd mit deutlich weniger fachpersonal intel komplett überholt hat
tsmc sind von drittplatzierte in der Fertigung (2008) zum Marktführer geworden seit 2016 das hat alles nenn Grund.
Angetrieben wird das durch die Niederländische Firma asml
Daher sind die Prognosen auch so vorhersehbar. Die Takt Steigerungen sind allein die Umstellung auf gaa und backside zurückzuführen mbfet wird die chips nochmal deutlich beschleunigen da mehr Fläche für Wärmetransport da ist. unklar wieviel, geht ab a12 node los 2030
Gut möglich das bis 2034 wir 12ghz cpu haben und 7ghz gpu ne Taktwand sehe ich nur bei Flächenreduktion was kein Sinn ergibt ne reine design frage oder anders kosten bei cpu definitiv kein Faktor bei dgpu schon aber nur bedingt.
Daher muss intel als erstes Auftragsfertiger werden und samsung nenn guten Konter zu tsmc haben
Alle arbeiten mit physik das ist endlich also alles ne frage wer mehr geld investiert. tsmc ist ein
Staatsunternehmen quasi unendlich geld verfügbar auch der Grund warum man Marktführer ist
Samsung müsste auch sich in diese position bringen intel indes wird es noch werden.
Das aber ist abhängig wer Präsident wird in den usa.

2024 ist das Jahr wo es harte Entscheidungen geben wird
Weltkrieg oder Kooperation und der zwischenweg wonach es aussieht und das sieht verdammt nach nen autokratischen Sieg aus.
Das gilt es zu vermeiden es muss Kooperation sein dafür wird zwingend erforderlich das die neo liberalen aus den Ämtern verschwinden.
Technisch hoffe ich auf, es bleibt so wie es ist. Faktisch wird das immer unwahrscheinlicher.
 
habla2k schrieb:
Zur Wahrheit gehört aber auch, dass der Kauf einer AMD für viele eine bewusste Entscheidung zur für ihn oder sie schlechteren Karte ist. Und wer kauft schon gern ein unterlegenes Produkt? Gerade wenn es auch um Watt pro Leistung geht. Man also mit 300W bei grün mehr bekommt als bei rot

Ist eigentlich auch wieder Quatsch....

Man entscheidet immer je nach Nutzung.
Wenn ich vorwiegend ältere Titel spiele ohne RT und meine Nutzungszeit nicht 8 Stunden am Tag beträgt,dann kann man sehr wohl zu AMD greifen und Geld sparen.

Ich spiele jetzt zum zweiten mal Cyberpunk durch mit RT- Ultra und es läuft ausreichend gut. Warum sollte ich mir wegen diesem einen Spiel unbedingt ne neue Karte holen wenns auch mit der 6800XT brauchbar läuft?!

DLSS ist Nice to have,aber wenn ich bei den meisten Spielen sowieso eine GEN hinterher hänge und ich das nicht zwingend brauche damit es gut läuft,dann erübrigt sich das wieder. Zu mal auch AMD mit FSR Vortschritte macht.

Da kann die Karte effizient sein ,wenn ich nicht jeden Tag Stunden spiele armotisiert sich das wahrscheinlich nie was ich am Anfang spare .
 
  • Gefällt mir
Reaktionen: Jagdwurst
Zurück
Oben