Sinatra81
Captain
- Registriert
- Dez. 2020
- Beiträge
- 3.162
Ist dem so?MaverickM schrieb:immer weniger werdenden
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Ist dem so?MaverickM schrieb:immer weniger werdenden
In der Tabelle stehen dann aber 80 Shadereinheiten. Was denn nun?Robert schrieb:Mit den 128 Shader-Einheiten kam die Radeon HD 5670 bei einem Chiptakt …
AFAIK peilt Nvidia immer die gleiche Gewinnmarge an.Tzk schrieb:Eine GTX 280 lag übrigens bei 550€ UVP. Eine RTX 4080 liegt aber nicht bei +50% (~800€) sondern weit darüber… ngreedia macht sich also schön die Taschen voll.
War auch einer der Gründe, warum sich ein paar Leute zB die Intel Arc A310 (kleinste Alchemist Karte) geholt haben. Die kann unter anderem auch AV-1 Enkodierung. Als dGPU wirklich nur minimale Besetzung, aber für Bildausgabe und sowas wie Enkodierung auf dem ASIC durchaus nützlich.MaverickM schrieb:Solche Karten fehlen aktuell irgendwie. Moderne Ultra-Low-Budget Karten. Ja, das Preis-/Leistungsverhältnis war nie das beste, aber diese Karten bedienen auch einen anderen Zweck: Bildausgabe dort, wo es sonst keine gibt. Gerade als Ersatzkarte für den "Notfall" oder zu Testzwecken wären die Optimal. Vor allem dann, wenn man eine (immer weniger werdenden) CPU ohne Grafikausgabe hat oder die Anschlüsse auf dem Board nicht reichen.
Dachte ich gestern auch. Der Markt für Karten unter 200 Euro (oder 190 Euro) ist quasi tot. AMD hat da ein wenig was, Intel auch.MaverickM schrieb:Solche Karten fehlen aktuell irgendwie. Moderne Ultra-Low-Budget Karten.
Es ist eig ähnlich wie beim Auto.B1g_B3n schrieb:Ich weiß das neue und mehr techniken mit den Jahren gekommen in die Grakas gekommen ist und alles teuerer wird.
Die deutlich gestiegenen Kosten bei der Produktion und die deutlich höhere Komplexität inkl. Entwicklungsarbeit lässt du in deiner Rechnung aber bewusst außen vor oder?Tzk schrieb:Eine GTX 280 lag übrigens bei 550€ UVP. Eine RTX 4080 liegt aber nicht bei +50% (~800€) sondern weit darüber… ngreedia macht sich also schön die Taschen voll.
Tzk schrieb:Eine GTX 280 lag übrigens bei 550€ UVP. Eine RTX 4080 liegt aber nicht bei +50% (~800€) sondern weit darüber… ngreedia macht sich also schön die Taschen voll.
Das muss auch so sein, sonst gäbe es keinen Fortschritt. Wenn die Leistung pro Euro einer 4090 nicht besser wäre als die einer GeForce 256, warum sollte man die 4090 kaufen?craxity schrieb:Man kriegt ständig mehr für sein Geld.
Da hast du mich missverstanden. Das sollte kein „früher war alles besser“ rant werden, denn der Fortschritt der letzten 25 Jahre ist immens. Wenn ich überlege wo wir zum XP Release standen und wie die Welt heute ausschaut… schnelles Internet, Smartphones, so viele QoL Verbesserungen in Programmen und den OS… Toolchains für Entwickler etc pp.E1M1:Hangar schrieb:Damals hat auch ( Ich kotze btw. bei dem "Früher war alles billiger und besser!"-Gelabb jedes Mal. ) das Auto meiner Elter nur 20000 Mark gekostet. Heute brauchste in der Klasse unter 35000€ garnicht erst schauen.
Ja, aber wenn etwas überproportional teurer wird und die Löhne „nur“ mit der Inflation steigen, dann ist es (relativ gesehen) teurer als vorher. Worüber wir hier reden ist der Nettoreallohn, also das was mehr an Geld auf deinem Konto ankommt verrechnet mit der Inflation. Hier mal Daten für 1995 bis 2023:E1M1:Hangar schrieb:PS: Nur als Orientierung - auch die Löhne sind seit damals ordentlich gestiegen
Pentium 2 und Pentium 3 waren anfangs ein teurer Spaß, wobei durch die "Schnellebigkeit" damals recht schnell die Preise auch gefallen sind.E1M1:Hangar schrieb:Mein erster PC mit P III 450 Mhz, 128 MB SD-Ram, ATi Rage Fury + TV Karte und Creative Soundblaster hat an die 3000 DM gekostet. Das war für MEINE Eltern damals unglaublich viel Geld.
Das Thema ist da sehr komplex im ganzen, weil nicht nur Nvidia sich hier die "Tasche" auf Kosten aller voll macht, sondern auch TSMC davor, die ebenso mit Margen von 40 - 50 % zum Jahresabschluss jedes mal hinausgehen und die sich zum Teil auf staatliche Subventionen und Co stützen.Tzk schrieb:Sorry, aber NVIDIA macht sich einfach nur auf Kosten aller die Taschen voll.
Dann kauf dir ein günstiges gebrauchtes, wenn du nur Bildausgabe benötigst. Wieso muss es dafür Neuware sein?MaverickM schrieb:Solche Karten fehlen aktuell irgendwie. Moderne Ultra-Low-Budget Karten. Ja, das Preis-/Leistungsverhältnis war nie das beste, aber diese Karten bedienen auch einen anderen Zweck: Bildausgabe dort, wo es sonst keine gibt. Gerade als Ersatzkarte für den "Notfall" oder zu Testzwecken wären die Optimal. Vor allem dann, wenn man eine (immer weniger werdenden) CPU ohne Grafikausgabe hat oder die Anschlüsse auf dem Board nicht reichen.
Wenn man der erste Analyse aus dem aktuellen CB-Podcast Glauben schenken darf (und ich fürchte, die Einschätzungen sind ziemlich gut) - dann sind die Zeiten, in denen große Fortschritte bei der Leistung vor allem über schnellere Hardware zu erzielen sind, vorbei. Entsprechend bleibt die Effizienz bei den Desktop-Modellen auf der Strecke - denn sonst könnte man nach 2,x Jahren eben keine neue NVDIA-Generation präsentieren, die schneller ist als die Vorherige. Aber letztlich ist auch dieses Herangehensweise auch bald am Ende, denn spätestens wenn der Verbrauch der Grafikkarten vierstellig wird, muss mal Ende sein beim "Wattwahn".BlaBlam schrieb:Bei IGPs (und mehr oder weniger im mobilen Bereich) geht geht's doch schließlich auch effizient. Oder besteht dafür einfach kein ernst zu nehmender Retail-Markt?
Whitehorse1979 schrieb:Die heutigen HighendKarten wären garantiert günstiger mit echter Konkurrenz. Allerdings gibts ein Monopol bei Highend. Und daher oh wunder diese extrem hohen Preise.