Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Halte ich in deinem Beispiel für recht fair! Da muss alles von Support und Gewährleistung über Transportschäden bis unerkannt unberechtigten Reklamationen von abgewickelt werden.
Wenn du dir mal überlegst, was du dafür an Kosten kalkulieren müsstest um das selbst gewerblich zu können, dürfte da eine größere Zahl bei rauskommen.
Wer selbst baut spart sich das und tauscht dafür eigene Zeit und finanzielles Risiko gegen geringere Kosten. Wenn man selbst technisch kompetent ist und mit dem Risiko, Hardwareschäden im Zweifel selbst tragen zu müssen leben kann, kann man sich das getrost sparen. Alle anderen bekommen mit 15% Aufpreis ein nicht soo schlechtes Angebot bei dem viele Dinge einfach jemand anders Problem sind.
Halte ich in deinem Beispiel für recht fair! Da muss alles von Support und Gewährleistung über Transportschäden bis unerkannt unberechtigten Reklamationen von abgewickelt werden.
Wenn du dir mal überlegst, was du dafür an Kosten kalkulieren müsstest um das selbst gewerblich zu können, dürfte da eine größere Zahl bei rauskommen.
Das Problem ist nur, das Otto nicht selber baut. Die kaufen nur ein Fertigprodukt von Acer und verkaufen es weiter. Es ist, als würde man einen Toaster beim Hersteller/Großhändler kaufen und an Kunden weiterverkaufen.
Transport ist versichert, speziellen IT-Support gibt es vermutlich von Otto nicht oder ist ge-outsourced. Oder man geht nach Schema F und ein allgemeiner Support geht ne Liste durch.
Wenn was bei Gewährleistung anfällt, gehts zurück an Acer und die kümmern sich drum, weil auch Händler haben eine Garantie bei Herstellern...
Reklamationen...nun da kommt es auf das Produkt an. Oftmals ist es im Preis bei Verbrauchsgütern inbegriffen. Bei PCs werden die sicherlich wieder flott gemacht und als Outlet etwas günstiger, aber noch überm Einkaufspreis verkauft.
Wer weiß, vielleicht geht es zu Acer zurück und wird gegen eine Gebühr neu und original verpackt, das weiß ich allerdings nicht.
Was ich mich nur Frage, wieviele 6000€ PCs verkaufen die im Monat?
Na klar hat das damit was zu tun. Du sprichst indirekt Nvidia ab ihre guten Margen aufzugeben und die Karten günstiger anzubieten, ohne zu reflektieren was das dann für die restlichen Anbieter bedeutet. Intels ARC 770 war ein 400mm2 Chip, langsamer als ne 4060 mit 160mm2. AMD steht auch durchgehend schlechter da. Intel zahlt Lehrgeld, AMD muss mit großen Chips gegen wesentlich kleinere Nvidia Chips ran und bietet deshalb mit RDNA4 aus Kostengründen nen Mittelklasse Chip an.
Der Kunde hat langfristig nichts von Dumpingpreise, aber wenn du glaubst Nvidia könnte solche Chips für 400 Euro anbieten, kann man dir das wohl nicht ausreden.
Mensch_lein schrieb:
. Denn es ist klar, dass AMD in derselben Situation genauso handeln würde, bestreitet glaube ich auch keiner.
Und es ist auch klar, dass Nvidia so handeln würde wie AMD, nämlich auch mit unterlegenen Produkten noch Geld verdienen zu wollen, zumindest auf lange Sicht.
Mensch_lein schrieb:
Ich sagte vor einigen Seiten etwas dazu, warum die Preise auch bei den AMD Karten so hoch sind.
Mehr Konkurrenz lässt die Preise schon etwas sinken, aber um das Niveau zu erreichen was du anstrebst, müsste die Hardware verschenkt werden + Gutschein.
Mensch_lein schrieb:
Die Sache mit der Butter, ist nochmals ein ganz anderes Blatt, dass absolut nichts mit dem Thema hier zu tun hat, nichtmal im Ansatz.
Doch ist 1:1 dasselbe. Produkte können nicht unter Herstellkosten und ohne Gewinnabsicht produziert werden.
Und genauso wie es keine Butter unter 2,79 Euro mehr geben wird, kommen auch keine High End GPUs im 500 Euro Bereich. Weder von AMD noch von Intel, noch von Nvidia.
Du sprichst doch von Abzocke und ich sage, es ist keine. Nvidia profitiert von deren technologischem Vorsprung monetär, ja das stimmt. Andere Anbieter tun es nicht, oder zahlen sogar drauf.
Mensch_lein schrieb:
Vorallem in einem Technikforum, ausser die Butter wäre die neue Wärmeleitpaste.
Kannst ja nur die Chipkosten vom Wafer vergleichen und steht ein 9950X vielleicht bei 60 Dollar 2*80mm2 + günstiges I/O die, während eine 5090 bei 400 bis 500 Dollar steht, womit das die 10x größer ist als ein Chiplet und damit nur ~ 45 Chips aus einem 4nm 25000 Dollar Wafer kommen.
Es ist zu befürchten, dass der Speicherausbau wie bei den 4000er sein wird. Wahrscheinlich gibt es dann wieder 5060 und Ti mit 8GB VRAM. Die 70er Karten mit 12GB. Und später dann wieder Ti Super mit 16GB.
Natürlich noch eine teure 16GB VRAM 5060 Ti.
geht doch technisch einfach nicht... denk doch eine sekunde nach. solange keine 3GB module da sind kann man das nicht ändern. 32GB wäre komplett übertrieben
Das High End ist natürlich Next Level. Aber selbst eine RTX 3060 wird heute noch nah an ihrer einstigen UVP verkauft (neu) -- wobei der Markt ja damals kaputt war. Die Gebrauchtpreise am Einstiegsmarkt generell werden mit davon beeinflusst, dass es unter 200 Euro schon viele Jahre nichts Brauchbares mehr gibt. Zuletzt vermutlich die letzten GTX (Turing). Entsprechend bekommt man selbst da noch was raus. Selbst GTX 1060 werden noch nachgefragt -- und bezahlt. Dabei sind die längst veraltet.
Später wird man im Rückblick sagen: Es war nicht alles schlecht. Ist es tatsächlich nicht -- es sei denn, die Grafikkarte raucht ab und hat damit spontanen Vollwertverlust. Also immer schön pflegen, bestes Invest.
Was mich mittlerweile mehr nervt als das Nvidia mit vram knausert ist einfach dass die Konkurrenz es nicht schafft das CUDA Monopol zu brechen. Wo wir doch OpenCL am Start haben und mit AMD's eigener Kreation.
Da ist das Problem schlicht ähnlich wie bei Spielen - die Softwarehersteller haben sich auf die Technologien von Nvidia eingeschossen. Man findet deutlich mehr Software mit CUDA als mit OpenCL oder ROCm und deshalb wird in dem Segment Nvidia gekauft, was wiederum den Stand von CUDA festigt.
geht doch technisch einfach nicht... denk doch eine sekunde nach. solange keine 3GB module da sind kann man das nicht ändern. 32GB wäre komplett übertrieben
Die GTX 260 hatte Speicherinterface für 14 Speicherchips. Die Variante war möglich da die 896MB Variante je 64MB Chips und die 1792MB Variante je 128MB Chips verbaut hatte.
Das ist genau das was Prefox sagt, es gibt für Mitte 2025 die Erwartung des Release von 3GB Chips. Ab dann ist das gleiche Prinzip für die 5080 Möglich. Die 5080 hat 256 Bit für 8 Speicherkanäle, die Release Version verwendet 8 mal 2GB Chips. Eine mögliche „Super“ Karte (Ende 2025, Anfang 2026) hätte aber die Option dann 8 mal 3GB also 24 GB zu verbauen.
Was natürlich zum Release schon möglich wäre ist ein stärkeres Speicherinterface das mehr Chips ansteuern kann. Dann wäre je nach Speicherinterface 2GB Schritte möglich. Aber Speicherinterface ist relativ teuer in den Produktkosten. Dürfte bestimmt bei 50 EUR pro 32 Bit (also pro Chip bzw. pro 2GB) liegen.
Ist jetzt auch ein bisschen Strategiefrage, meinem Geschmack nach wäre ein 320 Bit Speicherinterface was zu 20GB VRAM führen kann sowohl den Produktkosten als auch Marktbedarf zumutbar. Würde die GPU halt um ca. 100EUR im Preis anheben aber für signifikant Mehrwert.
Sicher? Die Xbox Series X braucht im Durchschnitt (Mix aus mehr und weniger leistungshungrigen Spielen) ca. 150 - 160 Watt, bei leistungshungrigen Spielen (Peak) allerdings 200 - 210 Watt.
Die meisten AAA-Spiele nutzen HDR. Da würde es mich wundern, wenn dein OLED 65'' im HDR-Modus (Peak) nur 100 Watt braucht. Ein LG OLED 65'' C3 wird z. B. mit 175 Watt HDR-Leistungsaufnahme beworben.
Dein Denon Atmos AVR wird vermutlich auch im Peak mehr als 50 Watt ziehen, wenn er die Boxen befeuert. Eventuell zieht auch noch ein fetter Subwoofer zusätzlichen Strom.
Ich lass die ganze Leiste über den Actor laufen und Lese ab was durch läuft. 298 Watt. Werde heut abend ein Bild machen.
Von dem her ob da weit hinten jetzt die Kante geklättet ist oder nicht, das ist so Marginal.
Ich finde es aber total gut von den Leuten, die Stromkonzerne zu unterstützt und die Unternehmen die sich sowas ausgedacht haben und es dann in eurem Hirn reingepflanzt hat.
Mit diesem Gedanken wird jetzt gespielt und euch das Geld aus der Tasche gezogen.
Das die Ownage funktioniert hat, sieht man wie arg die Leute argumentieren. Verlassen auch ihren "gesunden Menschenverstand" um irgendwas zu rechtfertigen.
geht doch technisch einfach nicht... denk doch eine sekunde nach. solange keine 3GB module da sind kann man das nicht ändern. 32GB wäre komplett übertrieben
Ich hab zum Glück noch eine 4090 und werde mir schwer überlegen, ob ein Upgrade schon sein muss, oder ob die 4090 ihre Sache noch 2 Jahre gut macht. Ich mag Nvidia und bin froh, dass ich meine Nvidia Aktien seit 5 Jahren brav gehalten habe.
Aber bei den Preisen aktuell steige ich echt aus. Mal sehen, wie schlimm es später wirklich noch wird.
Ach so teuer kann sie doch garnicht sein wenn ich bedenke wieviele sich eine rtx 4090 gekauft haben, das war also noch zu billig gewesen wie es scheint.
Der Kunde hat langfristig nichts von Dumpingpreise, aber wenn du glaubst Nvidia könnte solche Chips für 400 Euro anbieten, kann man dir das wohl nicht ausreden.
Ah und wo kann man nachschlagen, was so ein Chip für einen Grossabnehmer wie Nvidia kostet? Erleuchte mich und nenn mir Zahlen. Am liebsten die gesamten Herstellungskosten für eine 5090.
Quidproquo77 schrieb:
Du sprichst doch von Abzocke und ich sage, es ist keine. Nvidia profitiert von deren technologischem Vorsprung monetär, ja das stimmt. Andere Anbieter tun es nicht, oder zahlen sogar drauf.
Intel B580 kostet ohne Steuer 250€ und dürfe für Intel auch die Kosten (inkl. Wasserköpfe) decken.
Allerdings mit viel höheren Aufwand.
Hardware technisch für die Produktion ist es eine 4070/S.
Was auch gegen die 20k Pro Wafer (Einzelabnahme) spricht ist Apple mit zB dem MacBook Pro oder iPhone.
Da auch Apple eine sehr gute Marge hat, sehr teuren Software Support für ein ganzes Betriebssystem bietet, Werbung schaltet usw.
Die Zahlen von TSMC/Nvidia Wafer usw sind nicht vergleichbar, sonst könnten die Preise aus den Umsätzen extrahiert werden.
Der eine zahlt pro Wafer, der andere pro Chip.
Sorry, bei Peak-Belastung (so wie du geschrieben hast), kann das nicht stimmen.
Welchen OLED-Fernseher hast du denn? Da gibt es ja eindeutige Herstellerangaben, die bestimmt nicht schlechter dargestellt werden als die tatsächliche Leistungsaufnahme. Hier ein paar Beispiele von populären Modellen:
Und seitdem sind noch deutlich leistungshungrigere Spiele erschienen, z. B. MS Flight Simulator 2024, Indiana Jones und der große Kreis, Alan Wake 2, Black Myth: Wukong, die das obere Limit von 210 Watt vermutlich noch mehr ausreizen.
Und wenn man bei einem Vollverstärker inklusive der angeschlossenen Lautsprecher im Peak insgesamt bei nur 25 Watt Gesamtverbrauch liegt... sorry, dann braucht man keinen Vollverstärker. Das ist mit Kanonen auf Spatzen schießen.
Weil das eine ganz andere Kombination auf Speicherinterface und damals verfügbaren Speicherchips (Kapazität pro Chip) war.
Bei GDDR beträgt die Busbreite 32 Bit, also ein Chip ist mit je 32 Bit an die GPU angebunden. Entsprechend beträgt der Wert für das Speicherinterface "zufälligerweise" immer genau einem Vielfachen von 32.
Oder andersum gesagt, gibt das Speicherinterface die mögliche Speichermenge/-bestückung vor - Speicherinterface / 32 = Anzahl Speichermodule. Ein Sonderfall ist die sog. "Clamshell" Konfiguration, bei der je zwei Speicherchips gemeinsam an einem 32 Bit Bus hängen.
Auf einer RTX 5080 mit 256 Bit Speicherinterface können dann also nur 256/32 = 8 Speicherchips verbaut werden bzw. 16 in der "Clamshell" Konfiguration. Da es bei den aktuellen GDDR-Generationen derzeit nur Chips mit 1 GB und 2 GB, sind also nur 8 GB oder 16 GB möglich (oder 32 GB mit "Clamshell"). Für 24 GB mit einem 256 Bit Speicherinterface bräuchte es Chips mit 3 GB (256/32*3 = 24), die es aber schlicht (noch) nicht gibt.
Oder man macht es wie seinerzeit bei der GTX 970, indem man man getrennte, unterschiedlich breite Speicherinterfaces nutzt. Also 8x 2 GB an einem 256 Bit Speicherinterface und dazu nochmal 4x 2 an einem eigenen 128 Bit Speicherinterface für gesamt 24 GB oder 2x 2 GB an einem zusätzlichen 64 Bit Speicherinterface für gesamt 20 GB. Das ist dann aber nichts Halbes und nichts Ganzes, wie man ja damals an der GTX 970 sehen konnte.