News GeForce RTX 5000: Acer nennt RTX 5090 32 GB & 5080 16 GB, Otto.de erste Preise

theGucky schrieb:
und 350-600€ (10-20%) Pre-Build Steuer :D
Halte ich in deinem Beispiel für recht fair! Da muss alles von Support und Gewährleistung über Transportschäden bis unerkannt unberechtigten Reklamationen von abgewickelt werden.

Wenn du dir mal überlegst, was du dafür an Kosten kalkulieren müsstest um das selbst gewerblich zu können, dürfte da eine größere Zahl bei rauskommen.

Wer selbst baut spart sich das und tauscht dafür eigene Zeit und finanzielles Risiko gegen geringere Kosten. Wenn man selbst technisch kompetent ist und mit dem Risiko, Hardwareschäden im Zweifel selbst tragen zu müssen leben kann, kann man sich das getrost sparen. Alle anderen bekommen mit 15% Aufpreis ein nicht soo schlechtes Angebot bei dem viele Dinge einfach jemand anders Problem sind.
 
  • Gefällt mir
Reaktionen: shaboo
Looniversity schrieb:
Halte ich in deinem Beispiel für recht fair! Da muss alles von Support und Gewährleistung über Transportschäden bis unerkannt unberechtigten Reklamationen von abgewickelt werden.

Wenn du dir mal überlegst, was du dafür an Kosten kalkulieren müsstest um das selbst gewerblich zu können, dürfte da eine größere Zahl bei rauskommen.
Das Problem ist nur, das Otto nicht selber baut. Die kaufen nur ein Fertigprodukt von Acer und verkaufen es weiter. Es ist, als würde man einen Toaster beim Hersteller/Großhändler kaufen und an Kunden weiterverkaufen.

Transport ist versichert, speziellen IT-Support gibt es vermutlich von Otto nicht oder ist ge-outsourced. Oder man geht nach Schema F und ein allgemeiner Support geht ne Liste durch.
Wenn was bei Gewährleistung anfällt, gehts zurück an Acer und die kümmern sich drum, weil auch Händler haben eine Garantie bei Herstellern...

Reklamationen...nun da kommt es auf das Produkt an. Oftmals ist es im Preis bei Verbrauchsgütern inbegriffen. Bei PCs werden die sicherlich wieder flott gemacht und als Outlet etwas günstiger, aber noch überm Einkaufspreis verkauft.
Wer weiß, vielleicht geht es zu Acer zurück und wird gegen eine Gebühr neu und original verpackt, das weiß ich allerdings nicht.

Was ich mich nur Frage, wieviele 6000€ PCs verkaufen die im Monat?
 
theGucky schrieb:
Das Problem ist nur, das Otto nicht selber baut.

Und wo ist da das Problem? Machst du doch bei Media Markt, Amazon und Co. auch nicht anders...

Oder kaufst Du sonst nur direkt beim Hersteller? Support geht halt über den Hersteller.
 
  • Gefällt mir
Reaktionen: Looniversity
Mensch_lein schrieb:
Du hast zwar etwas wahres angesprochen, hat aber gerade mit dem von mir geäusserten nichts zu tun.
Na klar hat das damit was zu tun. Du sprichst indirekt Nvidia ab ihre guten Margen aufzugeben und die Karten günstiger anzubieten, ohne zu reflektieren was das dann für die restlichen Anbieter bedeutet. Intels ARC 770 war ein 400mm2 Chip, langsamer als ne 4060 mit 160mm2. AMD steht auch durchgehend schlechter da. Intel zahlt Lehrgeld, AMD muss mit großen Chips gegen wesentlich kleinere Nvidia Chips ran und bietet deshalb mit RDNA4 aus Kostengründen nen Mittelklasse Chip an.

Der Kunde hat langfristig nichts von Dumpingpreise, aber wenn du glaubst Nvidia könnte solche Chips für 400 Euro anbieten, kann man dir das wohl nicht ausreden.
Mensch_lein schrieb:
. Denn es ist klar, dass AMD in derselben Situation genauso handeln würde, bestreitet glaube ich auch keiner.
Und es ist auch klar, dass Nvidia so handeln würde wie AMD, nämlich auch mit unterlegenen Produkten noch Geld verdienen zu wollen, zumindest auf lange Sicht.
Mensch_lein schrieb:
Ich sagte vor einigen Seiten etwas dazu, warum die Preise auch bei den AMD Karten so hoch sind.
Die Preise sind prinzipiell nicht hoch. Das ist der Knackpunkt. Kann man sich ganz einfach herleiten, indem man schaut was ein solcher Chip kostet.
Mensch_lein schrieb:
Dann gäbe es zumindestens Konkurrenz und nach einer Langen Zeit vielleicht auch ein Sinken der Preise.
Mehr Konkurrenz lässt die Preise schon etwas sinken, aber um das Niveau zu erreichen was du anstrebst, müsste die Hardware verschenkt werden + Gutschein.
Mensch_lein schrieb:
Die Sache mit der Butter, ist nochmals ein ganz anderes Blatt, dass absolut nichts mit dem Thema hier zu tun hat, nichtmal im Ansatz.
Doch ist 1:1 dasselbe. Produkte können nicht unter Herstellkosten und ohne Gewinnabsicht produziert werden.
Und genauso wie es keine Butter unter 2,79 Euro mehr geben wird, kommen auch keine High End GPUs im 500 Euro Bereich. Weder von AMD noch von Intel, noch von Nvidia.
Mensch_lein schrieb:
Das ist eine Hahnebüchene Aussage von dir.
Du sprichst doch von Abzocke und ich sage, es ist keine. Nvidia profitiert von deren technologischem Vorsprung monetär, ja das stimmt. Andere Anbieter tun es nicht, oder zahlen sogar drauf.
Mensch_lein schrieb:
Vorallem in einem Technikforum, ausser die Butter wäre die neue Wärmeleitpaste.
Ja natürlich den Vergleich mit jedem beliebigen Produkt ziehen.
Mensch_lein schrieb:
Das Beispiel mit der CPU.. ähm gehts noch ein wenig weiter weg vom Thema?
Die Butter war wohl näher dran, nehm ich an?^^
Mensch_lein schrieb:
Aber gut, eine CPU mit einer Graka zu vergleichen ist ziemlich doof.
Kannst ja nur die Chipkosten vom Wafer vergleichen und steht ein 9950X vielleicht bei 60 Dollar 2*80mm2 + günstiges I/O die, während eine 5090 bei 400 bis 500 Dollar steht, womit das die 10x größer ist als ein Chiplet und damit nur ~ 45 Chips aus einem 4nm 25000 Dollar Wafer kommen.
Ergänzung ()

time-machine schrieb:
RTX 5090 Msrp 1699$-1799$

Wäre meine Einschätzung.
Eine von beiden Zahlen ist nah dran.
 
Zuletzt bearbeitet:
Discovery_1 schrieb:
RTX 5080 mit nur 16GB RAM. Für eine Grafikkarte, die sicherlich so um die 1.000€ kosten wird, würde ich deutlich mehr RAM erwarten.
geht doch technisch einfach nicht... denk doch eine sekunde nach. solange keine 3GB module da sind kann man das nicht ändern. 32GB wäre komplett übertrieben
 
Laphonso schrieb:
Ist nicht komisch.
Die 4090er hat den geringsten Wertverlust.

Das High End ist natürlich Next Level. Aber selbst eine RTX 3060 wird heute noch nah an ihrer einstigen UVP verkauft (neu) -- wobei der Markt ja damals kaputt war. Die Gebrauchtpreise am Einstiegsmarkt generell werden mit davon beeinflusst, dass es unter 200 Euro schon viele Jahre nichts Brauchbares mehr gibt. Zuletzt vermutlich die letzten GTX (Turing). Entsprechend bekommt man selbst da noch was raus. Selbst GTX 1060 werden noch nachgefragt -- und bezahlt. Dabei sind die längst veraltet.

Später wird man im Rückblick sagen: Es war nicht alles schlecht. Ist es tatsächlich nicht -- es sei denn, die Grafikkarte raucht ab und hat damit spontanen Vollwertverlust. :D Also immer schön pflegen, bestes Invest.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Th31X schrieb:
Was mich mittlerweile mehr nervt als das Nvidia mit vram knausert ist einfach dass die Konkurrenz es nicht schafft das CUDA Monopol zu brechen. Wo wir doch OpenCL am Start haben und mit AMD's eigener Kreation.
Da ist das Problem schlicht ähnlich wie bei Spielen - die Softwarehersteller haben sich auf die Technologien von Nvidia eingeschossen. Man findet deutlich mehr Software mit CUDA als mit OpenCL oder ROCm und deshalb wird in dem Segment Nvidia gekauft, was wiederum den Stand von CUDA festigt.
 
PrefoX schrieb:
geht doch technisch einfach nicht... denk doch eine sekunde nach. solange keine 3GB module da sind kann man das nicht ändern. 32GB wäre komplett übertrieben

Gugg dir eine GTX 260 an und dann denk du man eine Sekunde nach, gern auch den Vorläufer 8800 GTS / GTX, warum ging das damals schon?
 
Zuletzt bearbeitet:
darkcrawler schrieb:
Die GTX 260 hatte Speicherinterface für 14 Speicherchips. Die Variante war möglich da die 896MB Variante je 64MB Chips und die 1792MB Variante je 128MB Chips verbaut hatte.

Das ist genau das was Prefox sagt, es gibt für Mitte 2025 die Erwartung des Release von 3GB Chips. Ab dann ist das gleiche Prinzip für die 5080 Möglich. Die 5080 hat 256 Bit für 8 Speicherkanäle, die Release Version verwendet 8 mal 2GB Chips. Eine mögliche „Super“ Karte (Ende 2025, Anfang 2026) hätte aber die Option dann 8 mal 3GB also 24 GB zu verbauen.

Was natürlich zum Release schon möglich wäre ist ein stärkeres Speicherinterface das mehr Chips ansteuern kann. Dann wäre je nach Speicherinterface 2GB Schritte möglich. Aber Speicherinterface ist relativ teuer in den Produktkosten. Dürfte bestimmt bei 50 EUR pro 32 Bit (also pro Chip bzw. pro 2GB) liegen.

Ist jetzt auch ein bisschen Strategiefrage, meinem Geschmack nach wäre ein 320 Bit Speicherinterface was zu 20GB VRAM führen kann sowohl den Produktkosten als auch Marktbedarf zumutbar. Würde die GPU halt um ca. 100EUR im Preis anheben aber für signifikant Mehrwert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo und Looniversity
Cohen schrieb:
Sicher? Die Xbox Series X braucht im Durchschnitt (Mix aus mehr und weniger leistungshungrigen Spielen) ca. 150 - 160 Watt, bei leistungshungrigen Spielen (Peak) allerdings 200 - 210 Watt.

Die meisten AAA-Spiele nutzen HDR. Da würde es mich wundern, wenn dein OLED 65'' im HDR-Modus (Peak) nur 100 Watt braucht. Ein LG OLED 65'' C3 wird z. B. mit 175 Watt HDR-Leistungsaufnahme beworben.

Dein Denon Atmos AVR wird vermutlich auch im Peak mehr als 50 Watt ziehen, wenn er die Boxen befeuert. Eventuell zieht auch noch ein fetter Subwoofer zusätzlichen Strom.
Ich lass die ganze Leiste über den Actor laufen und Lese ab was durch läuft. 298 Watt. Werde heut abend ein Bild machen.

Von dem her ob da weit hinten jetzt die Kante geklättet ist oder nicht, das ist so Marginal.

Ich finde es aber total gut von den Leuten, die Stromkonzerne zu unterstützt und die Unternehmen die sich sowas ausgedacht haben und es dann in eurem Hirn reingepflanzt hat.

Mit diesem Gedanken wird jetzt gespielt und euch das Geld aus der Tasche gezogen.

Das die Ownage funktioniert hat, sieht man wie arg die Leute argumentieren. Verlassen auch ihren "gesunden Menschenverstand" um irgendwas zu rechtfertigen.

Denon im Eco 25Watt.

Sorry, nichts stimmt was du schreibst. :freak:
 
PrefoX schrieb:
geht doch technisch einfach nicht... denk doch eine sekunde nach. solange keine 3GB module da sind kann man das nicht ändern. 32GB wäre komplett übertrieben
Auf welche Limitierung beziehst du dich da genau, weshalb Ausbau zwischen 16 und 32 nicht möglich sein soll?
 
Ich hab zum Glück noch eine 4090 und werde mir schwer überlegen, ob ein Upgrade schon sein muss, oder ob die 4090 ihre Sache noch 2 Jahre gut macht. Ich mag Nvidia und bin froh, dass ich meine Nvidia Aktien seit 5 Jahren brav gehalten habe.

Aber bei den Preisen aktuell steige ich echt aus. Mal sehen, wie schlimm es später wirklich noch wird.
 
Na da darf man gespannt sein ob der Otto Preis nur Platzhalter oder echt ist.
3500€ für das System mit der 5080 sind definitiv ne Ansage.
 
Ach so teuer kann sie doch garnicht sein wenn ich bedenke wieviele sich eine rtx 4090 gekauft haben, das war also noch zu billig gewesen wie es scheint.
 
Quidproquo77 schrieb:
Der Kunde hat langfristig nichts von Dumpingpreise, aber wenn du glaubst Nvidia könnte solche Chips für 400 Euro anbieten, kann man dir das wohl nicht ausreden.
Habe ich das irgendwo geschrieben? Wäre mir neu.
Quidproquo77 schrieb:
Die Preise sind prinzipiell nicht hoch. Das ist der Knackpunkt. Kann man sich ganz einfach herleiten, indem man schaut was ein solcher Chip kostet.
Ah und wo kann man nachschlagen, was so ein Chip für einen Grossabnehmer wie Nvidia kostet? Erleuchte mich und nenn mir Zahlen. Am liebsten die gesamten Herstellungskosten für eine 5090.
Quidproquo77 schrieb:
Du sprichst doch von Abzocke und ich sage, es ist keine. Nvidia profitiert von deren technologischem Vorsprung monetär, ja das stimmt. Andere Anbieter tun es nicht, oder zahlen sogar drauf.
Wie gesagt, bring mir die Herstellungskosten und wir reden weiter. Du tust ja so, als wüsstest du die real entstehenden Kosten ganz genau.
 
  • Gefällt mir
Reaktionen: muvmend und Miuwa

€1,200​


Das ist das selbe System, einziger unterschied die GPU

Es ist leichter den Preis der 5080 zu schätzen 1000-1400

somit wäre man bei der 5090

2200€ minimum bis zum median 2600€ strix und co wahrscheinlich 2800€+
 

Anhänge

  • rtx_5090_gpu.jpg
    rtx_5090_gpu.jpg
    69,9 KB · Aufrufe: 17
  • RTX-5080-PC-ORION-1.jpg
    RTX-5080-PC-ORION-1.jpg
    130,1 KB · Aufrufe: 16
Zuletzt bearbeitet:
Mensch_lein schrieb:
.

Wie gesagt, bring mir die Herstellungskosten und wir reden weiter. Du tust ja so, als wüsstest du die real entstehenden Kosten ganz genau.
Bin nicht direkt angesprochen:

Intel B580 kostet ohne Steuer 250€ und dürfe für Intel auch die Kosten (inkl. Wasserköpfe) decken.
Allerdings mit viel höheren Aufwand.

Hardware technisch für die Produktion ist es eine 4070/S.

Was auch gegen die 20k Pro Wafer (Einzelabnahme) spricht ist Apple mit zB dem MacBook Pro oder iPhone.
Da auch Apple eine sehr gute Marge hat, sehr teuren Software Support für ein ganzes Betriebssystem bietet, Werbung schaltet usw.

Die Zahlen von TSMC/Nvidia Wafer usw sind nicht vergleichbar, sonst könnten die Preise aus den Umsätzen extrahiert werden.
Der eine zahlt pro Wafer, der andere pro Chip.
 
hennich schrieb:
Ich lass die ganze Leiste über den Actor laufen und Lese ab was durch läuft. 298 Watt. Werde heut abend ein Bild machen.

Denon im Eco 25Watt.

Sorry, nichts stimmt was du schreibst. :freak:

Sorry, bei Peak-Belastung (so wie du geschrieben hast), kann das nicht stimmen.

Welchen OLED-Fernseher hast du denn? Da gibt es ja eindeutige Herstellerangaben, die bestimmt nicht schlechter dargestellt werden als die tatsächliche Leistungsaufnahme. Hier ein paar Beispiele von populären Modellen:

lg c1 c2.jpg

Bereits bei Launch-Spielen wie Gears 5 hat die Xbox Series X bis zu 180 Watt geschluckt:
https://www.chip.de/test/Xbox-Series-X-im-Test_183093751.html

Und seitdem sind noch deutlich leistungshungrigere Spiele erschienen, z. B. MS Flight Simulator 2024, Indiana Jones und der große Kreis, Alan Wake 2, Black Myth: Wukong, die das obere Limit von 210 Watt vermutlich noch mehr ausreizen.

Und wenn man bei einem Vollverstärker inklusive der angeschlossenen Lautsprecher im Peak insgesamt bei nur 25 Watt Gesamtverbrauch liegt... sorry, dann braucht man keinen Vollverstärker. Das ist mit Kanonen auf Spatzen schießen.
 
darkcrawler schrieb:
warum ging das damals schon?
Weil das eine ganz andere Kombination auf Speicherinterface und damals verfügbaren Speicherchips (Kapazität pro Chip) war.

Bei GDDR beträgt die Busbreite 32 Bit, also ein Chip ist mit je 32 Bit an die GPU angebunden. Entsprechend beträgt der Wert für das Speicherinterface "zufälligerweise" immer genau einem Vielfachen von 32.

Oder andersum gesagt, gibt das Speicherinterface die mögliche Speichermenge/-bestückung vor - Speicherinterface / 32 = Anzahl Speichermodule. Ein Sonderfall ist die sog. "Clamshell" Konfiguration, bei der je zwei Speicherchips gemeinsam an einem 32 Bit Bus hängen.

Auf einer RTX 5080 mit 256 Bit Speicherinterface können dann also nur 256/32 = 8 Speicherchips verbaut werden bzw. 16 in der "Clamshell" Konfiguration. Da es bei den aktuellen GDDR-Generationen derzeit nur Chips mit 1 GB und 2 GB, sind also nur 8 GB oder 16 GB möglich (oder 32 GB mit "Clamshell"). Für 24 GB mit einem 256 Bit Speicherinterface bräuchte es Chips mit 3 GB (256/32*3 = 24), die es aber schlicht (noch) nicht gibt.

Oder man macht es wie seinerzeit bei der GTX 970, indem man man getrennte, unterschiedlich breite Speicherinterfaces nutzt. Also 8x 2 GB an einem 256 Bit Speicherinterface und dazu nochmal 4x 2 an einem eigenen 128 Bit Speicherinterface für gesamt 24 GB oder 2x 2 GB an einem zusätzlichen 64 Bit Speicherinterface für gesamt 20 GB. Das ist dann aber nichts Halbes und nichts Ganzes, wie man ja damals an der GTX 970 sehen konnte.
 
Zurück
Oben