News GeForce RTX 3090 Ti: Angeblicher Produktionsstopp bei Partnern

naicorion schrieb:
AMD hat doch auch den noch schnellere 6900xtxh.
Ja, aber die Karten spielen keine wirkliche Rolle und sind eben auch keine anderen Chips, sondern nur extra gebinnt.
Die Effizienz bezog sich auch nicht auf NV vs. AMD sondern auf die Karten selbst. Da wird mit der Brechstange und riesigen Chips ein winziges Bisschen Leistung rausgequetscht während eigentlich Massen von "normalen" Karten in der Mittelklasse und darunter benötigt werden. Bei gleichen Chips und lediglich anderem Binning bzw. Teildeaktivierung kann man immerhin noch viel steuern, aber wenn ein GA102 vom Wafer kommt, dann wird daraus niemals mehr ein GA104 oder GA106. Und die "verlorene" Waferfläche kommt erst recht nicht zurück. Daher finde ich so komplexe und große Chips derzeit einfach unpassend. Besonders wenn durch die Anforderungen und die Komplexität die Yieldrate in den Keller gehen sollte. Wenn es schiefgeht, dann wird es mit Glück noch eine 3080, aber niemals 1,5 3060 oder 3070er, die die gleiche Fläche belegen würden.
 
Ich verstehe die allgemeine Berichterstattung nicht.
Alle tun so, als waere alles ganz normal, Produkte kommen und gehen.
Es wird ueber neue Produkte berichtet, oder Termin- od. sonstige Verschiebungen.

Die Realitaet sieht doch aber so aus:
Es muss ueberhaupt nicht Neues gebracht werden. Es existiert defacto ueberhaupt kein Konkurrenzkamp/Druck mehr.
Selbst die letzte Grafikkarte mit dem uebelsten Designer wird zu utopischen Mondpreisen aus den Haenden gerissen. Warum sollte eine Firma das ohne Not aendern od. anders ausgedrueckt "neue" Produkte und damit das Ende des Schlaraffenlandes riskieren? - Das ist doch die Frage. Und nicht, warum ein sowieso in der Gegenwart sinnfreies Produkt ggf verschoben od. gar nicht hergestellt wird.
 
Es ist wie beim fressen auch, ALLES WIRD TEURER ....
 
Neiky schrieb:
Es ist wie beim fressen auch, ALLES WIRD TEURER ....
Wird auch noch 'ne Zeit so bleiben. Meine 2080 kriegt noch gut 3-4 Jahre auf den Puckel, hab' sie auf 80% laufen, schön leise, immer noch schnell genug, und hält (hoffentlich) länger. Diese $1500+ Dinger können mich mal.
 
  • Gefällt mir
Reaktionen: Neiky
Moep89 schrieb:
Ja, aber die Karten spielen keine wirkliche Rolle und sind eben auch keine anderen Chips, sondern nur extra gebinnt.
Die Effizienz bezog sich auch nicht auf NV vs. AMD sondern auf die Karten selbst. Da wird mit der Brechstange und riesigen Chips ein winziges Bisschen Leistung rausgequetscht während eigentlich Massen von "normalen" Karten in der Mittelklasse und darunter benötigt werden. Bei gleichen Chips und lediglich anderem Binning bzw. Teildeaktivierung kann man immerhin noch viel steuern, aber wenn ein GA102 vom Wafer kommt, dann wird daraus niemals mehr ein GA104 oder GA106. Und die "verlorene" Waferfläche kommt erst recht nicht zurück. Daher finde ich so komplexe und große Chips derzeit einfach unpassend.
Ich glaub du solltest dich nochmal richtig informieren, deiner Logik nach wäre bei 3070Ti schluss.. GA102 wird für 3080 aufwärts verwendet, eine 3090Ti ist einfach der volle Ausbau.

Edit: Sorry, das ist dir ist scheinbar doch bewusst.. dann ergibt dein Post aber nicht wirklich Sinn, sonst dürfte es laut dir ja auch keine 6800, 6800XT und 6900XT geben ;)
 
Benni16it schrieb:
dann ergibt dein Post aber nicht wirklich Sinn, sonst dürfte es laut dir ja auch keine 6800, 6800XT und 6900XT geben
Gar nicht geben ist der falsche Ausdruck, weniger passt schon eher. Waferfläche ist gefragt wie nie, da sind so große Chips in meinen Augen einfach nicht mehr angemessen.
 
naicorion schrieb:
Aber wer diese Kapazität jetzt aufbaut, endet nachher im Schweinezyklus, das wäre nicht klug.

Das ist das Problem.

Natürlich ist es für das, was man z.T. als Leumund, Fame, Ruhm, Ehre, Ansehen oder einfach nur Kundenbindung bezeichnet, negativ.

Es gibt nennenswerte Stückzahlen. Diese jetzt aber für Hintz und Kuntz im Endkundensegment in großen Stückzahlen zu produzieren, ist kontraproduktiv, wenn man das Gesamtkunstwerk im Gestern, Heute und Morgen betrachtet.

Meine persönliche Meinung ist hier völlig unerheblich. Betriebswirtschaftlich betrachtet, machen und machten jedoch Nvidia und auch Intel, die letzten Jahre vieles richtig und als AMD würde ich regelmäßig Blumensträuße und Danksagungskarten verschicken.

Für ALLE, ist die Existenz von AMD wichtig und Gott sein Dank, haben das damals auch Entscheidungsträger begriffen, die eigentlich zur "Konkurrenz" gehören.

mfg

p.s.

Selbst Apple existiert nur noch, weil der Bill es damals so wollte, weil ihm erklärt wurde, was die anderen Optionen sind. Da muss man auch den "Stolz" mal runterschlucken und für die Zukunft planen.

Oder glaubt irgend jemand, Bayern München hätte damals BVB09 gerettet (oder St. Pauli und viele andere), weil der Uli so ein netter Mensch ist? Der ist knallharter Geschäftsmann und Konkurrenz, ist gut für das Geschäft.
 
Zuletzt bearbeitet:
bensen schrieb:
BIOS ist immer eine mögliche Fehlerquelle. Der Rest ist unwahrscheinlich. Ausbeute ist ja keine Unbekannte, das wissen die ja alles vorher. Das gleiche mit dem Kühler oder VRAM.

Wird der vram der 3090 fe nicht gar so heiß das der Speicher drosselt, weil er in den Bauteilschutz läuft?!

Hätte ich zb auch für unwahrscheinlich gehalten, war es dann aber nicht.
Nun kommen bis zu 100wtt mehr in Kühlung, da halte ich meine genannten Punkte nicht für unwahrscheinlich, wenn es bereits mit der 3090fe sehr heiß war.
 
@Blumentopf1989
wenn man also keine 3000 Euro in einen Gamingrechner stecken will/kann hat man deiner Meinung nach also allgemein wenig Geld und man sollte überlegen überhaupt in den Bereich Gaming zu investieren.

Die Aussage spricht für sich.

Konsolenspiele sind teuer, ja. Ich hab in den letzten 4-5 Jahren zusammen vllt. ein Dutzend Spiele gespielt. Tangiert mich persönlich daher nicht so sehr, wenn ein einzelnes Spiel teurer ist.
 
Irrlicht_01 schrieb:
@Blumentopf1989
wenn man also keine 3000 Euro in einen Gamingrechner stecken will/kann hat man deiner Meinung nach also allgemein wenig Geld und man sollte überlegen überhaupt in den Bereich Gaming zu investieren.

Die Aussage spricht für sich.

Konsolenspiele sind teuer, ja. Ich hab in den letzten 4-5 Jahren zusammen vllt. ein Dutzend Spiele gespielt. Tangiert mich persönlich daher nicht so sehr, wenn ein einzelnes Spiel teurer ist.
Du missverstehst da etwas massiv, das bezog sich nicht auf die 3000€ für eine mögliche 3090ti.
Allgemein ist Gaming doch nicht notwendig, heißt wenn ich eh kein Geld habe und mir ne Konsole gerade so leisten kann oder gar auf Raten kaufe (machen leider viel zu viele) dann sollte ich es lieber gleich sein lassen.
Die Konsolen Spieler die ich kenne suchten i.d.R. ziemlich viel und holen sich im Jahr 15-20 Spiele, kenne ich von PC Spielern nicht so und wenn sind die Spiele günstiger.
 
Blumentopf1989 schrieb:
... 3000€ für eine mögliche 3090ti.

Das wird aller Voraussicht/Geruechten nach nicht reichen, mehr als 3500 Euro bis ca. 4500 Euro sollten es dann aber schon sein fuer eine RTX 3090Ti.

Ob das nun auch die Fertigungs-/Treiber-/"was auch immer"-Problematik mit einpreist, ist natuerlich nicht bekannt ;).

Nur zur Erinnerung, das ist eine GeForce (damit Gaming-Serie) Grafikkarte von nVidia, keine Titan-Karte, der man das GeForce Label ja nach der Maxwell-Generation quasi "aberkannt" hat.

Natuerlich wissen wir alle, dass Gaming keine Rolle mehr (fuer nVidia, deren Boardpartner und angeschlossene Haendler) spielt, sondern nur Profitmaximierung. Das sieht man ja auch ganz gut an den angesetzten RTX 3050 Preisen.

Was ist besser (zum kryptominen) 10x RTX 3050 oder 1x RTX 3090Ti :lol:?
 
Nunja ich zahle lieber 800 Euro im Monat für mein Auto als 90.000 sofort auf den Tisch zu legen. Deshalb bin ich jetzt also Arm und sollte gar keines fahren?

Ratenkauf ist total in ordnung soalnge man den überblick behält. Ich verstehe das man da schnell in eine Spirale verfällt aber da muss man halt einfach die Zahlen im Kopf behalten.
 
Chismon schrieb:
Was ist besser (zum kryptominen) 10x RTX 3050 oder 1x RTX 3090Ti :lol:?
Naja und alle gehen mit, weil es sich halt lohnt. Als ob Nvidia da nicht selbst beim Mining mitmischen würde und zwar direkt beim schürfen. Warum sollten ansonsten jetzt schon "angebliche 4090" entdeckt worden sein?
 
  • Gefällt mir
Reaktionen: Laphonso und Benji21
Moep89 schrieb:
Gar nicht geben ist der falsche Ausdruck, weniger passt schon eher. Waferfläche ist gefragt wie nie, da sind so große Chips in meinen Augen einfach nicht mehr angemessen.
Deshalb wird es ja vermutlich auch bald MCM Designs bei AMD geben.
 
Coca_Cola schrieb:
Gut es gibt schlimmeres auf der Welt als irgend ne belanglose Grafikkarte die nicht produziert wird.
Allgemein wird sich die Situation die nächste Zeit eh nicht entspannen, gewöhnen wir uns dran.
Kann man so sehen aber:
1. ist das hier ein Hardware/Softwareforum - von daher wenn darüber diskutiert wird, ist hier schon mal der richtige Platz
2. "Gewöhnen wir uns dran" - daran hab ich gerade gedacht, als ich "utopische Preise für Grafikkarten" im Wochenrückblick las - nee, wer sich daran gewöhnt ist ziemlich dumm, ehrlich gesagt ... kauft nicht für den Preis, dann etablieren sich Preise die in besonderen Zeiten einschlichen, nicht.

Preissteigerungen in bestimmten Zeiten der Knappheit sind normal - ja, aber sich daran gewöhnen und das über Dauer mit zu machen ist der Anfang von einer konstanten Preissteigerung und setzt die falschen Signale.
 
Die neue Ti soll um 3500€ kosten.
 
Laphonso schrieb:
Eine 3090Ti wird ab Release von Ampere 2 mit der 4090 dann als last gen für entspannte ~ 2000 Euro erhältlich sein.
Mann muss nur warten.

/s
Quatsch.
Dann kostet die 4090 halt 6000€ (founders edition zum launch natürlich für 2000€) und deine gebrauchte 3090Ti steigt auf 4000€ ...
 
Herrje. Diese utopische Preisschlacht ist echt ein Witz geworden... Ich mach hier drei Kreuze mit meiner 6900XT Red Devil Ultimate, die ich tatsächlich für 900 flat bekommen habe. Privatkauf von einem Bekannten, der sich zwei geholt hat, es sich anders überlegt hat und eine verbaut haben wollte und mir die andere unter Einkaufspreis verkauft hat - dafür hab ich ihm den rechner mit wakü und allem zusammen gebaut. Die karte bleibt für die nächsten 4 Jahre drin, auch wenn sie bis dahin schon seeeeehr knapp sein wird. Schon jetzt sind ja durchaus Spiele da, die eine 6900XTU oder eine 3090 in 4K ultra unter 60fps bringen können. Hust. Cyberpunk. God of War und division 2 sind ähnlich Leistungshungrig.
 
Trochaion schrieb:
Herrje. Diese utopische Preisschlacht ist echt ein Witz geworden... Ich mach hier drei Kreuze mit meiner 6900XT Red Devil Ultimate, die ich tatsächlich für 900 flat bekommen habe. Privatkauf von einem Bekannten, der sich zwei geholt hat, es sich anders überlegt hat und eine verbaut haben wollte und mir die andere unter Einkaufspreis verkauft hat - dafür hab ich ihm den rechner mit wakü und allem zusammen gebaut. Die karte bleibt für die nächsten 4 Jahre drin, auch wenn sie bis dahin schon seeeeehr knapp sein wird. Schon jetzt sind ja durchaus Spiele da, die eine 6900XTU oder eine 3090 in 4K ultra unter 60fps bringen können. Hust. Cyberpunk. God of War und division 2 sind ähnlich Leistungshungrig.
WOW!
Eine RED DEVIL und dann auch noch ULTIMATE! Der Wahnsinn!!
Wirklich, wirklich toll! Ehrlich!
Ich beneide Dich!

Ich bin noch in diversen anderen Foren unterwegs. In einem davon gibt's eine Rubrik "Klönschnack".
Gäb's die hier, könnte man Deinen Beitrag dorthin verschieben
 
Zuletzt bearbeitet:
Zurück
Oben