News Nvidia GeForce RTX 3080 Q&A: Der „beste GPU-Verkaufsstart aller Zeiten“ war frustrierend

jray schrieb:
Ja ist so. Hab vorausschauender Weise schon ein 1000 Watt Power Supply in meinem neuen PC verbaut. Das Zeugs frisst immer mehr Strom.
Sir Luckal0t schrieb:
Weshalb das? Ist doch alles der gleiche Chip. Ich denke nicht, dass für eine Generation zwei verschiedene Chips (3090/3080 und 3070/3060) gefertigt werden.
Alles unterhalb von 3090 sind eben teildeaktivierte Chips. Und bei hoher Chipgüte muss man eben auch Chips deaktivieren, die voll in Ordnung sind und also 3090/3080 verkauft werden könnten, um minderwertigere Chips ausliefern zu können - das macht man aber natürlich nur sehr ungern und erst recht nicht, solange die Nachfrage nach hochwertigen chips noch nicht gedeckt ist.

Daher meine Annahme, dass es bei hoher Chipgüte noch etwas dauern wird, bis die 3070 wirklich in ausreichenden Stückzahlen auf den Markt kommt.
Unsinn, das sind unterschiedliche Die's, anders wäre es betriebswirtschaftlicher Blödsinn. Waferfläche(gerade in aktueller Technologie) ist exorbitant teuer und die Die Size ist sehr groß bei GPU
 
Sir Luckal0t schrieb:
Alles unterhalb von 3090 sind eben teildeaktivierte Chips.
3080 und 3090 nutzen den GA102, der 628mm² groß ist.
Die 3070 nutzt den GA104, das ist bereits an anderer Chip, der 392mm² misst.
Weiter unten wird es dann auch noch den GA106 mit 300mm² geben, den bekommt wohl die 3060.
 
  • Gefällt mir
Reaktionen: Laphonso, Ashnacl und konkretor
Bright0001 schrieb:
Ich warte schon mehr als ein halbes Jahr, um die 4K@120Hz von meinem C9 nutzen zu können -

Aber z.B 4K@120Hz und VRR soll derzeit doch garnicht laufen bei LG. Ohne VRR ist das wohl etwas hakelig.
 
SavageSkull schrieb:
so groß ist bei mir die Not für ein Luxus Produkt nie, dass ich dann das Modell kaufe was ich nicht will.

Naja, zwischen lieber gehabt und nicht wollen liegen ja nun auch Welten. Mir hätte die FE optisch besser gefallen. Aber das ist ja nu kein Grund die andere nicht zu wollen. Trotzdem hätte ich die FE eben etwas lieber gehabt. Also alle gut und nix mit großer Not. :D

Am wichtigsten war mir der Preis. Eben weil dich die CD ja nu eh nicht wirklich unterscheiden. Ich warte also nun einfach auf meine Karte von Amazon für 699 Euro. Das passt für mich. :daumen:
 
Warum haben die den Preis nicht einfach höher angesetzt? So hat Nvidia es sich selbst schwer gemacht. Weniger Gewinn, haufenweise unzufriedene Kunden. Ist ja nicht so, dass die nicht absehen konnten, wie die Karte in den Tests abschneiden wird. Die, die die Idee hatten, dass das ein sinnvoller Preis wäre, sollten sofort rausgeworfen werden.
 
MeisterOek schrieb:
Aber z.B 4K@120Hz und VRR soll derzeit doch garnicht laufen bei LG. Ohne VRR ist das wohl etwas hakelig.
Einerseits hat die Kiste auch G-Sync an Board, andererseits hab ich lieber 120Hz ohne VRR als 60Hz ohne VRR. :p
Außerdem ist selbst der Windowsbetrieb schon sehr angenehm mit +100Hz.
 
snickii schrieb:
Eben waren die die für 899€ drin waren für 820€ drin. Direkt weg. Haha.
Wurden welche schön abgezockt
wieso abgezockt? wer die ganze zeit auf MF hängt und F5 drückt hat wohl mehr geld verloren, durch das seit ner Woche auf F5 drücken statt die 200€ aufpreis.

desweiteren haben die es ja sicherlich bei vollem Bewusstsein gekauft
 
J3rs3y schrieb:
...Was ist, wenn die Verknappung von RTX 3080 künstlich herbeigeführt wurde und nun die RTX 3090 mit wesentlich höherer Stückzahl verfügbar sein wird, einfach damit viele Interessenten die bei der 3080 leer ausgegangen sind zum teureren Modell greifen, welches vermutlich einen höheren Profit (Umsatz sowieso) verspricht...

jk1895 schrieb:
Wer bitte soll so blöd sein, nur weil er schmollt wie ein kleines Kind da er sein favorisiertes Spielzeug nicht bekommen hat, 800€ mehr auszugeben? Denke nicht, dass es solche Leute gibt.
Darum halte ich deine Gedankengänge für arg abwegig. 😄

Na ich denke das hat weder was mit blöd, noch mit schmollen zu tuen, eher mit schönrechnen.

Mal meine Schönrechnung als Wakü user:
3080 für 850-900€ (3x 8 Pin Anschluss)
Wakü Block 150€
=ca 1000€ Kosten
Verkauf ein Jahr später (wegen der 20GB Version) ~750€ Erlös inkl. Waküblock
Die 3080ti / Super für min 1000€? ich denke eher noch mehr (ich rede nicht vom theoretischem Preis)
Waküblock? 150€

Dann hätte ich grob überschlagen
-875
-150
+750
-1000
-150
=1350-1450€ ausgegeben, insgesamt.

Na da gebe ich doch lieber direkt jetzt 1650€ aus, habe komplett Ruhe bezüglich etwaigen Vram bla und kann das Thema GPU für mindestens 2 Jahre an den Nagel hängen.

Also weder schmollen noch blöd, eher schönrechnen;)
 
  • Gefällt mir
Reaktionen: Laphonso und Ashnacl
Warhorstl schrieb:
Warum haben die den Preis nicht einfach höher angesetzt?
Weil Nvidia beim Preis auch die Konkurrenz beachten muss und die Abschätzungen ergeben haben das bei 700€ Preis ( über die gesamte Produktionsdauer) der Gewinn größer ist als wenn man mit 1000€ in den Markt geht.
 
@me@home

Ich werde eine bei Caseking, sowie eine weitere bei Alternate oder Cyberport bestellen.
Und zwar nur Modelle, die ein Tauschen des Kühlers in der Garantie mit abdeckt.
Und bei der 3090 reicht mir das einfachste Model, während ich bei der 3080 schon die 3x 8Pin möchte.

Mein offenen 3080er Bestellungen werde ich aber nicht stornieren.
 
  • Gefällt mir
Reaktionen: me@home und .Sentinel.
HeidBen schrieb:
Nvidia hat überhaupt nichts davon alle Chips an CD's abzugeben, weil Sie dadurch sogar weniger Marge machen, wie eigene Karten zu vertreiben.

Wie ist denn die Marge von den FEs und wie viel kostet den Custom-Herstellern ein Chip?
 
  • Gefällt mir
Reaktionen: .Sentinel.
Warhorstl schrieb:
Die, die die Idee hatten, dass das ein sinnvoller Preis wäre, sollten sofort rausgeworfen werden.

Wieso? Für NVIDIA wird das ein Sinnvoller Preis sein weil sie damit noch einen sehr guten Schnitt machen werden. Oder weist Du was so eine Karte in der Produktion und Entwicklung kostet, oder weist Du sogar schon was die Big Navi Karten kosten und leisten werden?
Ich finde 700-800€ sind immer noch ein strammer Preis für eine PC Komponente.
Die die jetzt zuschlagen haben (vermutlich) Turing ausgesessen weil NVIDA mit den Karten einen zu großen Schluck aus der Pulle genommen hat.
Bei Turing habe ich mich abgezockt gefühlt, bei Ampere geht´s wieder.
 
  • Gefällt mir
Reaktionen: OR4LIFE
WolledasKnäul schrieb:
Wie ist denn die Marge von den FEs und wie viel kostet den Custom-Herstellern ein Chip?
Den Preis kenne ich nicht, aber das dabei weniger rausspringt wie selber zu machen sollte eigentlich klar sein. Heißt ja nicht umsonst Mengenrabatt
 
WolledasKnäul schrieb:
Also nur eine leere Behauptung deinerseits.
Brauchst du echt irgendwelche Belege dafür, dass ein Produkt selbst zu verkaufen mehr für einen abwirft, als es über Drittanbieter zu verkaufen?
 
NikoNet schrieb:
Geht man davon aus, dass die meisten eine vorhandene Karte mit bereits 180 Watt (GTX1070) ersetzen wollen, bleiben noch ca. 160 Watt mehr benötigte Leistung über.
Dies enspricht 1,6 Giga Watt mehr im Jahr an benötigter Leistung. Das wiederum enspricht einer Leistung eines modernen Kernkraftwerks!
In meinen Augen entbehrt das jeder Moral.
Also steigt der Leistungsbedarf um 0,02% der weltweit installierten Kraftwerksleistung. Der Verband der Fliesentischbesitzer ist empört! Runtergebrochen auf 2000kWh Jahresbedarf eines Haushalts in Deutschland sinds also 0,4kWh mehr. Irre unmoralisch!
 
  • Gefällt mir
Reaktionen: |Maulwurf| und OR4LIFE
Sir Luckal0t schrieb:
Weshalb das? Ist doch alles der gleiche Chip. Ich denke nicht, dass für eine Generation zwei verschiedene Chips (3090/3080 und 3070/3060) gefertigt werden.


Doch, dass ist auch das normalste der Welt. Pro Generation fertigt Nvidia auch gerne mal noch deutlich mehr Chips und Chipvarianten. Bei genug Absatz lohnt sich das auch deutlich mehr.

Sir Luckal0t schrieb:
Alles unterhalb von 3090 sind eben teildeaktivierte Chips

Nein. Die 3090 ist selbst teildeaktiviert. Hier sind nur 82 von physisch 84 SMs aktiv. Den Vollausbau wid man dann später als Quadro und evtl. als Titan sehen.
 
  • Gefällt mir
Reaktionen: tidus1979 und Sir Luckal0t
Taxxor schrieb:
Machst du das mit der 3080, wie Nvidia es auch in der Präsentation getan hat und gesagt hat wir nehmen uns Control in 4K und setzen die FPS auf 60 fest, wird rauskommen, dass sie 150W verbraucht, wo die 2080Ti 270W verbraucht.
ja aber das wird halt kaum jemand tun. Glaubst doch selber nicht, dass Enthusiasten, die 800€ für ne grafikkarte ausgeben, diese künstlich ausbremsen bzw ihr ein Limit setzen. Die meisten gehen eher hin und drehen das power target höher, damit sie das letzte bisschen Leistung rausquetschen können.

Was den Vergleich mit dem CO2 Ausstoß der Autos angeht gut, da hab ich mich nicht gut genug informiert. Aber zeigt eher einmal mehr, dass auch diese Angabe unsinnig ist, da die Art der Messung den Autos schmeicheln muss. Bei idealen bedingungen bei gleicher Geschwindigkeit mitschwimmen kommt bei Autos genauso wenig vor wie bei Grafikkarten. Die laufen in der regel entweder im idle oder auf vollgas.. Zumindest ne 3080 oder jede andere highend Karte. Jemand der nur wenig spielt wird sich wohl eher keine dieser Karten kaufen.
 
Zuletzt bearbeitet von einem Moderator:
@floh667 Und wie sieht es da mit den Käufern eines RS6 o.ä. aus?
Wie viele kaufen sich so einen und fahren dann mit 11,5l/100km?

Du kannst kein sinvolles Rating für diese Produkte machen, wenn du sie nicht unter den gleichen Bedingungen testest.

Und man liest hier schon von vielen, die das Power Limit auf 300 oder 270W reduzieren wollen oder diejenigen die bereits eine Karte haben es schon reduziert haben.
 
  • Gefällt mir
Reaktionen: Cohen und GERmaximus
Zurück
Oben