News Nvidia GeForce RTX 3080 Q&A: Der „beste GPU-Verkaufsstart aller Zeiten“ war frustrierend

Taxxor schrieb:
100% Preisaufschlag für effektiv 10% mehr Leistung.

Es sprechen immer alle von 10% mehr Leistung, die Karte hat auch mehr Speicher. Der soll ja auch nicht so billig sein. Das rechtfertig mit Sicherheit nicht den hohen Preis aber man sollte sich nicht an den 10% aufhängen.
 
Herdware schrieb:
Bis vor zwei Jahren war man mit beiden Arten von Monitoren mit VRR-Option auf nur einen GPU-Hersteller eingeschränkt. Entweder Nvidia oder AMD. Beides gleichzeitig ging nicht.

Ich gehörte auch zu denen, die nicht in die Zukunft schauen können und sich mit Blick auf die damalige Situation einen reinen G-Sync-Monitor gekauft haben.

Nachher ist man natürlich immer schlauer. Wobei es selbst dann, wenn man "G-Sync compatible" irgendwie vorrausgeahnt hätte, immer noch ein reines Glücksspiel geblieben wäre, ob der Adaptive-Sync-Monitor seiner Wahl zukünftig damit gut oder überhaupt funktioniert.
Sicher? Ich bin der Meinung, es gab GSync von NVIDIA und freesync von AMD?
 
Biocid schrieb:
Man bringt eine Karte auf den Markt, welche eine deutliche Performancesteigerung zum vorherigen Flaggschiff hat, diese dann noch zum halben Preis und wundert sich über den Ansturm?

Ich wundere mich nur darüber, dass überhaupt jemand diese Karten freiwillig kaufen möchte.

Erinnert sich wer an die FX5900?
Angeblich die schlechteste Karte von nVidia.
War, würde ich sagen.

Bei der 3080 heben hier einige nur den Benchmarkbalken in den Vordergrund, alles andere ist anscheidend überhaupt nicht wichtig?
Dabei ist das eher zu vernachlässigen, wenn der Rest nicht stimmt.

1. sehr hoher Stromverbrauch, weit mehr als die viel gescholtene Vega 64.
2. sehr hohe Lastspitzen sorgen sogar bei ausreichend dimensionierten und somit zugelassenen Markennetzteilen der 750 oder 850 Watt Klasse für Ausfälle
3. viel zu wenig Speicher, wenn es mehr als FullHD und Raytracing sein soll
4. Fe ist sehr klobig, relativ laut und drückt die Wärme absichtlich Richtung CPU-Kühler

Bevor also jemand blind wie wild auf den Bestellbutton klickt, sollte er sich über diese Nachteile im Klaren sein, ob er das alles möchte.
Übrigens kann man auch nicht von irgendeinem Preisbrecher sprechen.
Wir reden lediglich über eine geringfügige Normalisierung im High-End.
Oder muss man nur oft genug und lang genug Preise dermaßen anheben, bis sich die ganze Käuferwelt nicht mehr an alte Werte und Normalitäten mehr erinnert?
Der Preis muss ja schließlich mit der 2080 verglichen werden, die dermaßen extrem überteuert war.
Selbst die 3080 ist noch viel zu teuer.
Das ist der Nachfolger der 1080, die habe ich noch für unter 500 Euro gekauft, auch die war schon anfangs extrem überteuert.
Ja, unter 500! War ein Angebotspreis bei Mindfactory, aber nicht besonders unter Normalpreis, auch kein Abverkauf wegen Nachfolger oder irgendwas.
Die 1000er Serie war übrigens auch ca. 60% oder gar 70% schneller als die 900er Serie.
Laut Testbericht ist die 3080 rund 60% schneller als die 2080.
Merkt ihr was? die 3080 ist leistungstechnisch eine normale Karte, da man das erwarten darf, weil sich ja auch erst 40-50% mehr Leistung wirklich lohnen.
Wegen 30% wie bei der 2000er lohnt das als Upgrade und den Mondpreisen einfach nicht.
 
  • Gefällt mir
Reaktionen: Namenlos04321 und Loro Husk
Tobi86 schrieb:
Du sollst damit keinen AAA-DRECK spielen, sondern gute Mainstream-Spiele, die ein paar Jahre älter sind.
Dir ist schon klar dass 99% vom Mainstream auch AAA ist?
 
alkaAdeluxx schrieb:
Und das die neuste NextGen schneller und Günstiger als die davor ist trifft doch immer zu oder nicht?
Normal bekommt man immer mehr Leistung fürs selbe Geld. ---> Technischer Fortschritt und so
Das ist richtig aber der Sprung ist ja diesmal viel größer und vor allem mal wieder günstiger. Mit einer 3080 bekommt ca. 20% mehr Leistung als bei einer 2080ti und das für ca. 65% des Preises einer 2080ti.

So gesehn ist die 3000er Generation schon deutlich attraktiver als die 2000er ....
 
BxBender schrieb:
[...]
1. sehr hoher Stromverbrauch, weit mehr als die viel gescholtene Vega 64.
2. sehr hohe Lastspitzen sorgen sogar bei ausreichend dimensionierten und somit zugelassenen Markennetzteilen der 750 oder 850 Watt Klasse für Ausfälle
3. viel zu wenig Speicher, wenn es mehr als FullHD und Raytracing sein soll
4. Fe ist sehr klobig, relativ laut und drückt die Wärme absichtlich Richtung CPU-Kühler

[...]

hast du zu 2. und 3. irgendwelche Quellen?
 
Ashnacl schrieb:
Es sprechen immer alle von 10% mehr Leistung, die Karte hat auch mehr Speicher. Der soll ja auch nicht so billig sein. Das rechtfertig mit Sicherheit nicht den hohen Preis aber man sollte sich nicht an den 10% aufhängen.
Von den zusätzlichen 14GB musst du aber auch erstmal einen Nutzen haben, als reine Gamingkarte ist die 3090 einfach unvernünftig, dafür müssten auch schon mal 30% Performance auf den VRAM dazukommen.
Wenn es also wirklich mehr als 10GB werden sollen, dann wartet man besser auf die 3080 mit 20GB
Ergänzung ()

DanyelK schrieb:
hast du zu 2. und 3. irgendwelche Quellen?
zu 2.

Bei PCGH hat deren 750W Netzteil mehrmals abgeschaltet, es ist aber auch nicht mehr das allerneuste gewesen.
 
BxBender schrieb:
3. viel zu wenig Speicher, wenn es mehr als FullHD und Raytracing sein soll
4. Fe ist sehr klobig
3. im CB Test gab es bei 4K und Raytracing keine Probleme mit den 10GB, es wurde nur angemerkt, dass die 8GB Karten langsam Probleme bekommen, aber wir vergleichen hier auch GDDR6 und GDDR6X, die zusätzliche Bandbreite der 3080 macht sie nicht direkt vergleichbar mit einer 11GB 2080Ti.

4. Die FE ist doch sehr schlank im vergleich zu den Custom Modellen, also die Maße wären genau ein Grund FÜR die FE.
 
  • Gefällt mir
Reaktionen: tidus1979
Taxxor schrieb:
zu 2.

Bei PCGH hat deren 750W Netzteil mehrmals abgeschaltet, es ist aber auch nicht mehr das allerneuste gewesen.

Halte ich für ein Nicht-Problem. Dann gibt es halt ein BIOS Update wenn sich die Beschwerden häufen udn dann hat sich das.
 
Kurz zum Thema "Leistung in Watt":
Wenn von der Leistungsklasse einer 3080 (ca. 340 Watt) 10 Mio. Stück pro Jahr verkauft werden.
Ergibt das eine benötigte Lestung von 3,4 Giga Watt.
Geht man davon aus, dass die meisten eine vorhandene Karte mit bereits 180 Watt (GTX1070) ersetzen wollen, bleiben noch ca. 160 Watt mehr benötigte Leistung über.
Dies enspricht 1,6 Giga Watt mehr im Jahr an benötigter Leistung. Das wiederum enspricht einer Leistung eines modernen Kernkraftwerks!
In meinen Augen entbehrt das jeder Moral.

Das muss man sich echt mal überlegen womit wir hier eigentlich spielen!

Ist es nicht eigentlich so, dass elektronische geräte eine Kennzeichung bekommen sollen (A+, A, B usw.)?
Kann oder will man das nicht bei PCs machen?
 
DanyelK schrieb:
Halte ich für ein Nicht-Problem. Dann gibt es halt ein BIOS Problem wenn sich die Beschwerden häufen udn dann hat sich das.
Lastspitzen lassen sich nicht mal eben per BIOS eliminieren, die sind halt durch die Hardware da. Auch ein bekanntes Problem bei den Vegas von AMD, da ist ein 550W Netzteil auch schon grenzwertig für eine Vega56 obwohl sie nur 225W ziehen soll, für ein paar ms gehts trotzdem ab und zu hoch auf >400.
Ergänzung ()

NikoNet schrieb:
Ist es nicht eigentlich so, dass elektronische geräte eine Kennzeichung bekommen sollen (A+, A, B usw.)?
Kann oder will man das nicht bei PCs machen?
Um sowas zu machen müsstest du erstmal eine Metrik erstellen, nach der das festgelegt wird.
Da die 3080 effizienter als die 1080 ist, würde sie trotzdem die bessere Wertung bekommen, da sie eben auch mehr leistet als das was sie mehr verbraucht.
 
llax schrieb:
Ich bin der Meinung, es gab GSync von NVIDIA und freesync von AMD?

Genau. Und je nach Monitor war man auf eine der beiden Lösungen und damit auf nur einen der Hersteller festgelegt.

Dass Nvidia auch mit auf den Adaptive-Sync-Zug aufspringen würde, war bis vor knapp 2 Jahren noch nicht absehbar.

Dass sich deshalb viele, ich eingeschlossen, lieber an Nvidia binden wollten, als an AMD, ist doch nicht so verrückt.

Als ich mich vor ca. 2 Jahren für einen neuen Monitor entscheiden musste, was das beste, was man von AMD bekommen konnte, eine damals schon nicht mehr ganz taufrische Vega 64, und es war klar, dass für sehr lange Zeit kein neues High-End-Modell kommen würde.
Bei Nvidia kündigte sich so langsam die 20er-Generation an, nachdem sie schon mit den 10ern klar vor allen AMD-GPUs lagen. Und inzwischen gibt es, zumindest auf dem Papier :evillol: , schon wieder die nächste High-End-GPU von Nvidia, während sich bei AMD noch nichts getan hat.

Abgesehen davon, dass ich "G-Sync compatible" nicht vorhergesehen hatte, habe ich denke ich mit der Entscheidung für einen G-Sync-Monitor damals die logischere Wahl getroffen.
 
  • Gefällt mir
Reaktionen: Cohen
[wege]mini schrieb:
Meine Schätzung liegt bei deutlich unter 100k aka zu wenig.

mfg



Ich glaube aktuell dass die Ausbeute eher bei Samsung schlecht ist.

Das Herstellen einer Karte sollte nicht das Problem sein. Das ist ja Fließband Arbeit. Das läßt sich ja skalieren.
Lineare Optimierung wäre hier das Stichwort.

Siehe das Video

 
  • Gefällt mir
Reaktionen: [wege]mini und malajo
llax schrieb:
Egal was AMD abliefert, du brichst dir lieber das Bein, als was von AMD zu kaufen. Das ist schon eher Religion und Fanatismus, als nachvollziehbares handeln im eigenen Interesse.

Ich habe bisher nur negative Erfahrung mit AMD gemacht. Warum sollte ich dann wieder AMD kaufen?

Es ist auch nicht viel besser immer wieder die gleiche negative Erfahrung zu machen, aber das scheinst du ja gut zu finden. Wenn etwas nicht funktioniert kaufst du es gleich wieder... das ist wirklich cool. :D
 
Taxxor schrieb:
Lastspitzen lassen sich nicht mal eben per BIOS eliminieren, die sind halt durch die Hardware da. Auch ein bekanntes Problem bei den Vegas von AMD, da ist ein 550W Netzteil auch schon grenzwertig für eine Vega56 obwohl sie nur 225W ziehen soll, für ein paar ms gehts trotzdem ab und zu hoch auf >400.
Solange jetzt nicht reihenweise Karten ausfallen oder PCs abschalten. Mal abwarten, und dann gibt es auch noch sowas wie Garantie. Ist jetzt aktuell kein Grund für mich nicht zu kaufen. DAs mit dem Stromvebrauch lass ich bei deinen Argumenten am ehesten gelten, aber dafür erhält man halt auch mehr Leistung.
 
DanyelK schrieb:
Solange jetzt nicht reihenweise Karten ausfallen oder PCs abschalten. Mal abwarten, und dann gibt es auch noch sowas wie Garantie.
Wieso Garantie? Wenn das Netzteil in die Notabschaltung geht, liegt ja kein Defekt vor sondern du brauchst einfach ein stärkeres Netzteil.
Bzw ein neueres, denn je älter ein Netzteil ist, desto weniger kann es von seiner ursprünglichen Leistung liefern.
 
schkai schrieb:
Sollte AMD was aus dem Hut zaubern bin ich bereit meinen Gsync Monitor zu verkaufen, was besseres zu kaufen was beides kann.

Das wird halt nur nicht passieren und wenn dann ist es wieder auf dem Papier gut, aber nicht in den Spielen, oder es wird gesagt die Treiber richten es schon.... Das passiert dann aber nie...
 
Biocid schrieb:
Man bringt eine Karte auf den Markt, welche eine deutliche Performancesteigerung zum vorherigen Flaggschiff hat, diese dann noch zum halben Preis und wundert sich über den Ansturm?
Wenn mich meine Erinnerung nicht täuscht, dann war es früher durchaus üblich, dass sich die Performance pro Dollar von Generation zu Generation verdoppelt hat.
Mr.Präsident schrieb:
Stört eigentlich keinen der hohe Stromverbrauch?
Das Power Target ist in einer Sekunde auf 250 Watt gesetzt:
Code:
sudo nvidia-smi --power-limit=250
 
  • Gefällt mir
Reaktionen: Falc410
Zurück
Oben