News Nvidia GeForce RTX 3080 Q&A: Der „beste GPU-Verkaufsstart aller Zeiten“ war frustrierend

Iscaran schrieb:
Besseres Marketing hätte sich AMD doch gar nicht selber ausdenken können...
Ja nu, also, dann hätte AMD marketingtechnisch ja dazugelernt. ;)
Davon abgesehen müssen sie erstmal etwas ebenbürtiges unter 300W liefern!
Das wird "trotz 1nm weniger" auch eher schwierig, wenn man den diversen Leaks / Gerüchten / Vorhersagen auch nur wenig Credibility zugesteht.
Also abwarten und ... äh Bierchen trinken, Tee ist ja schon alle.
Und als jemand der noch nie eine nVidia hatte, muss ich sagen, die neue Gen ist schon sexy.

Ansonsten sind die 104 Grad doch absolut in den Specs drin. Also woher die Aufregung?
Wird halt wärmer im Zimmer. Doof im Sommer, gut im Winter.

Ich glaube nicht, dass zukünftige, noch leistungsfähigere GPUs sonderlich weniger verbrauchen werden. Eher mehr. Vor allem wenn man sich ansieht, wohin die Reise geht => MultiGPU on Chip, 3d-stacking, da wird die Hitze nicht wirklich ab- sondern die Herausforderung diese Abzuführen eher zunehmen.
Der Markt wird sich weiter diversifizieren und über kurz oder lang werden die High-End GPU-Boliden nur noch mit H2O vernünftig gekühlt werden können.
Ergänzung ()

Chesterfield schrieb:
Wenn die Leaks stimmen , soll das AMD Pendant der rx6000 an die 2080ti „rankommen“ also etwa 3070 Niveau dann.
Das würde mir für ein Upgrade reichen. Ich muss nur 2k befeuern. Passt.
 
0-8-15 User schrieb:
Nachdem er es 6 Jahre lang gequält hat?
In Sachen Lüfter schon.
Ich bezog mich offensichtlich auf Netzteile. Lüfter kann gut sein, das es bessere gibt
 
ich frage mich warum es nirgend wo eine 3080 gibt, wie machen es die Hersteller MSI, EVGA und alle anderen ? lassen die alle bei NVIDIA produzieren oder warum landet nix aufn markt ?
 
Ozmog schrieb:
Wenn ich an früher denke ... Da war man noch weit von dreistelligen Wattwerten weg. Irgendwann kamen dann auch Grafikkarten mit Extra-Stromanschlüssen im Mainstream an, heute kennt man das schon fast gar nicht mehr anders.
Der damalige Rechner hatte übrigens so viel Festplatte, wie heute meine Vega56 VRAM hat :D Was die Elsa renderte, kann heute bestimmt ein RaspberryPi auf einen einzelnen ARM-Kern, statt die GPU zu verwenden. Aber ich schweife ab...
Oppa erzählt aus'm Kriech! 🤣 😉
Kenn' ich auch alle diese Stories.
Ergänzung ()

Syrato schrieb:
dieser "alberne" Fortnite-Stunt war klug!
Da hast Du wohl recht. Mittlerweile treffen sich da die Leute und gucken sich Kinofilme drin an!!
Auf einer Leinwand!!
Statt Autokino, Fortnite-Kino.
Ich werd' alt!
 
Sturmwind80 schrieb:
Das wird halt nur nicht passieren und wenn dann ist es wieder auf dem Papier gut, aber nicht in den Spielen, oder es wird gesagt die Treiber richten es schon.... Das passiert dann aber nie...
Hast du was belegbares zu deiner steilen These ?
Ergänzung ()

LikeMikeSter schrieb:
Mein Beileid, dass Du nicht gleich einen gescheiten Monitor gekauft hast und zwei Mal kaufen müsstest. :rolleyes: Es gibt Aussagen hier....
Zu der Zeit gab es eben nur Gsync oder Freesync Monitore. Würde ich mir jetzt einen kaufen wäre es einer der beides kann. Ist schon armselig von dir das du das nicht differenzieren kannst und dich wegen einem Monitor von einem Hersteller abhängig machst. Nochmals mein Beileid.
Ergänzung ()

DerDoJo schrieb:
Das geht aber ganz schön ins Geld. Ordentliche Monitore (zumindest wenn man sich nicht mehr mit TN 60Hz zufrieden gibt) kosten doch fast mehr als die 3080
Echt jetzt ? Es gibt ausreichend 27 Zoll WQHD Monitore welche Gsync Kompatibel sind und Freesync beherrschen und keine 700 oder 900 Euro kosten. Fürs Gaming reichen die vollkommen aus. Mein aktueller Asus reicht mir auch aus. Und was ein Ordentlicher Monitor ist, ist Ermessens Sache.
Ich möchte auch im Sommer Zocken können und da kommt mir keine laute FE bzw eine 340 Watt Karte in den Rechner.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andi316
Bald haben wir für Technik Wartezeiten wie damals im Osten auf Trabbis (bis zu 10 Jahre) :freak:
 
  • Gefällt mir
Reaktionen: Wichelmanni und Andi316
schkai schrieb:
Echt jetzt ? Es gibt ausreichend 27 Zoll WQHD Monitore welche Gsync Kompatibel sind und Freesync beherrschen und keine 700 oder 900 Euro kosten. Fürs Gaming reichen die vollkommen aus. Mein aktueller Asus reicht mir auch aus. Und was ein Ordentlicher Monitor ist, ist Ermessens Sache.

Klar gibt's genug Monitore. Zielgruppe: Blinde, denen Backlight Bleeding egal ist. 🔥
 
  • Gefällt mir
Reaktionen: KenshiHH
Chesterfield schrieb:
Wenn die Leaks stimmen , soll das AMD Pendant der rx6000 an die 2080ti „rankommen“ also etwa 3070 Niveau dann.
Eine Karte aus der 6000er Serie, nicht die größte.
 
@Taxxor ist schon spannend, wie alle wissen wie gut die AMD Karten sein werden, noch bevor sie da sind.
Irgendwann hat Nostradamus und der Maya Kalender sicher nen Treffer mit dem Weltuntergang, mal schauen wann!
Hört doch mal bitte auf zu raten/spekulieren!
 
  • Gefällt mir
Reaktionen: floTTes
Anhand der Umfrage kann ich null nachvollziehen warum es aktuell eine Knappheit gibt... für mich ist das nahezu ein Paperlaunch, nicht mehr nicht weniger.
 
  • Gefällt mir
Reaktionen: WolledasKnäul
Benj schrieb:
Klar gibt's genug Monitore. Zielgruppe: Blinde, denen Backlight Bleeding egal ist. 🔥

Es soll Leute geben denen ist es egal. Es gibt auch Leute die stört auch kein Tearing etc. Diese aber gleich als Blinde zu bezeichnen finde ich echt armselig. Mein Asus Monitor hat ein so extrem Schwaches BLB das man es selbst in dunklen Szenen nicht wahrnimmt.
 
  • Gefällt mir
Reaktionen: Benj
GERmaximus schrieb:
Hm interessanter Ansatz, wüsste gerade nur nicht wie das aussehen sollte:confused_alt:
Fixiert man das auf eine feste FPS zahl? weil dann wären ja alle kleinen Karten total ineffizient (permanent Volllast) und alle big Chip Karten effizienz wunder. Als würde man den Durchschnittsverbauch nur noch bei 120kmh messen.
Oder verstehe ich dich gerade falsch?
das weiß ich auch noch nicht :D. ich fand eben nur den gedankengang von jemandem hier interessant, der kritisierte, dass die Karten mittlerweile bei einer 320W TDP angekommen sind und das eine Zahl ist, die man mit Effizienz nicht mehr schönreden kann und den weltweiten Verbrauch um ein ganzes Kraftwerk steigert, wenn 10 mio davon im Einsatz sind, sofern sie eine 1080ti ersetzen.
Und ne, kein Messverfahren welches ein FPS limit beinhaltet. Möglichst stärkste CPU um ein fps limit zu vermeiden in jedem Szenario und dann maximale grafik settings ohne jeglichen Limiter. Und das was die karte dann zieht, das gilt. Denn aus meiner Sicht ist das der realverbrauch einer Grafikkarte, da jeder Spieler im Grunde seine Karte bestmöglich auslasten möchte, zumindest im Enthusiasten Segment.
Denn sorry, ich kaufe niemandem wirklich ab, dass er ernstahft Strom sparen möchte wenn er sich eine 3080 kauft. Vielleicht aus bastelinteresse und aus perfektionistischer Ambition nochmal etwas das power target optimieren. Aber ernsthaft strom sparen? nee.
man kauft sich wie gesagt auch keinen RS6 um damit dann effizient und ökologisch unterwegs zu sein. Man kauft ihn um schnell unterwegs zu sein und um spaß zu haben. Und das nimmt man ehrlicherweise auch in kauf.
 
  • Gefällt mir
Reaktionen: GERmaximus
Syrato schrieb:
@Taxxor ist schon spannend, wie alle wissen wie gut die AMD Karten sein werden, noch bevor sie da sind.
Irgendwann hat Nostradamus und der Maya Kalender sicher nen Treffer mit dem Weltuntergang, mal schauen wann!
Hört doch mal bitte auf zu raten/spekulieren!
Es gehört kein Raten oder Spekulieren dazu, um zu wissen, dass eine RDNA2 Karte mit 80CUs, mehr IPC und mehr Takt nicht nur 45% besser sein wird als eine 5700XT.

Worauf diese 45% eher passen wäre eine 60 CU Karte.
 
  • Gefällt mir
Reaktionen: X8Koenig
@Krautmaster deine? Hoffe nicht! ;)
@Taxxor jo das liegt nahe, ich mag nur diesen Hype oder Hate Train nicht, den viele fahren! Einfach warten und wir wissen es. Geduld ist eine Tugend! :heilig:
 
BerserkerWut schrieb:
Ich bezog mich offensichtlich auf Netzteile. Lüfter kann gut sein, das es bessere gibt
Ich denke das war bezogen auf die Lüfter in den Netzteilen. ;) - Ich hatte mit Seasonic Netzteilen aus der Prime Reihe da durchaus schon öfters Spaß mit klackernden Lüftern. :grr:
 
Finde das Thumbnail nicht richtig es sollte heißen ist frustrierend da sicher noch viele ohne Karte sind und keine Kaufen können momentan.
 
Mr.Präsident schrieb:
Stört eigentlich keinen der hohe Stromverbrauch?
Habe den Eindruck, das bald mit den Grafikkarten auch ein Kraftwerk mitgeliefert wird. :D

Meine Fury X frisst auch über 320 Watt wenn ich ihr die Freigabe gebe.
Und die ist schon 5 Jahre alt.

AMD R9 295 X2 frisst 2014 über 500 Watt.
 
floh667 schrieb:
Und ne, kein Messverfahren welches ein FPS limit beinhaltet. Möglichst stärkste CPU um ein fps limit zu vermeiden in jedem Szenario und dann maximale grafik settings ohne jeglichen Limiter. Und das was die karte dann zieht, das gilt.

Damit würdest du dann aber nur die Vmax messen und hättest keinerlei Angabe über den durschnittlichen Verbrauch;)
Denn Eine Karte die mit 300Watt 100fps Generiert, ist noch immer effizienter als eine Karte mit 150Watt, welche aber nur 30fps generiert. In deinem Test aber wäre es eine Böse 300Watt Karte ;)

Zudem wären das so viele Variabeln, dass ich das für recht unrealitsich halte
->welche Game Engine (unterschiedliche Engines haben unterschiedliche Verbräuche), welche Auflösung, welche CPU, welches Netzteil mit welcher Effizienz, CPU LImit ja nein, alles Ultra auch wirklich ALLES?, welche Games, oder nur DAS game?
Gesynct, ungesynct, oder synthetische Benches, bei welcher Raum Temperatur, Wasser oder Luftgekühlt, was ist mit Anwendungssoftware etc...
 
Zurück
Oben