Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GeForce RTX 3080 Q&A: Der „beste GPU-Verkaufsstart aller Zeiten“ war frustrierend
Ja nu, also, dann hätte AMD marketingtechnisch ja dazugelernt.
Davon abgesehen müssen sie erstmal etwas ebenbürtiges unter 300W liefern!
Das wird "trotz 1nm weniger" auch eher schwierig, wenn man den diversen Leaks / Gerüchten / Vorhersagen auch nur wenig Credibility zugesteht.
Also abwarten und ... äh Bierchen trinken, Tee ist ja schon alle.
Und als jemand der noch nie eine nVidia hatte, muss ich sagen, die neue Gen ist schon sexy.
Ansonsten sind die 104 Grad doch absolut in den Specs drin. Also woher die Aufregung?
Wird halt wärmer im Zimmer. Doof im Sommer, gut im Winter.
Ich glaube nicht, dass zukünftige, noch leistungsfähigere GPUs sonderlich weniger verbrauchen werden. Eher mehr. Vor allem wenn man sich ansieht, wohin die Reise geht => MultiGPU on Chip, 3d-stacking, da wird die Hitze nicht wirklich ab- sondern die Herausforderung diese Abzuführen eher zunehmen.
Der Markt wird sich weiter diversifizieren und über kurz oder lang werden die High-End GPU-Boliden nur noch mit H2O vernünftig gekühlt werden können.
Ergänzung ()
Chesterfield schrieb:
Wenn die Leaks stimmen , soll das AMD Pendant der rx6000 an die 2080ti „rankommen“ also etwa 3070 Niveau dann.
ich frage mich warum es nirgend wo eine 3080 gibt, wie machen es die Hersteller MSI, EVGA und alle anderen ? lassen die alle bei NVIDIA produzieren oder warum landet nix aufn markt ?
Wenn ich an früher denke ... Da war man noch weit von dreistelligen Wattwerten weg. Irgendwann kamen dann auch Grafikkarten mit Extra-Stromanschlüssen im Mainstream an, heute kennt man das schon fast gar nicht mehr anders.
Der damalige Rechner hatte übrigens so viel Festplatte, wie heute meine Vega56 VRAM hat Was die Elsa renderte, kann heute bestimmt ein RaspberryPi auf einen einzelnen ARM-Kern, statt die GPU zu verwenden. Aber ich schweife ab...
Da hast Du wohl recht. Mittlerweile treffen sich da die Leute und gucken sich Kinofilme drin an!!
Auf einer Leinwand!!
Statt Autokino, Fortnite-Kino.
Ich werd' alt!
Das wird halt nur nicht passieren und wenn dann ist es wieder auf dem Papier gut, aber nicht in den Spielen, oder es wird gesagt die Treiber richten es schon.... Das passiert dann aber nie...
Zu der Zeit gab es eben nur Gsync oder Freesync Monitore. Würde ich mir jetzt einen kaufen wäre es einer der beides kann. Ist schon armselig von dir das du das nicht differenzieren kannst und dich wegen einem Monitor von einem Hersteller abhängig machst. Nochmals mein Beileid.
Ergänzung ()
DerDoJo schrieb:
Das geht aber ganz schön ins Geld. Ordentliche Monitore (zumindest wenn man sich nicht mehr mit TN 60Hz zufrieden gibt) kosten doch fast mehr als die 3080
Echt jetzt ? Es gibt ausreichend 27 Zoll WQHD Monitore welche Gsync Kompatibel sind und Freesync beherrschen und keine 700 oder 900 Euro kosten. Fürs Gaming reichen die vollkommen aus. Mein aktueller Asus reicht mir auch aus. Und was ein Ordentlicher Monitor ist, ist Ermessens Sache.
Ich möchte auch im Sommer Zocken können und da kommt mir keine laute FE bzw eine 340 Watt Karte in den Rechner.
Echt jetzt ? Es gibt ausreichend 27 Zoll WQHD Monitore welche Gsync Kompatibel sind und Freesync beherrschen und keine 700 oder 900 Euro kosten. Fürs Gaming reichen die vollkommen aus. Mein aktueller Asus reicht mir auch aus. Und was ein Ordentlicher Monitor ist, ist Ermessens Sache.
@Taxxor ist schon spannend, wie alle wissen wie gut die AMD Karten sein werden, noch bevor sie da sind.
Irgendwann hat Nostradamus und der Maya Kalender sicher nen Treffer mit dem Weltuntergang, mal schauen wann!
Hört doch mal bitte auf zu raten/spekulieren!
Anhand der Umfrage kann ich null nachvollziehen warum es aktuell eine Knappheit gibt... für mich ist das nahezu ein Paperlaunch, nicht mehr nicht weniger.
Es soll Leute geben denen ist es egal. Es gibt auch Leute die stört auch kein Tearing etc. Diese aber gleich als Blinde zu bezeichnen finde ich echt armselig. Mein Asus Monitor hat ein so extrem Schwaches BLB das man es selbst in dunklen Szenen nicht wahrnimmt.
Hm interessanter Ansatz, wüsste gerade nur nicht wie das aussehen sollte
Fixiert man das auf eine feste FPS zahl? weil dann wären ja alle kleinen Karten total ineffizient (permanent Volllast) und alle big Chip Karten effizienz wunder. Als würde man den Durchschnittsverbauch nur noch bei 120kmh messen.
Oder verstehe ich dich gerade falsch?
das weiß ich auch noch nicht . ich fand eben nur den gedankengang von jemandem hier interessant, der kritisierte, dass die Karten mittlerweile bei einer 320W TDP angekommen sind und das eine Zahl ist, die man mit Effizienz nicht mehr schönreden kann und den weltweiten Verbrauch um ein ganzes Kraftwerk steigert, wenn 10 mio davon im Einsatz sind, sofern sie eine 1080ti ersetzen.
Und ne, kein Messverfahren welches ein FPS limit beinhaltet. Möglichst stärkste CPU um ein fps limit zu vermeiden in jedem Szenario und dann maximale grafik settings ohne jeglichen Limiter. Und das was die karte dann zieht, das gilt. Denn aus meiner Sicht ist das der realverbrauch einer Grafikkarte, da jeder Spieler im Grunde seine Karte bestmöglich auslasten möchte, zumindest im Enthusiasten Segment.
Denn sorry, ich kaufe niemandem wirklich ab, dass er ernstahft Strom sparen möchte wenn er sich eine 3080 kauft. Vielleicht aus bastelinteresse und aus perfektionistischer Ambition nochmal etwas das power target optimieren. Aber ernsthaft strom sparen? nee.
man kauft sich wie gesagt auch keinen RS6 um damit dann effizient und ökologisch unterwegs zu sein. Man kauft ihn um schnell unterwegs zu sein und um spaß zu haben. Und das nimmt man ehrlicherweise auch in kauf.
@Taxxor ist schon spannend, wie alle wissen wie gut die AMD Karten sein werden, noch bevor sie da sind.
Irgendwann hat Nostradamus und der Maya Kalender sicher nen Treffer mit dem Weltuntergang, mal schauen wann!
Hört doch mal bitte auf zu raten/spekulieren!
Es gehört kein Raten oder Spekulieren dazu, um zu wissen, dass eine RDNA2 Karte mit 80CUs, mehr IPC und mehr Takt nicht nur 45% besser sein wird als eine 5700XT.
Worauf diese 45% eher passen wäre eine 60 CU Karte.
@Krautmaster deine? Hoffe nicht! @Taxxor jo das liegt nahe, ich mag nur diesen Hype oder Hate Train nicht, den viele fahren! Einfach warten und wir wissen es. Geduld ist eine Tugend!
Ich denke das war bezogen auf die Lüfter in den Netzteilen. - Ich hatte mit Seasonic Netzteilen aus der Prime Reihe da durchaus schon öfters Spaß mit klackernden Lüftern.
Und ne, kein Messverfahren welches ein FPS limit beinhaltet. Möglichst stärkste CPU um ein fps limit zu vermeiden in jedem Szenario und dann maximale grafik settings ohne jeglichen Limiter. Und das was die karte dann zieht, das gilt.
Damit würdest du dann aber nur die Vmax messen und hättest keinerlei Angabe über den durschnittlichen Verbrauch
Denn Eine Karte die mit 300Watt 100fps Generiert, ist noch immer effizienter als eine Karte mit 150Watt, welche aber nur 30fps generiert. In deinem Test aber wäre es eine Böse 300Watt Karte
Zudem wären das so viele Variabeln, dass ich das für recht unrealitsich halte
->welche Game Engine (unterschiedliche Engines haben unterschiedliche Verbräuche), welche Auflösung, welche CPU, welches Netzteil mit welcher Effizienz, CPU LImit ja nein, alles Ultra auch wirklich ALLES?, welche Games, oder nur DAS game?
Gesynct, ungesynct, oder synthetische Benches, bei welcher Raum Temperatur, Wasser oder Luftgekühlt, was ist mit Anwendungssoftware etc...