Major_Fogger
Ensign
- Registriert
- Mai 2020
- Beiträge
- 196
therealcola schrieb:Netzteil Upgrade
Ich bin mit meinem Dark Power 11 650 Watt sehr gut unterwegs und werde sicherlich nicht wegen den RTX Grafkas nun mein Netzteil wechseln
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
therealcola schrieb:Netzteil Upgrade
4to cka3al schrieb:Sei mir nicht böse, aber das ist ja wohl eine Milchmädchenrechnung. Nur in einer Welt mit perfekter Skalierung wäre so was denkbar.
Wie gesagt TBP kann 300W erreichen. Die letzten 20W Unterschied könnte dann der bessere Fertigungsprozess ausmachen.Major_Fogger schrieb:Wenn es bei dieser Leistung für die TDP bleibt, dann schnapp ich mir definitiv eine AMD Grafka.
Für mich verbrauchen die 3080 und die 3090 einfach zuviel an Watt.
Klingt vorallem richtig teuer, wir kriegen wohl unsere 16GB 3080 like Performance Karten mit 250W noch dieses Jahr. Aber billig wird das nicht, Ich hoffe quasi auf 999€, hoffung stirbt bekanntlich erst wenn sie auf die Realität trifft. Also zumindest für HBM2 und 16GB sollte richtig teuer werden, aber auch einiges an verbrauch sparen.AtotheX schrieb:Klingt doch ganz gut.
therealcola schrieb:Mehr als 2 ghz Clock ist jetzt auch nichts besonderes schafft die RX 5700 XT ja schon..
Apfelsch0rle schrieb:Wie wird hier denn DLSS bewertet? Hat AMD da irgendwas gegenzusetzen? Wenn ich 4K ohne Qualitätsverlust aus 1440p oder sogar 1080p aufs Display bekomme, steht dann der Sieger im Duell nicht ohnehin fest, ganz gleich was AMD hier vorlegt?
Abwarten ob das nur die HBM2 Version ist und die GDDR6 dann die 300W voll macht. 16GB fressen ne Menge vom Power Budget.Ardan Redburn schrieb:Nice...238W GPU-TDP?
Werderwunder schrieb:für eine Karte die mir im nächsten Hochsommer 320 Watt in die Bude bläst und mit ihren 10 GB ja auch keine Investition für Jahre darstellt. Eine Nummer kleiner, wo man Gehäuse und NT behalten kann und wo die Kühllösung nicht auf Kante genäht ist, ist der bessere Ansatz, auch wenn da jetzt 10% Leistung fehlen.
Warum denn Intel + Nvidia, meines Erachtens ist AMD Intel jetzt schon deutlich überlegen, Zen 3 wird da noch was drauflegen. Rdna 2 wird auch stark sein, aber da würde ich verstehen, wenn man Nvidia nimmt, bei CPUs mit 0%.seyfhor schrieb:Auf jeden muss AMD abliefern, auch nach den Seitenhieben auf nvidia. Wenn das nix wird wird der nächste PC Intel mit nvidia und die alte AMD kommt auf den Scheiterhaufen, sooo
Wer ein VR HMD hat oder gerade darauf wartet, der schaut auch sehr genau auf DLSS. Insbesondere seitdem es hieß das ganze wäre VR tauglich.Shoryuken94 schrieb:Die Anzahl an UHD Nutzern ist auch sehr klein und der Vorteil für 1440p und niedriger ist deutlich geringer bei solchen GPUs.
Hab es schon mehrfach geschrieben, alles gute für AMD, gute Konkurrenz hält zumindest die Preise unten und sorgt für Druck bei den Verbesserungen. Siehe CPUs.t3chn0 schrieb:Wenn ich jetzt hier mal so den Tenor lese, geht der BigNavi Hypetrain langsam auf die Reise. Nicht wenige werden nun tatsächlich auf AMD warten, zu Recht.
Ich finde Ampere durchaus gelungen, werde auch bei Nvidia bleiben, aber der Launch ist eine Farce und gibt AMD nun alle Möglichkeiten hier Nvidia komplett auszukontern.
FreedomOfSpeech schrieb:AMD spricht von +50% Perf/Watt. Die 6900XT kommt mit 2x8Pin, daher 375 Watt.
Die 5700XT braucht 220W.
375/220*1.5=2.55
Daher kann es sein, dass sie 2.5x so schnell wie eine 5700XT ist, und damit liegt sie in Reichweite der RTX 3090....
FreedomOfSpeech schrieb:Die +50% Perf/Watt sind von AMD, nicht von mir.
Krautmaster schrieb:AMD hat nun eben das Glück wie bei den CPU auch. Besser Fertigung als die Konkurrenz.
Ardan Redburn schrieb:Ansonsten mal Ball flachhalten,das was AMD`s PR diesmal nicht fantasiert übernehmen grad die Fans.. :-)
t3chn0 schrieb:Ich finde Ampere durchaus gelungen, werde auch bei Nvidia bleiben, aber der Launch ist eine Farce und gibt AMD nun alle Möglichkeiten hier Nvidia komplett auszukontern.
Hochmut kommt vor dem Fall.
RDNA2 hat zwar ML, aber muss wie auch RT wenn es genutzt wird gut bei der Rasterisierungs Leistung Einbüßen, da sie keine extra HW wie NV nutzen.Apfelsch0rle schrieb:Wie wird hier denn DLSS bewertet? Hat AMD da irgendwas gegenzusetzen? Wenn ich 4K ohne Qualitätsverlust aus 1440p oder sogar 1080p aufs Display bekomme, steht dann der Sieger im Duell nicht ohnehin fest, ganz gleich was AMD hier vorlegt?