Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Neue GPU bevor Crypto wieder steigt - Welche für 4k - "non Enthusiast"?
Szenario: Control, 4k, alles Ultra + RT, DLSS aus.
1. GPU @Stock = ~41 FPS im Durschnitt, Verbrauch 400W
2. GPU @Powerlimit reduziert = ~40 FPS im Durschnitt, Verbrauch 300W
Da fragt man sich echt, wieso die so viel @Stock verballern muss...
Kann natürlich sein, dass es vereinzelnd Szenarien gibt, wo sich der Mehrverbrauch deutlicher lohnt.
Bezüglich RT weiß ich nun, weshalb mir RT in Control so gefallen hat.
Das ist in dem Spiel extrem gut umgesetzt:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Undervolting und/oder Power Limit setzen ist bei Ampere fast schon Pflicht.
Schau dir die 3070 Ti an. Die hat eine TDP von 290 Watt. Die normale 3070 hat 220 Watt und ist trotz normalen GDDR6 Speicher und ein paar Shader weniger kaum langsamer.
Oder nimm meine 3060 Ti. Mit Undervolting bei 170 Watt statt 220 Watt kaum langsamer.
Der Sweet Spot liegt aktuell leider nie im Werkszustand. Wüsste jedenfalls keine Karte wo das so wäre 😊
300 Watt bei 1 FPS Verlust klingt doch okay. Ändert wohl nur leider nichts am Fiepen.
Das stimmt, hätte nur nicht erwartet, dass es so krass ist.
Weiter unten ein paar Bilder zur Karte.
3 Sachen voweg:
Das Anti-Sag Bracket bringt nicht viel. Sowas funktioniert deutlich besser.
Der RGB Streifen an der Backplate ist gut gemeint, man sieht die einzelnen LEDs jedoch deutlich.
Beim MSI Logo + Schriftzug ist es besser, leuchtet jedoch insgesamt schwächer als der Streifen. Die Helligkeit kann man leider nicht separat einstellen. (Allerdings kann man die Backplate Beleuchtung ausschalten, das Logo weiterhin leuchten lassen)
Mittlerweile hab ich die Karte ausgebaut. Die geht zurück und mal schauen, welche stattdessen den Weg in mein Case findet. Vielleicht warte ich doch auf die nächsten Generationen.
Das sieht man, finde ich jetzt auch nicht optimal gelöst. Hätte gedacht das geht bei dem Preis besser 🤷♂️
Rios schrieb:
Mittlerweile hab ich die Karte ausgebaut. Die geht zurück und mal schauen, welche stattdessen den Weg in mein Case findet. Vielleicht warte ich doch auf die nächsten Generationen.
Das war die richtige Entscheidung 👍 Ich schließe mich dem an wenn die 6800 XT - aus welchen Gründen auch immer - ebenfalls zurück muss.
Im übrigen sehr schickes und sehr aufgeräumtes Innenleben 😎👍 Da würde die XFX auch super reinpassen 😀
Meines ist recht ähnlich aufgebaut - nur auf schwarz-weiß getrimmt 😉😁
Danke für den Tipp
Erst nehme ich mir bisschen Zeit zum Überlegen. Das Spulenfiepen hat bleibende Schäden hinterlassen 😅
Wahrscheinlich baue ich wieder meine 1070 ein und bearbeite meinen Backlog etwas^^
Ich hätte jetzt beinahe gesagt du kannst meine 3060 Ti haben, die fiept kein bisschen 🤓 Aber für 4K ist das dann vielleicht doch zu wenig. Auch wenn sie mehr als doppelt so schnell wie die 1070 ist 😀
Die 3070 (Gainward) und die 3070 Ti (Palit) haben auch kein bisschen gefiept. Hoffe die XFX bleibt der Linie treu 🤞😊
Es hängt natürlich auch etwas vom Zusammenspiel mit dem Netzteil ab, ob eine Karte fiept oder nicht. Allerdings würde die Karte, die ich hatte, wohl mit jeden NT fiepen, so krass wie es war 😅
Es ist vollbracht, die Karte ist eingebaut und hat einen ersten Gaming Abend mit Freunden hinter sich 😉👍
Ich habe jetzt keine Vergleiche zur aktuellen bzw. letzten Radeon Generation, nur Erfahrungswerte zu GTX und RTX. Vielleicht kann da wer etwas zu sagen, der sich da auskennt (falls jemand hier mitliest) 😀
Also.. die Karte ist ein Monster. Riesengroß und sehr gut verarbeitet. Allerdings gar nicht so schwer wie man es vermuten würde. Gerade einmal knapp 130 g schwerer als die 3060 Ti Gaming X. Die Backplate ist aus Metall, die Front aus recht leichtem, matten Plastik. Macht keinen so wertigen, aber ordentlichen und schicken Eindruck. Die Karte hat ganz leichtes Spulenfiepen. Man muss schon mit dem Ohr an den PC und sich darauf konzentrieren um es zu hören. Mit Umgebungsgeräuschen oder Kopfhörern gibt es aber keine Chance das wahrzunehmen.
Beim Zocken gerade schafft die 6800 XT bei Battlefield V stabile 238 FPS bei gerade mal 163 Watt. Stellenweise langweilt sie sich und dümpelt bei 100 Watt rum 🤪 Die 3060 Ti musste sich da schon mehr anstrengen und lief oftmals am Anschlag und erst recht nicht bei diesem sehr geringen Verbrauch.
Ich habe gerade zum Abschluss noch eine halbe Stunde den MSI Kombustor laufen lassen. Die Karte taktet die ganze Zeit stabil zwischen ~2320 und 2390 MHz. Dabei wird sie 76 Grad warm (Hotspot 90 Grad), die Lüfter laufen mit nur 30% bei ~1000 rpm und sie verbraucht bei voller Auslastung 255 Watt.
Und genau da frage ich mich gerade, egal was ich mache, ich komme nicht über die 255 Watt. Ist das für eine 6800 XT normal!? Ich füge von allem mal Bilder und Screenshots bei. Viele Sensorwerte von GPUZ gibt es leider nicht. Die 3060 Ti Gaming X hat 3x so viele Sensoren. Aber das ist nicht so wichtig, solange der Rest passt. Werde die Tage die Karte mal weiter auf Herz und Nieren prüfen 👍
Ach ja… alles @Stock und ohne Undervolting bzw. Übertakten 😀
Zu der Szene hast du, wenn ich richtig sehe, einen Screenshot mitgepostet. Welches Programm ist das?
Also dort, wo Ingame die Werte oben rechts angezeigt werden.
Bisher habe ich dafür Afterburner verwendet. Das finde ich ich allerdings etwas zu unübersichtlich. Das bei dir im Screenshot sieht wesentlich besser aus.
b|ank0r schrieb:
die Lüfter laufen mit nur 30% bei ~1000 rpm und sie verbraucht bei voller Auslastung 255 Watt.
Die Radeon RX 6800 XT kommt unter Last durchschnittlich auf 296 Watt. Das sind 65 Watt mehr als beim kleineren Modell, aber immer noch 26 Watt weniger als bei der GeForce RTX 3080.
[...]
Wer die Radeon RX 6800 XT übertaktet, erhöht die Leistungsaufnahme um 38 Watt auf 334 Watt. Im Vergleich zur übertakteten GeForce RTX 3080 sind dies 37 Watt weniger.
Das ist das AMD Treiber eigene Feature. Ist sehr nett und schick gelöst. Kann man auch noch anpassen, habe ich aber auf die Schnelle nicht gemacht. Sowas hat Nvidia jedenfalls nicht.
Rios schrieb:
Bisher habe ich dafür Afterburner verwendet. Das finde ich ich allerdings etwas zu unübersichtlich. Das bei dir im Screenshot sieht wesentlich besser aus.
Absolut unhörbar, ich kann sie nicht raushören. Da höre ich eher das Spulenfiepen. Und das unter Vollauslastung. Bin sehr positiv überrascht. Finde aber sie könnten schon ein wenig höher drehen um die Temperaturen ein wenig mehr zu senken, genug Spielraum ist ja noch vorhanden. Wobei 76 Grad absolut okay bzw. gut sind wie ich finde.
Rios schrieb:
Sieht man die gelb-orangene Seite deutlich heraus durch das Sichtfenster?
Am Tag schon, am Abend eher weniger. Mich stört es aber nicht. Es passt wunderbar in das Gesamtbild bei mir da der Noctua CPU Kühler auch silber ist und einen orange/braunen Stich hat 👍😀
syfsyn schrieb:
amd gpu geben den chip verbrauch an nicht die board power zuden 168w gesellen sich 10% vrm verluste und +20w an vram verbrauch
Okay vielen Dank für die Info, das wusste ich nicht 👍😀
Ist es normal, das die AMD Karten so wenig Sensoren haben? Bei Nvidia konnte man gefühlt alles auslesen. Da wurde der Verbrauch für alles mögliche angegeben, siehe hier: klick mich
Bei Igor steht es auch nochmal:
The displayed power consumption in the tools is NOT! The complete on-board power, that is what the card sucks out of the can. As a guideline, you can add roughly 35 to 40 watts for an RX 6800 and about 45 watts for an XT. This always varies a little bit, depending on the card. But since almost all models use only the high quality powerstages from Infineon (apparently a specification from AMD) you get a consistently high quality on the customs. Positive are of course more phases for overclocking, the cards seem to scale cleanly with the phase placement.
The Red Devil, for example, currently carries most of the phases on the board. Otherwise the cards behave inconspicuously with the power consumption, I couldn’t notice big fluctuations, but of course I have only limited equipment. But the cards are a power supply killer only with very high overclocking, especially the RX 6800 is tame and can be used with small power supplies around 450Watts without any problems, as long as the quality is right!
Even an RX 6800 XT with the standard ASIC of the reference of 255 watts draws only about 400 watts in the whole system, even with my quite decent system, and the card is already overclocked.
Absolut unhörbar, ich kann sie nicht raushören. Da höre ich eher das Spulenfiepen. Und das unter Vollauslastung. Bin sehr positiv überrascht. Finde aber sie könnten schon ein wenig höher drehen um die Temperaturen ein wenig mehr zu senken, genug Spielraum ist ja noch vorhanden.
Okay, also kann man mit ca. +45 Watt rechnen. Dann kommt das auch mit deinen Messungen hin.
Bei voller Auslastung verbraucht sie demnach - ohne UV - ~80-100W weniger als die 3080 12GB.
Bei ähnlicher Perfomance. Top 👍
Allgemein sinken die Preise immer weiter, das Wetter wird schöner - ich geh das Risiko ein und warte auf die Next Gen. Ich kann mir kaum vorstellen, dass es so ein Desaster wie letztes Jahr wird.
Dazu ist die Nachfrage zu krass eingebrochen und die Kapazitäten davor zu stark hochgefahren wurden.
Ja das denke ich auch. Inzwischen habe ich herausgefunden, dass die werksmässige Lüftersteuerung immer knapp 76 Grad bzw. 90 Grad Hotspot anpeilt. Dieser Wert wird unter Last immer gehalten. Teilweise drehen die Lüfter dann nur mit 500-800 upm, das ist wirklich sehr wenig. Kein Wunder das ich da nichts höre. Das Spulenfiepen ist eher ein dumpfer Ton und nicht wahrzunehmen, solange man nicht mit dem Kopf direkt am PC ist. Sitzt man daneben hört man nichts in ruhiger Umgebung.
Ich bin von der Effizienz auch ganz angetan, vor allem in niedrigen bzw. Teillastszenarien. Da scheint sie noch effizienter zu sein. Mich nervt gerade nur mal wieder Windows 11 🙈😂
Undervolting habe ich nur kurz und knapp ausprobiert. Im AMD Treiber von 1150 mV runter auf 1050 mV. Das sind dann effektiv 1,008 V. Der Verbrauch blieb ungefähr der gleiche, die Leistung stieg aber nochmal deutlich weil die GPU höher takten konnte. Im 3DMark machte das knapp 1000 Punkte mehr. Ich hänge die Screenshots mal an 😀👍
Ergänzung ()
Noch ein Hinweis bzgl. der vermeintlich geringen Anzahl an Sensoren im Vergleich zu Nvidia:
Wenn man das Tool HWiNFO nutzt hat man wieder alle. Auf den o.g. Bildern sieht man es. Die anderen Tools können das anscheinend nicht in der Fülle alles auslesen 🙋♂️