News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Dr.Pawel schrieb:
und ich schätze mal das bei ca. 350-450W selbst Wasser am Limit ist, dass ist ja gerade der Grund weshalb LN2 nötig ist ab einem gewissen Punkt.

Mfg

Mehr Radiatoren und gut ist. Zb nen Mora und sich entspannt zurück lehnen
 
  • Gefällt mir
Reaktionen: Haldi
@xexex

Dir sagt "toter Winkel" was? Was auf einer Seite abgesaugt wird muss auf anderer Seite schließlich auch ins geschlossene Gehäuse kommen und bei der zu kühlenden Hardware auch noch der erforderliche Luftstrom angommen.

Aber wozu noch diskutieren?
Kauf die die Karte die per Firmware Update auf das 480W Powerlimit aufgebohrt werden kann, packe sie in das von dir gezeigte Gehäuse, platziere Temperatursensoren bei den Lüfter Öffnungen der Karte und setze sie entsprechend unter Last. Dann viel Spaß beim Spielen mit der Gehäusebelüftung um das Ding auf die "akzeptabler Geräuschkulisse" zu bringen die du hier so vehement propagierst.
Ich für meinen Teil habe schon meine Erfahrungen mit solchen Systemen gesammelt.
 
  • Gefällt mir
Reaktionen: Blekota, Iscaran, Mcr-King und eine weitere Person
Taxxor schrieb:
wenn ich die 220W jetzt auf 500W erhöhe, sehe ich nicht wie man die von der GPU wegbekommen sollte.


Dr.Pawel schrieb:
Ich bin mir nahezu sicher das wir keine 500 Watt Singlecore GPUs sehen werden. Dabei ist nicht die Wattzahl das entscheidende sondern die Chiptemperatur an sich
Das ist überhaupt kein Problem.
Hau nochmal 75-150W drauf und du hast ein Peltier element das dir den Chip auf schönen 70-80°C hält.

Die Hitze auf kleinster Fläche ist technisch kein Problem. Sondern finanziell.
 
Luxmanl525 schrieb:
Hallo zusammen,

@ xexex

Das bezweifle ich mehr als stark. Die Hitze muß ja irgendwo hin. Rein Physikalisch würde das nur noch mit Wasserkühlungen zu bewerkstelligen sein. Abgesehen davon bin ich mir ziemlich sicher, daß man bei den nachfolgenden Generationen mit den jeweiligen Konzepten ganz andere Erfahrungen haben wird und Verbesserungen einfließen werden. So war es bisher auch immer.

So long...

Du brauchst zwar ne Klimaanlage im Zimmer aber die 500W kriegst locker mit Luft gekühlt.
 
  • Gefällt mir
Reaktionen: jemandanders
7 Tage noch dann lässt AMD die Hosen runter und wir werden sehen was Navi 21 kann , und ob ich einen Naquadah Generator brauche um das Ding anzutreiben .
 
Bin mega gespannt in welchem Kontext die AMD Karten verglichen werden, wenn man keine alternative zu DLSS hat.

Von vielen nV Fans lese ich immer wieder das sie ihre FPS mit DLSS erreichen, und ihnen das als Grund reicht.

Für mich ist DLSS einfach eine Mogelpackung mit der man die eigentliche Leistung der Karte optisch nach oben schiebt. Würde es persönlich sogar begrüßen wen AMD sowas NICHT entwickelt, sondern auf die Eigenleistung der Karte setzt.

Mal abwarten.
 
  • Gefällt mir
Reaktionen: daknoll und Mcr-King
TigerNationDE schrieb:
Für mich ist DLSS einfach eine Mogelpackung mit der man die eigentliche Leistung der Karte optisch nach oben schiebt. Würde es persönlich sogar begrüßen wen AMD sowas NICHT entwickelt, sondern auf die Eigenleistung der Karte setzt.
Und das ist nicht gut? Ein Death Stranding sieht sogar mit DLSS besser aus als nativ und bekommt dadurch einen enormen Performancegewinn. Inwiefern macht es da bitte Sinn, sowas nicht zu weiterzuentwickeln? Für mich der größte technische/softwareseitige Fortschritt der letzten Jahre im Spielebereich, gerade im Zusammenhang mit Raytracing, was nun mal sehr anspruchsvoll ist. Ich mein, es wird ja Stand jetzt nur noch besser und besser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs, McFritte und tempeter10
TigerNationDE schrieb:
Für mich ist DLSS einfach eine Mogelpackung mit der man die eigentliche Leistung der Karte optisch nach oben schiebt. Würde es persönlich sogar begrüßen wen AMD sowas NICHT entwickelt, sondern auf die Eigenleistung der Karte setzt.
Genau so sehe ich das auch, DLSS interessiert mich persönlich nicht die Bohne.
 
  • Gefällt mir
Reaktionen: daknoll, Mcr-King, Duffy Duck und eine weitere Person
TigerNationDE schrieb:
Für mich ist DLSS einfach eine Mogelpackung mit der man die eigentliche Leistung der Karte optisch nach oben schiebt.
Dann bist Du einer (der inzwischen wenigen) , die DLSS noch nicht verstand haben bzw. machst eine Technik nieder, mit der Du Dich offenbar keine 5 Minuten auseinandergesetzt hast.

Würde es persönlich sogar begrüßen wen AMD sowas NICHT entwickelt, sondern auf die Eigenleistung der Karte setzt.
Soso- Dann sollen sie am Besten auch alle culling- Methoden deaktivieren und intern das Rasterizing mit 32K ablaufen lassen. Sonst ist das Bild ja garnicht "richtig" berechnet, oder?

Daggy820 schrieb:
Genau so sehe ich das auch, DLSS interessiert mich persönlich nicht die Bohne.
Natürlich- Wer braucht schon erheblich mehr FPS mit zeitgleich höher möglicher Bildqualität bei geringerem Stromverbrauch? Würde mich beim Kauf einer Grafikkarte auch nicht die Bohne interessieren, wenn sie sowas kann....

Sind wir hier tatsächlich noch in einem Computertechnikforum?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337, KlaraElfer, KuroSamurai117 und 11 andere
LäuftBesser2000 schrieb:
Freue mich wie Schmitz Katze schön die Skyrim/Witcher 3 Mods alle drauf zu knallen mit so einer Karte :)
Yes, mein Cyberpunk heißt auch Witcher 3! Das läuft zwar mit einigen Mods und guten Settings mit der Vega56 bisher gut (meistens 60 FPS bei ~ 90-95% GPU-Auslastung), aber es gibt noch einige Mods und höhere Settings für die visuelle Verbesserung. :freaky:

Ideal wäre es, diese Settings zukünftig bei ca. 50% Auslastung spielen zu können.

Ich bin zudem gespannt, welche neuen/verbesserten Features AMD in der kommenden Woche ankündigen wird.
 
Zuletzt bearbeitet: (Typo)
.Sentinel. schrieb:
Sind wir hier tatsächlich noch in einem Computertechnikforum?

Das ändert sich bei den Herrschaften erst dann, wenn AMD auch auf den Zug aufspringt. Dann wird aus Ablehnung selbstverständliche Akzeptanz.

Momentan, solange erst ein Hersteller (der den man nicht mag) eine AI-Technik einsetzt, dürfte noch Markentreue der dominierende Faktor in der Bewertung dieser Methode sein.
 
Dr.Pawel schrieb:
ich schätze mal das bei ca. 350-450W selbst Wasser am Limit ist

Also mein Mora wird da sich da vorzüglich langweilen :D

.Sentinel. schrieb:
Sind wir hier tatsächlich noch in einem Computertechnikforum?

Um die Technik geht es hier doch gar nicht mehr. Das ist nur noch Fanboygebashe. Ich verstehe auch nicht, was es an DLSS auszusetzen gibt...
 
Zuletzt bearbeitet:
Krautmaster schrieb:
wieso?
Das 50% kann auf den Sweet Spot bezogen sein. Wenn AMD die Karte prügelt um mit der 3080 gleich zu ziehen oder etwas mehr dann is die Effizienz schnell wieder dahin.
Passt nur nicht zur Aussage, das der GPU Chip in der Ps5 effizient Arbeitet. Und der taktet ja auch mit 2,2Ghz.
Ohne hier ein Fass aufzumachen, aber AMD TDP Werte liegen in etwa mit der Ampere gleich auf. Und auch da ist der OC Spielraum eher klein.
Ich verstehe dass gejammere nicht.

Benji18 schrieb:
75 Watt aus dem PCIE + 150 Watt aus dem ersten 8 Pin + 150 Watt aus dem zweiten 8 Pin = 375 Watt
Dummerweise nutzt AMD seit Gefühlt Ewigkeiten nur noch die Signalspannung und nicht den PCI Power Delivery.. Sonst hättest du Recht
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
xXcanwriterXx schrieb:
Kennst Du die Doku-Soap "Die Fußbroichs" angefangen in den 70'ern bis 2000 irgendwas auf WDR?!?

Da lief der Fernseher den ganzen Tag und es gab keinen Zuschauer. Das schimpfte sich "Hintergrundakrobatik" für die Kamera!! :D
Nur vom Hörensagen. Das ist aber u. a. die Klientel, auf die sich meine "sinnfrei"-Referenz bezieht.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Dann bist Du einer (der inzwischen wenigen) , die DLSS noch nicht verstand haben bzw. machst eine Technik nieder, mit der Du Dich offenbar keine 5 Minuten auseinandergesetzt hast.

Gut das du weisst womit ich mich so alles auseinandersetze und was ich verstehe. Was ich verstehe is, das wir durch künstliche Intelligenz etwas erschaffen was in der realität nicht mehr von der Karte verarbeitet wird. Ergo kann ich einen Benchmark mit DLSS machen und verkaufe dann die Karte natürlich als mega tolle Karte mir XY% Leistungszuwachs, dabei generiert die Karte als solches diese Rohleistung gar nicht.

Sorry, aber selbst als in 90% der Fälle nVidia Supporter finde ich diese Entwicklung nicht gut. Aber was solls, kaufen die Leute doch eine 3090 für den doppelten Preis und mehr, nur um 10% mehr Leistung zu haben .....

Ich bin auch für technischen Fortschritt, aber dann sollte man diesen Transparent gestalten. Und nicht sagen "Oh hier, wir haben die geilste Karte, die schafft in Spiel XY mit DLSS XY% mehr FPS.

Mir ist aber schon klar das die Mehrheit der Geforce Käufer wahrscheinlich Gamer sind, und denen ist es wahrscheinlich auch egal wie die Karte ihre FPS generiert. Dennoch ist es für mich mit fast 30 Jahren Hardwareerfahrung schwer zu verdauen, wie locker das alle so hinnehmen.
 
  • Gefällt mir
Reaktionen: daknoll und spw
tackleberry schrieb:
Du brauchst zwar ne Klimaanlage im Zimmer aber die 500W kriegst locker mit Luft gekühlt.
Stimmt :D kommt dann zum neuen Netzteil noch dazu. ;)
Kostet vermutlich min. nochmal soviel wie der ganze PC.
Who cares? Mich schon. ;)
TigerNationDE schrieb:
Bin mega gespannt in welchem Kontext die AMD Karten verglichen werden, wenn man keine alternative zu DLSS hat.

Von vielen nV Fans lese ich immer wieder das sie ihre FPS mit DLSS erreichen, und ihnen das als Grund reicht.

Für mich ist DLSS einfach eine Mogelpackung mit der man die eigentliche Leistung der Karte optisch nach oben schiebt. Würde es persönlich sogar begrüßen wen AMD sowas NICHT entwickelt, sondern auf die Eigenleistung der Karte setzt.
Da es DLSS z. Zt. nur für ausgewählte Spiele gibt, wird wohl auch ganz normal getestet.
Ich bin mir aber sicher, das es so etwas in der Richtung sicherlich auch bei Team Rot geben wird. Vielleicht nicht sofort, aber spätestens im nächsten Jahr.
Bei der MS Konsole wird es das ja auch geben. Vielleicht arbeiten die ja auch mit AMD direkt zusammen?
ML xbox_3.jpg
Im übrigen gibt es bei AMD heute ja schon mit FidelityFX ja schon etwas im Prinzip ähnliches. Gut die Qualität lässt wohl manchmal bei Schriften oder einer bestimmten Art von Kanten zu Wünschen übrig, im allgemeinen Funkioniert das aber sehr gut. Und das sogar auf allen Grafikkarten. Vielleicht wird das auch einfach nur verbessert.

DLSS 1.0 sah ja anfangs ja auch manchmal so richtig Scheiße aus. Will aber heute wohl niemand mehr etwas von wissen.
Warten wir mal ab was nächste Woche angekündigt wird.
Stören würde mich eine direkte Aktivierung. Da möchte ich gern der Herr im eigenen Haus sein.
Das "bessere" Bild wird ja mit ein paar Schärfefiltern erreicht. Das hat mit dem Skalieren an sich ja nichts zu tun.
.Sentinel. schrieb:
Wer braucht schon erheblich mehr FPS mit zeitgleich höher möglicher Bildqualität bei geringerem Stromverbrauch?
Wer braucht schon ein "natürliches Bild", wenn er ein verändertes mit >144 FPS haben kann.
Kann man genauso fragen.
Dann müsste dafür gesorgt werden, das nicht irgendwelche Details hinzu gezaubert werden.
 
Zuletzt bearbeitet: (Korrigiert)
  • Gefällt mir
Reaktionen: Mcr-King und evilhunter
TigerNationDE schrieb:
Mir ist aber schon klar das die Mehrheit der Geforce Käufer wahrscheinlich Gamer sind, und denen ist es wahrscheinlich auch egal wie die Karte ihre FPS generiert. Dennoch ist es für mich mit fast 30 Jahren Hardwareerfahrung schwer zu verdauen, wie locker das alle so hinnehmen.

Warum sollte man es auch nicht locker nehmen? Und mich interessiert schon, wie bzw. womit und mit welchen Techniken die FPS generiert werden. In diesem Fall halt mit Hilfe von DLSS bzw. AI. Und das ist ein großartiger, technischer und sogar wissenschaftlicher Fortschritt. Ich kann deine Ablehnung hier nicht nachvollziehen.
 
  • Gefällt mir
Reaktionen: stevefrogs
TigerNationDE schrieb:
Sorry, aber selbst als in 90% der Fälle nVidia Supporter finde ich diese Entwicklung nicht gut. Aber was solls, kaufen die Leute doch eine 3090 für den doppelten Preis und mehr, nur um 10% mehr Leistung zu haben .....
Und was hat das mit DLSS zu tun? Jedem, der sich eine 3090 kauft, sollte doch bewusst sein, für was er da bezahlt, ganz unabhängig von DLSS.
TigerNationDE schrieb:
und denen ist es wahrscheinlich auch egal wie die Karte ihre FPS generiert.
Nicht, wenn das Bild merklich viel schlechter ist, und darum gehts doch, ist es eben mit DLSS 2.0 nicht, deswegen ist diese Entwicklung doch so zu begrüßen.
TigerNationDE schrieb:
Dennoch ist es für mich mit fast 30 Jahren Hardwareerfahrung schwer zu verdauen, wie locker das alle so hinnehmen.
Was soll man da denn groß meckern? Natürlich bauen die das ins Marketing ein, warum auch nicht. Ich wüsste nicht, warum ich DLSS nicht nutzen sollte, wenn kein großer Unterschied zu nativ besteht, ich aber 30%+ mehr FPS habe. Du klingst so, als wäre Ampere ansonsten leistungstechnisch ein kompletter Reinfall, ist doch aber nicht so? DLSS ist einfach ein geiler Bonus und wie gesagt, es wird sich ja nur noch weiterentwickeln. Ich verstehe ernsthaft diese Abneigung nicht :D
 
  • Gefällt mir
Reaktionen: stevefrogs
iamyvo schrieb:
als wäre Ampere ansonsten leistungstechnisch ein kompletter Reinfall, ist doch aber nicht so?
Im Sinne von Effizienz ist Ampere für mich wirklich ein echter Reinfall.
Sie haben für das potenzielle Krönchen alle guten Sitten über Bord geworfen.
Zumindest einen Effizenz-Mode Schalter o.ä. für die Dau´s bzw. Faulis hätte ich mir gewünscht. Dann halt 5-10% weniger FPS aber deutlich weniger Lärm & Energieverbrauch. (Und Abwärme)
So wie es ist, out of the Box finde ich Ampere Scheiße.
Hoffentlich macht AMD das Spiel in dieser Form nicht mit bzw. bietet halt zumindest so einen Efficency Mode an.
 
Zuletzt bearbeitet: (Ergänzt)
Zurück
Oben