Test Grafikkarten-Testsystem: Frische Messwerte im neuen Gehäuse für Next-Gen-GPUs

Ardadamarda schrieb:
Würde mir persönlich auch nie wieder ein Gehäuse kaufen wo das Netzteil noch unten ist und die Lüfterplätze blockiert.
Habe nie den Trend verstanden Netzteile unten zu verbauen. Die Verkabelung wird dadurch kein bisschen effizienter. 8 Pin EPS und 24 Pin ATX Anschlüsse sind beide im oberen Teil vom Mainboard und die GPU fast mittig. Airflow für die Grafikkarte wird mit einem NT unten im Gehäuse unnötigerweise blockiert. Was stört mich ein hoher Schwerpunkt im PC Gehäuse? Außer ich lauf da permant gegen und habe Angst das es umkippt...

Lese öfters wie einige User besorgt sind über höhere Temperaturen im Netzteil... Da oft empfohlen wird nach 4-5 Jahren eh ein neues zu kaufen kann das ja auch kein Grund sein, zumal die GPU dafür im Umkehrschluss kühler läuft und das System leiser wird.
 
Zuletzt bearbeitet:
incurable schrieb:
Für die sind die Ergebnisse ja so oder so uninteressant, warum also ausgerechnet auf Personen ausrichten, die sich selbst aus der Zielgruppe genommen haben?
Weil ein Medium über seine Inhalte die Zielgruppe definiert. Wenn Auto Motor und Sport nur noch Bugattis testet und keinen Golf mehr, wird sie ein Nischenmedium.

Ich finde zwar richtig, dass die high end Karten getestet werden. Mir ist auch klar, dass auf der Seite viele Enthusiasten lesen und posten. Als Leitmedium sollte CB in meinen Augen aber das Verhalten der Hersteller, auf TDP-Boliden zu setzen, nicht auch noch durch ein maßgeschneidertes Testsystem belohnen. Es hat nicht jeder Bock, immer neue Sockel, Netzteile oder Gehäuse mitzumachen, weil es großen Firmen so passt. Die Karten wurden imho nur mit einem Ziel konzipiert: MH/s optimieren. In einem Mining rig oder einer Farm zählt die Effizienz und nicht absolute Leistungsaufnahme. Genau das liefern die Karten. Da die Kurse für Crypto einbrechen, werden AMD und Nvidia sich bald wieder als Gottes Geschenk an Gamer inszenieren, weil ihr heimlicher Zielmarkt gerade (vorerst) abgestorben ist. Und viele werden die neue Karten feiern, weil man jetzt den Bugatti Veyron für Spieler in sein Gehäuse stecken und neues Netzteil und Gehäuse kaufen muss.

Das ist natürlich überspitzt und ich will dir die Karten nicht madig machen. Den Sinn dieser Designentscheidungen darf man aber hinterfragen.
 
  • Gefällt mir
Reaktionen: ComputerJunge, Corpus Delicti und Mills97
Finde die Diskussionen irgendwie geil die hier gerade geführt werden. Mehr argumentativ als der ein oder andere graka Glaubenskrieg und co. Eben für PC interessierte die auch mal anderer Meinung sind und es vernünftig belegen warum. Weiter so.
 
  • Gefällt mir
Reaktionen: Piecemaker
Die sollten das Teil ohne Lüfter für 49.90€ verkaufen - mehr ist dieser Plastikbomber eigentlich auch nicht wert.
 
  • Gefällt mir
Reaktionen: Mills97
Doenerbong schrieb:
Macht das wirklich Sinn, die delta dB-Werte in % anzugeben? Das ist doch eine logarithmische Skalierung.
Stimmt, erscheint auf den zweiten Blick unsinnig, da auch die Deltas das Grafikkarten untereinander nicht verglichen werden können.
Doenerbong schrieb:
Edit: Ich sehe gerade, dass Ihr die deltaT-Werte ebenfalls in % angegeben habt. Das macht überhaupt keinen Sinn. Der absolute Nullpunkt ist NICHT 0°C, sondern 0 K (-273,15°C). Eine Veränderung von 40°C auf 30°C kann daher auch nicht "-25%" entsprechen.
Das wiederum....
Der Referenzrahmen ist natürlich in Celsius zu sehen, also ab praktischen 0°C.
Von Kelvin hat ja keiner was gesagt. Da sind eine Reduktion von 40°C auf 30°C eben doch eine 25% Reduktion des Zahlenwerts.
Da sind 20°C eben auch doppelt so warm wie 10°C, obwohl es in Kelvin nur 3,5% Unterschied sind.

Ausserdem, du gehst ja nicht raus und sagst: "ach was für ein schönes wetter, endlich mal wieder 278 K"
 
  • Gefällt mir
Reaktionen: fairlane24 und BlueBringer
Beim FD Torrent muss ja dann das Netzteil doch ordentlich schwitzen!?
 
Mich würde mal die Temperatur der Gehäuseoberseite interessieren.
 
MujamiVice schrieb:
Beim FD Torrent muss ja dann das Netzteil doch ordentlich schwitzen!?
das bekommt doch auch die Luft von vorn

Das nen gescheites Gehäuse und ordentliche Kühlung soviel ausmacht war mir schon klar, das alte Testgehäuse war da wirklich nicht optimal und ich denke das neue entspricht auch eher dem was man sich bei einem Umbau oder ner High End GPU dazu nimmt, hab mir beim letzten Build auch ein neues von FD gegönnt.
Sehe die Temperaturprobleme mit schlechten Gehäusen oder teils auch einfach nur schlechter Belüftung aber auch bei Freunden mit identischer Hardware, einfach mal 5-10 Grad mehr bei der CPU, teilweise weil zu faul mal nen Lüfter einzubauen, alles schon gesehen.
 
Zuletzt bearbeitet:
CyrionX schrieb:
Das wiederum....
Der Referenzrahmen ist natürlich in Celsius zu sehen, also ab praktischen 0°C.
Von Kelvin hat ja keiner was gesagt. Da sind eine Reduktion von 40°C auf 30°C eben doch eine 25% Reduktion des Zahlenwerts.
Da sind 20°C eben auch doppelt so warm wie 10°C, obwohl es in Kelvin nur 3,5% Unterschied sind.

Ausserdem, du gehst ja nicht raus und sagst: "ach was für ein schönes wetter, endlich mal wieder 278 K"

Entschuldige, aber das ist so nicht richtig. Die Celsius-Skala ist eine typische Intervallskala (die Temperaturdifferenz zwischen zwei Temperaturen lässt sich sinnvoll berechnen), aber es ist eben keine Verhältnisskala: Eine sinnvolle Produkt- oder Quotientenbildung ist nicht möglich, da es eben keinen fixen Nullpunkt gibt.

Die Logik "20°C sind doppelt so warm wie 10°C" fällt nämlich schnell auseinander, wenn man negative Temperaturen einbezieht. Wieviel wärmer ist denn dann 10°C als 0°C? Oder 10°C als -10°C? Der eine Quotient ist nicht definiert und der andere liefer als Ergebnis -1. Das ist eben nicht interpretierbar.
Ebenso kann man "20°C / 10°C = 2" zwar ausrechnen; eine physikalisch interpretierbare Größe ist es aber nicht.

Statista hat da eine schöne kurze Zusammenfassung dazu, was man mit Intervallskalen machen kann und was nicht:

https://de.statista.com/statistik/lexikon/definition/70/intervallskala/


(Edit: Noch auffälliger wird das Problem, wenn man den Artikel für jemanden übersetzt, der seine Temperaturen in Fahrenheit angibt. Für denjenigen wären die 20°C dann 68°F und die 10°C wären 50°F. Aus dem "doppelt so warm" (Faktor 2) in Celsius wird dann ein "rund 1/3 wärmer" (Faktor 1,36) in Fahrenheit. Ob es nun doppelt so warm, oder "nur" 33 % wärmer ist, sollte nun wirklich nicht von der Einheit abhängen, in der man misst.)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PcFliege, up.whatever, incurable und eine weitere Person
Geonosis schrieb:
Entschuldige, aber das ist so nicht richtig. Die Celsius-Skala ist eine typische Intervallskala (die Temperaturdifferenz zwischen zwei Temperaturen lässt sich sinnvoll berechnen)
Doch Doch, daher ist 25% von 40°C eben auch 10°C
Geonosis schrieb:
aber es ist eben keine Verhältnisskala: Eine sinnvolle Produkt- oder Quotientenbildung ist nicht möglich, da es eben keinen fixen Nullpunkt gibt.
Klar gibt es den in diesem Kontext ;) siehe unten.
Geonosis schrieb:
Die Logik "20°C sind doppelt so warm wie 10°C" fällt nämlich schnell auseinander, wenn man negative Temperaturen einbezieht.
Exakt, "wenn". Und wenn nicht, dann nicht.
Ein eigenes Szenario zu erstellen, in dem man einem neuen Sachverhalt widersprechen kann um dieses Ergebnis dann auf das ursprüngliche Szenario zu übertragen, verletzt die formale Logik.
(Kurz: ein Strohmann-Argument.)

In diesem Kontext: was Temperaturen in PC-Gehäusen anbelangt, die sich im normalen Gebrauch nie in negativen Bereichen aufhalten, ist die negative Skala sowohl sinnlos als auch unnötig.
Das ist meine Behauptung, du kannst mir gerne praktischen Test mit negativen C°-Temperaturen darlegen.

Der Referenzrahmen kann daher ganz einfach bei Null beginnen, was demnach auch den von dir verlangten Nullpunkt darstellt.
Wenn man deine Forderungen weiterführt müsste man auch gleich jedes andere Pseud-axiomatische Bezugssystem auseinandernehmen, z.B. Celsius als ganzes.

Schliesslich nimmt es mit 0 Grad die Gefriertemperatur von Wasser als Referenz an. Darüberhinaus sind Minusgrade auch noch unsinnig, da es im Grunde gar keine negative Temperatur bzw. "Kälte" gibt (genausowenig wie Unterdruck.)
Oder auch Gewichtseinheiten wie Kilogramm, die in Bezug auf feste Massen ausserhalb der Erde ( eigentlich schon auf dieser) ihre Gültigkeit verlieren. Unausgesprochen ist der Bezugspunkt für uns also immer die Erde, oder nicht? Wenn du Brotkaufst, wiegst du dieses in Molekülarer Masse ab?.

Nichts davon ist absolut und der Einfachheit halber verwenden wir im täglichen Gebrauch, beim Backen und eben auch auf Computerbase eben Grad Celsius, hier der Einfachheit beginnend bei 0°C anstatt Kelvin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Drahminedum
CyrionX schrieb:
In diesem Kontext: was Temperaturen in PC-Gehäusen anbelangt, die sich im normalen Gebrauch nie in negativen Bereichen aufhalten, ist die negative Skala sowohl sinnlos als auch unnötig.
Der Referenzrahmen kann daher ganz einfach bei Null beginnen, was demnach auch den Nullpunkt darstellt.
Ansonsten könnte man auch gleich jedes Axiom auseinandernehmen, z.B.
Celsius als ganzes, das mit 0 Grad die Gefriertemperatur von Wasser als Referenz nimmt und Minusgrade eigentlich unsinnig wären da es im Grunde gar keine negative Temperatur bzw "Kälte" gibt, (genausowenig wie Unterdruck.)
Oder auch Gewichtseinheiten wie Kilogramm, die in Bezug auf feste Massen ausserhalb der Erde ( eigentlich schon auf dieser) ihre Gültigkeit verlieren.
Nichts davon ist absolut und der Einfachheit halber verwenden wir im täglichen Gebrauch, beim Backen und eben auch auf Computerbase eben Grad Celsius, hier der Einfachheit beginnend bei 0°C anstatt Kelvin.

Wie schon beschrieben: Ich kann auch in Fahrenheit messen - und dort bei gleichen Temperaturen unterschiedliche Verhältnisse erhalten. Ich kann durch Wahl meiner Skala beliebige prozentuale Unterschiede generieren.

Die Frage, ob eine Skala eine Intervallskala oder eine Verhältnisskala ist, hat nichts mit dem Rahmen zu tun, in dem sie üblicherweise genutzt wird. Notwendig ist ein absoluter Nullpunkt. Die Kilogramm-Skala (oder jede andere Skala für Massen) hat diesen. Daher ist 1 kg genau doppelt so schwer wie 2 kg und zwei Erden doppelt so schwer wie eine Erde. Dort funktionieren diese Relationen (und das in beliebigen Größenordnungen!). Genauso funktioniert dies, wenn ich statt in kg in lbs messe. Dort bleiben die Verhältnisse beim Umrechnen erhalten. Beim Umrechnen von Celsius in Fahrenheit usw. bleiben diese es nicht.

Es gibt ja auch keinen Grund, die Celsius-Skala nicht zu verwenden. Aber wenn man es tut, sind Aussagen, die Temperaturen ins Verhältnis setzen, halt ohne Sinn weil beliebig.
 
  • Gefällt mir
Reaktionen: McLovin14, incurable und Mills97
Beste Case für High TDP GPUs, selbst wegen ner 6900XTXH gekauft. Serienlüfter durch SW3 ersetzt, Ruhe im Karton und perfekte Temps.
 
UNRUHEHERD schrieb:
Weil ein Medium über seine Inhalte die Zielgruppe definiert. Wenn Auto Motor und Sport nur noch Bugattis testet und keinen Golf mehr, wird sie ein Nischenmedium.
Es ist nicht nötig so zu tun als könnten aus irgendeinem Grund nur entweder high-end-Karten oder solche für den Massenmarkt getestet werden.

Musst Du halt bei den kürzeren Balken in den Diagrammen suchen, wenn Du Dir selbstgewählte Grenzen auferlegst.
 
Geonosis schrieb:
Wie schon beschrieben: Ich kann auch in Fahrenheit messen -
Das tun wir aber nicht, wir bleiben hier in unserem beschränkten Rahmen. Celsius, 0°C ~ 100/110°
Geonosis schrieb:
und dort bei gleichen Temperaturen unterschiedliche Verhältnisse erhalten. Ich kann durch Wahl meiner Skala beliebige prozentuale Unterschiede generieren.
Klar kannst du, ich kann auch vieles wenn ich willkürlich andere Systeme hernehme.

Geonosis schrieb:
Notwendig ist ein absoluter Nullpunkt.
Dass dieser hier "absolut" notwendig sei, diese Regel stellst erstmal nur du hier auf.
Ich bzw im Artikel der Autor definiert 0° einfach für sich als Nullpunkt, von mir aus spielt er eben Gott und erstellt ein neues Pseudo-Axiom, ich komme damit klar da ich den Kontext kenne.
Jeder versteht was gemeint ist, jeder weiss, dass negative Temperaturen uns nicht interessieren, jeder weiss, weshalb wir °C und nicht Kelvin verwenden. Nur du machst dir wohl einen Sport daraus das hier mit einer physikalischen Vorlesung zu verwechseln.
Geonosis schrieb:
Daher ist 1 kg genau doppelt so schwer wie 2 kg und zwei Erden doppelt so schwer wie eine Erde.
Du redest von der Masse, ich sprach von der Gewichtseinheit. Ein und derselbe Block Eisen wiegt auf der Erde mehr als auf dem Mond. Es geht hier weiterhin um Bezugssysteme, das wollte ich auch mit den anderen Beispielen verdeutlichen die scheinbar spurlos an dir vorbeigingen.
Geonosis schrieb:
Beim Umrechnen von Celsius in Fahrenheit usw. bleiben diese es nicht.
Darum nutzen wir Fahrenheit auch nicht. Wozu auch? Dein Beispiel mit der Umrechnung hat in dieser Diskussion keinerlei Relevanz, warum du es mitreinbringst ist mir ein Rätsel. Ich verweise nochmal auf das Strohmann-Argument.

Für die Temperaturmessung von CPUs, Grafikkarten, Gehäusen, reicht uns ein Nullpunkt mit 0°C.
Alles andere ist unnötiges fachsimpeln und jetzt scheinbar auch schon Eristik als eigener Zweck.
 
Ich finde es nicht so gut das Gehäuse ggf. auch noch das Netzteil zu wechseln. Energietechnisch werden die neuen Karten eine Katastrophe werden. Man sollte schon zeigen (mit den alten Sachen) das das Murks ist. Warum darauf einstellen? Warum?
 
Mystique_ schrieb:
Ich finde es nicht so gut das Gehäuse ggf. auch noch das Netzteil zu wechseln.
Es ist nur logsch bei der Überarbeitung auf aktuelle Bauteile zu setzen, die für eine längere Zeit die Basis für ein Testsystem und damit vergleichbare Daten sein können.
 
Das Netzteil ist doch kein natives 5.0 ATX, es fehlen die Steuerungsleitungen, daher muss mit Adaptern gearbeitet werden wie ihr schon angemerkt habt, somit dürfte dann mit den 4000er Karten nochmal ein wechsel anstehen um auch die volle Funktion zu gewährleisten. Ansonsten bin ich etwas Skeptisch was eure Tests angeht, kann mir beim besten willen nicht vorstellen das von 10 gehaäusen der oberklasse nur eins in der lage sein soll eine 450 Watt Karte zu kühlen, aber wir werden ja sehen wie effizient die neuen Grafikkarten Kühler sein werden, und ob dann nicht vielleicht eure Tests mit den anderen Gehäusen wieder anders ausfallen.
 
<NeoN> schrieb:
Warum nicht einfach nen Benchtable? Realistisches Szenario hin oder her, die Temperaturen im Fractal Design sind für Interessenten mit anderem Gehäuse genauso irrelevant.

daivdon schrieb:
Ich kann mich ja irren, aber ein ü200€ Big Tower ist doch auch recht wenig verbreitet, oder?
Der Phantek ist preislich zwar gleich, aber zumindest hat er die "Standard"-Größe.

Es bringt doch nichts RTX 4000 oder RX 7000 in einem Case zu testen, in welchem einige dieser Grafikkarten ins thermal throttling laufen. Dann zeigt dir ein Test eben nicht mehr, wie schnell die schnellsten GPUs sein könnten, sondern nur noch wie gut sie in einem nicht optimalen Gehäuse, bzw bei suboptimalen Airflow, performen.

Das würde wiederum bedeuten, das Grafikkarten welche nicht bis weniger ins thermal throttling geraten, in Relation zu den high-end GPUs schneller werden.

User die ein nicht so gutes Gehäuse/Airflow haben, wissen dann aber wie schnell die GPU sein könnte, auch wenn sie selbst nicht auf diese Werte kommen können, weil es bei ihnen zu warm wird.

Man testet Grafikkarten ja auch meistens mit schnellst möglichen CPUs, auch wenn die Mehrheit eher keine RTX 3060/3070 in Kombination mit einem 12900k verbaut hat.
 
  • Gefällt mir
Reaktionen: incurable
Piecemaker schrieb:
Es bringt doch nichts RTX 4000 oder RX 7000 in einem Case zu testen, in welchem einige dieser Grafikkarten ins thermal throttling laufen. Dann zeigt dir ein Test eben nicht mehr, wie schnell die schnellsten GPUs sein könnten, sondern nur noch wie gut sie in einem nicht optimalen Gehäuse, bzw bei suboptimalen Airflow, performen.
Was wäre daran so schlimm?

Oder meinst du, dass ein Test nicht zeigen sollte, wenn ein neues Produkt für die Masse der Bestandsgehäuse nicht geeignet ist?

Ein neues Produkt ist nicht geeignet für das Gros der Bestandskunden, weil die Voraussetzungen für den Betrieb nicht gegeben sind. Egal, man ignoriert das irgendwie und hofft, dass sich die Kunden bewegen, weil das Produkt ansonsten doch richtig super-duper ist. Ein Produkt, dass inkompatibel mit gängigen Gehäuse und Netzteilen ist, weil der Stromverbrauch in absurde Höhen getrieben wird.

Aber wie weiter oben erwähnt wurde. Vermutlich hatte man eine andere Zielgruppe im Auge, wo das Thema vielleicht nicht so entscheident ist -> Crypto-Mining. Wen interessiert denn der olle Gaming-Markt. ;)
 
Zurück
Oben