News Im Test vor 15 Jahren: Zwei Radeon HD 5970 waren doppelt so schlecht

lowrider20 schrieb:
Ja genau. Deswegen gab es damals auch den großen Einbruch bei Gehäuseverkäufen... Und da eh nur auf Radiallüfter gesetzt wurde, setzte man weiterhin auf vollverblechte Gehäuse mit nur einem 92mm Lüfter an der Rückseite. Bis heute.:rolleyes:
Nun legst du mir Worte in den Mund. Du verstehst es falsch.

Ich habe nicht behauptet, dass niemand neue Gehäuse gekauft hat. Aber es kauft nunmal auch nicht jeder mit einer neuen GPU auch gleich ein neues Gehäuse.

Die meisten Nutzer behalten ihr Gehäuse länger als manche der Teile darin. Also werden 2010 sicherlich sehr viele Käufer noch Gehäuse aus den 2000er genutzt haben, die sie weiter behalten wollten. Der Umstieg auf modernere Designs war da sicherlich langsamer als der Umstieg auf neuere Grafikkarten. Ergo müssen Grafikkarten zu dieser Zeit noch alte Gehäuse Designs berücksichtigen.

So, möchtest du es noch ein drittes Mal missverstehen?
 
Powl_0 schrieb:
Junge! Sowas haben sich Enthusiasten zugelegt! Da ist der Kaufpreis eines neuen Gehäuses nebensächlich. Die meisten Nutzer hatten diese Karte gar nicht. Und die leistungsschwächeren hatten auch einen geringeren Verbrauch, trotzdem wurde nicht von diesen Fön-Kühlern abgelassen. Dieses Kühlkonzept war vor 15 Jahren überholt! Punkt!
 
lowrider20 schrieb:
Junge! Sowas haben sich Enthusiasten zugelegt!
Radialkühler gabs bis runter auf die 100€ Klasse.
lowrider20 schrieb:
Dieses Kühlkonzept war vor 15 Jahren überholt! Punkt!
Wieso warst du nicht bei ATi, Nvidia und Co und hast ihnen diese Weisheit mitgeteilt?
Komisch, dass damals alle Hersteller Radialkühler auf Referenzkarten hatten (und sogar bis RDNA2/Turing daran festhielten). Fast so, als hatte das damals noch einen technisch bedingten Sinn.

Na egal...
 
  • Gefällt mir
Reaktionen: Lord B.
Meine letzte Radeon war eine Sapphire HD 4870 X2 und hab diese vor 2 Jahren noch für 250€ auf Ebay verkauft.
 
MalWiederIch schrieb:
der absolute Verbrauch ist nämlich als Vergleich absolut wertlos :)
600W sind 600W und bleiben 600W. Was dadurch hinten raus kommt ist für die Stromrechnung absolut unrelevant. Ach ja und für die Kühlung spielt deine Effizenz auch null Relevanz wenn die es mit 600W Abwärme zu tun bekommt.
 
JackTheRippchen schrieb:
Den Grafikkarten geht grundsätzlich die Rechenleistung aus, bevor der VRAM limitiert.
Ist ja auch meistens so.
 
lowrider20 schrieb:
Warum gabs das nicht bei CPUs
Wirf mal einen Blick in OEM Kisten aus der Zeit.

Ich behaupte einfach mal ganz frech, dass Unternehmen an der Spitze der Computertechnik auch damals mehr wussten als du. Du sitzt jetzt hier und lässt lockere Sprüche ab. So hättest du doch damals die gesamte Industrie umkrempeln können, oder liegst du vielleicht doch falsch?

Und weiter will ich meine Zeit mit dir nicht verschwenden.
 
Powl_0 schrieb:
Du hast scheinbar keine Ahnung wie ein Entwicklungsprozess abläuft! Das beeinflusst nicht EINER (außer es ist Elon Musk).
Aber man sieht ja, wie dir die Argumente ausgehen, warum man unbedingt leistungsschwache Grafikkarten mit einem Radiallüfter bestücken mußte und CPUs nicht. Null Ahnung von DAMALS der Junge.
 
Als Jugendlicher träumte ich immer von so einem Setup. Die Berichte die ich damals über Mikroruckler las drangen damals gar nicht zu mir vor ich sah nur die Benchmark-Diagrame und dachte mir immer "ach, die stellen sich doch alle nur an! Wen interessieren denn diese Mikroruckler?". Rückblickend bin ich froh, damals nicht die Kohle dafür gehabt zu haben, glücklich wäre ich damit nicht geworden. Mikroruckler empfinde ich als eines der nervigsten Phänomene beim PC-Gaming überhaupt.
Leider habe ich bei DLSS und FSR bzw. bei Frame Generation ähnlige Erfahrungen bzw. eine ähnlich Einstellung. Jede Abweichung, jedes kurze Zittern und Flackern oder auch einfach Artefakte trüben bei mir einfach den Spielspaß, weswegen ich möglichst darauf verzichte etwas davon zu verwenden, wenn nicht unbedingt nötig. Mir ist klar, dass sich über die Jahre einiges getan hat und vermutlich ist das kaum noch ein Problem, zumindest waren meine letzten paar Erfahrungen damit durchweg positiv aber ein richtiger "Fan" dieser Technologie bin ich noch nicht geworden.
 
Zurück
Oben