Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: Asus frankensteinte zwei Radeon HD 3850 auf ein PCB
@anthony274
ASUS Crosshair im Dezember 2006 gekauft 199.- €
ASUS Crosshair im November 2022 gekauft 729.- €
Beide jeweils absolute High End Boards zu ihrer Zeit, aber heutzutage soviel eigentlich unnötiger Scheiß auf den Boards, dass die Preise durch die Decke sind. Trotzdem ein geiles Board das X670E Hero.
Edit:
grade nachgeschaut, der FX-62 den ich auf dem Crosshair hatte hat damals aber auch schon 649.- € gekostet, dagegen ist der R9 7950X ein Schnapper.
Kummulierte Inflation für 2008-2023 liegt bei knapp 32%, also die 250€ wären heute etwa 330€. Man sollte aber fairerweise noch mit einberechnen, dass auch die Kosten für den Hersteller gestiegen sind. Aber auf eine Steigerung von 400% dürfte man auch dann nicht kommen.
Dir ist sicher klar, dass du Äpfel mit Eiern verwechselst?
Du kannst eine Inflation nur global betrachten, einzeln auf ein Produkt kannst höchstens anhand der Bruttomarge erkennen wie gierig Nvidia geworden ist, und dass der Aufwand heute wesentlich größer als vor Anno dazumal ist.
Ja, Energiesparmaßnahmen oder sowas wie dynamische Taktraten/Boosts usw. waren da erst im kommen.
Ich weiß noch, damals hat mein PC im Idle über 100 Watt aus der Dose gezogen. Meine 8800 GTS hatte im Idle auch schon 70 Grad...
Die Kühllösungen waren auch ein Witz im Vergleich zu heute. Die Kühler waren 1/3 so groß und die Lüfter mickrig (sieht man ja am Bild in der News, das war schon das beste was es gab, die mittelklasse war entsprechend noch viel schlechter ausgestattet)
Aber gut, wenn man noch weiter zurück geht, in den frühen 2000ern mussten GPUs auch noch mit Kühlkörpern und Lüftern auskommen, die man heute wohl eher auf einem Mainboard finden würde. Wenn noch weiter zurück geht, dann war es im Elektronikbereich ja an sich auch schon etwas "besonderes" wenn man eine Komponente überhaupt aktiv kühlen musste. Sowas galt in den Anfängen als ziemlich hochgezüchteter Chip.
Dass man da irgendwann mal hunderte Watt durch einen kleinen Chip jagen könnte hätte sich vor 40 Jahren wahrscheinlich auch niemand vorstellen können. Aber so steigert sich das eben im Laufe der Jahre allmählich.
Mal sehen wo das noch endet...
Dass wir heute bei Kühllösungen angekommen sind, die für 600W ausgelegt sind, "nur" 250-350W abführen müssen und leiser sind, als ein damaliger PC ohne Grafikkarte. (CPU Lüfter und HDDs haben ja auch Lärm gemacht) ist schon ne positive Entwicklung. Zumindest für meine Nerven .
Ach was, sei nicht so empfindlich. Meine Waschmaschine hat auf 61dB beim Schleudern, da beschwert sich auch keiner... Die Karte war nur ein wenig lauter
Ergänzung ()
Mimir schrieb:
Ja, Energiesparmaßnahmen oder sowas wie dynamische Taktraten/Boosts usw. waren da erst im kommen.
Quatsch. AMD hatte das seit dem Athlon 64, hieß cool'n'quiet. Im Idle nur 800 MHz. Mit manueller Regelung lief er bei mir mit 400MHz. Da konnte man sehr sparsam den Rechner betreiben. Intel kam erst Jahre später mit einer solchen Funktion um die Ecke
Weil sie High-End-Karten waren, die bis zur GTX280 keinen richtigen Nachfolger bekommen haben, die 9800GX2 vielleicht ausgenommen.
Die 8800GTX hatte eine UVP von 600€, die 9800GTX eine von 300€. Die 9800GTX war nur ein Rebrand der 8800GTS 512 und hatte "nur" den G92, eine GPU der "Performance-Klasse", die aber einfach sehr gut war.
Das wäre so, als würde nVidia jetzt eine 4075 oder so zum Preis einer 4070 rausbringen, die aber die Leistung einer 4090 hat und dabei noch effizienter ist und sie danach einfach in 5090 umbenennen und so weiterverkaufen.
Zum Thema muss man wohl nicht viel sagen... Totgeburt. Mit den ganzen Bastellösungen der Hersteller war es zwar ne spannende Zeit, aber wirklich viel hat's dem Kunden ja nicht gebracht.
Gab doch auch mal von irgendeinem Hersteller quasi eine HD3850X3 mit MXM-Modulen, oder? Hat aber glaube ich nie den Markt erreicht...
Ich fand damals schon meine 8800 GTX zu laut, sowas wäre mir nie in den Rechner gekommen. Kann mich noch gut an die 5800 Ultra erinnern, ich kannte damals nur Nvidia, hab mich so auf die Karte gefreut, eingebaut und dann nur gewartet ob der Rechner abhebt so laut war das Teil.
Hab die dann schnell verkauft und mir eine 9700 Pro gegönnt, geile Karte gewesen.
Kann mir vorstellen das es für die Hersteller ein interessantes Feld war. 2x Mittelklasse Chips werden billiger im Einkauf gewesen sein / besser verfügbar als 1x High-End.
Dem Kunden wurde erzählt, 2x 65% Leistung (in Bezug auf die schnellste Single-GPU) sind ja dann 130% insgesamt und das Experiment konnte beginnen.
Leider war das Produkt dann doch so nachteilig, das kein Marketing der Welt das retten konnte. Zumal eine schnellere Single-GPU billiger eingepreist war (hat ja nur "100% Leistung statt 130%).
Tja, die Realität kann grausam sein.
Interessant wie viele sich hier über die lauten Lüfter echauffieren
Das war "früher" ganz normal. Da war schlicht nix geregelt.
Angefangen hat alles einmal mit ein Paar Lüftungsschlitzen im Gehäuse zur "Kühlung". Mit steigender Leistung+Abwärme kamen zuerst passive Kühlkörper (z.B. auf einigen Voodoo 2 Karten vertreten) und irgendwann dann die Lüfter. Die wurden dann immer größer und Leistungsstärker und lauter. Wirklich leise Lüfter gab es praktisch nie. Mit dem Aufkommen von Casemodding (Interesse für leise Lüfter am Markt) und der weiter steigenden Abwärme hat man dann irgendwann angefangen zumindest leisere Lüfter/ Kühler mal anzubieten und die bis dahin übliche Praxis "Oh das wird aber heiß. Naja, bisl größeren Alublock drauf und nen größeren Deltalüfter - passt." Mal zu überdenken. Der Rest ist bekannt.
Mein erstes PC Teil welches zumindest eine (schlechte) Steuerung des Lüfters, abhängig von der Last, bot war übrigens ein Netzteil von Enermax.
Übrigens kann man noch heute, zumindest im Sommer, sehr laute Lüfter im Alltagsbetrieb hören: Geht mal zu einem Geldautomaten in eine Bank im Sommer
Quatsch. AMD hatte das seit dem Athlon 64, hieß cool'n'quiet. Im Idle nur 800 MHz. Mit manueller Regelung lief er bei mir mit 400MHz. Da konnte man sehr sparsam den Rechner betreiben. Intel kam erst Jahre später mit einer solchen Funktion um die Ecke
Weiß nicht, wann Intel das gebracht hat, aber bei den Core 2 war es auf jedenfalls schon standard. Trotzdem hast du damit doch gerade deine eigene Aussage entkräftet. Du sagst meine Aussage wäre quatsch, sagst dann aber selber, dass es Intel noch nicht hatte.
Ja was jetzt?
Ich sagte nur, "war im Kommen". Das impliziert doch schon, dass es wohl nicht bei jedem Hersteller Standard war und vor allem waren die Maßnahmen bei weitem nicht so ausgeklügelt und umfangreich wie heute, vor allem auf Seiten GPU.
Kann mir vorstellen das es für die Hersteller ein interessantes Feld war. 2x Mittelklasse Chips werden billiger im Einkauf gewesen sein / besser verfügbar als 1x High-End.
Die rv670 waren super verfügbar. Zudem war der Chip auf 3850 und 3870 identisch, bis auf den Takt.
Man hätte also problemlos das Referenzdesign der 3870x2 nehmen können und da die 3850er drauf klatschen. Stattdessen entwickelt Asus ein unnötiges neues PCB und stattet es mit dem schlechtesten Kühler (Lautstärketechnisch) gesehen aus. Bzw verkackt die Lüftersteuerung.
Was die Leute bei Asus da geritten hat, wissen sie wohl selbst nicht.
Aber das zog sich von der Zeit aus danach über viele Jahre hin, dass ASUS bei AMD-Karten fast immer irgendwas am Kühler mies machte. Entweder viel zu laut, oder man baute einen Kühler von einem anderen Nvidia-Design einfach auf ein AMD-Board, welcher dann nicht passte und ein Teil der Heatpipes neben dem Chip lag, somit null funktionierte.
Man kann da bei der Konsequenz eigentlich nur Absicht vermuten, um AMD-Karten beim Kunden in ein schlechtes Licht zu rücken. Wenn in Erinnerung bleibt, dass "die Radeon" heiß und laut war, dann wird die nächste eine Nvidia. So zumindest die Denke bei vielen. Der Grafikchip kann nur nichts dafür, wenn der Hersteller der Grafikkarte einfach Müll produziert.
Für mich ist ASUS mittlerweile ein rotes Tuch. Zum einen wegen dieses Geschäftsgebarens, zum anderen weil ich noch nie soviele Probleme und Frickelei hatte, wie mit den ganzen ASUS-Boards die ich hatte oder verbaut habe. Irgendwann wurds mir dann endgültig zu blöd und ich hab Gigabyte ausprobiert. Das war wie eine Offenbarung, wie einfach und gut Mainboards sein können.
Bei der AM4-Plattform bin ich dann aber auf MSi umgestiegen, weil mich die Gigabyte nicht überzeugt haben.
Der Support bei Gigabyte ist hervorragend (vorallem als Geschäftskunde). MSI ist ein Graus. Bis heute können sie mir nicht erklären, warum in meinem BIOS alle paar Sekunden ein Piepston kommt und die Maus währenddessen einfriert. Es gingen sicherlich 20 E-Mails hin und her mit einer dümmeren Antwort als der nächsten und die angebliche Anfrage des Supports nach Asien wurde nie beantwortet. (Mittlerweile habe ich das selbst herausgefunden: bei etwas über 50Grad Idle, was man mit dem Boxer-Kühler nunmal hat, kommt dieser Piepston wohl als Temperaturwarnung. Total unsinnig. Seit einem Kühlerwechsel und idle bei guten 30 Grad ist das Problem verschwunden)
Ergänzung ()
Mimir schrieb:
Trotzdem hast du damit doch gerade deine eigene Aussage entkräftet. Du sagst meine Aussage wäre quatsch, sagst dann aber selber, dass es Intel noch nicht hatte.
Ja was jetzt?
Nö. Du sagst es war da erst im kommen. Das gab's aber schon viele, viele Jahre im Desktop bei AMD. Intel hatte eine ähnliche Technik etwas später für Notebooks in der Core-Architektur gebracht.
Im Desktop setzte Intel noch auf die Schrottige Pentium/Netburst-Architektur.
Wer damals Intel kaufte, war sowieso Lost
Ergänzung ()
Mimir schrieb:
Ich sagte nur, "war im Kommen". Das impliziert doch schon, dass es wohl nicht bei jedem Hersteller Standard war
Kommt halt drauf an, in welcher Welt man unterwegs war. Als AMD-User kannte man das bereits seit 2003, die 3870 kam Ende 2007. Aus meiner Sicht war das also bereits eine sehr etablierte Technik.
Intel brachte core 2 für den Desktop 2006, also etwa 1,5 Jahre vor der RV670 raus.
Entsprechend war das damals also "Standard" und nicht mehr im kommen.
Dass man es danach immer weiterentwickelt hat, ist ja klar.
Aber du würdest auch nicht sagen: das Automobil ist gerade im kommen, weil es sich ja noch weiterentwickelt
Nö. Du sagst es war da erst im kommen. Das gab's aber schon viele, viele Jahre im Desktop bei AMD. Intel hatte eine ähnliche Technik etwas später für Notebooks in der Core-Architektur gebracht.
Im Desktop setzte Intel noch auf die Schrottige Pentium/Netburst-Architektur.
Wer damals Intel kaufte, war sowieso Lost
Ich seh ehrlich gesagt immernoch nicht, an welcher Stelle ich dir wiedersprechen würde.
Etabliert ist etwas erst, wenn es sich im Markt verbreitet, durchsetzt und nicht wenn es ein Hersteller quasi exklusiv anbietet...
Dann wäre Echtzeit Raytracing in Spielen heute auch eine etablierte Technik? Nvidia bietet das seit 2018 an. Würde ich z.B. so nicht sagen. Ist für mich noch "im Kommen" weil nur ein kleiner Teil der Spielereleases überhaupt die Technik nutzt.
Lass gut sein
Hat mich schon immer gestört.
Damals es keine SSD gab und die HDD stehts auf sich aufmerksam machen musste. Unter last ging es damals nicht wirklich leise mit Lukü, war damals nur mit Wakü unterwegs auch wenn die Pumpen auch immer auf sich aufmerksam gemacht haben, es war aber erträglicher als mit Luftkühlung.
Alles natürlich kein Vergleich zu heute, heute bekommt man selbst eine 4090 mit Luftkühlung sehr leise gekühlt.
Finds immer noch erstaunlich, wenn ich in meinen Rechner schau und da die 4090 Suprim X seh, welche nochmal größer ist als die 3090 Suprim X und dann mir die Temps ansehe. Das war damals mit High End Karten undenkbar, die 9700 Pro fand ich im Vergleich zu den anderen Karten damals als leise, dann hab ich mir eine 7900 GTX gegönnt, welche einen super Lüfter hatte, in jeder Situation leise, die 8800 GTX war genau das Gegenteil, leider war die Leistung zu geil und ich hab die Karte dann Wassergekühlt.
Da bin ich doch echt froh das sich im Bereich Kühllösung so viel getan hat in den letzten Jahren. Moderne Desktop Systeme sind auch unter Last ziemlich leise und selbst Gaming Notebooks können bei zocken angenehm leise bleiben wenn man an Einstellungen etwas rumspielt und FPS begrenzt.
Hab letztens einen PC mit HD4670 (mit so nem aggressiven Mini Lüfter) in Betrieb genommen.
Das Teil hat sich angehört als ob es sich gleich nach unten Fräsen wollen würde
Echt krank. Bin mal gespannt, bin grad an einem Retro PC mit C2D und einem aus der ersten Core-i Serie basteln
-=[CrysiS]=- schrieb:
Stark wie gut da die 8800GTX und Ultra mit an der Spitze waren
G80 ist bis heute eine der legendärsten Karten
Meine 8800GTX wird demnächst im Retro PC wieder zum leben erweckt unter XP+Vista.
Das waren Zeiten, Nostalgiefaktor over 9000
Irgendwie hab ich die Zeiten damals anders in Erinnerung, umso beeindruckender zu sehen, wie lang sich der G80 behaupten konnte, ist ja fast so wie bei der GTX1000er Reihe, auch wenn die sich am Ende vermutlich rein vom Zeitraum länger gehalten hat.
Painkiller72 schrieb:
Was ich immer noch sehr amüsant finde, das auch heutige Platinen immer noch auf die Möglichkeiten von zwei Grakas hinweisen......
Lustigerweise hab ich letzte Woche fürn Kumpel einen neuen PC mit 7900XT und 5700X gebaut und auf dem B550 Board stand fett "Crossfire" und ich dachte mir nur "Dafuq?!".
Ochja die Zeiten damals.
Wild und Bastelfreudig.
Zeiten zu denen Hardware effektiv auch für jüngere mit weniger Geld erschwinglich war.
Heute kann man sich Hardware die was leistet ohne Zweitjob gefühlt ja nicht mehr leisten
Irgendwie schade, dass sie das mit MultiGPU nicht hinbekommen haben, das Konzept war generell ganz passabel.
Das letzte M-GPU Gespann das ich hatte war eines aus 2x GTX1080, das war so geil, dass es keine 5 Tage im System verbracht hat