News Im Test vor 15 Jahren: Die GeForce FX 5900 Ultra begrub den Föhn

M6500 schrieb:
Fehler gab es auf beiden Seiten, keine Frage, aber dass die nVidia so viel besser waren ist und war ein Gerücht, sonst hätte es bei vielen nicht problemlos funktioniert.

leider war das zu der zeit kein gerücht, sondern bittere realität. ati hatte jahrelang probleme, dx in ihren treiber sauber zu implementieren. bei den aaa zeug hat man das natürlich nicht so gemerkt, weil sowohl die studios/publisher wie auch ati zugesehen haben, das die sauber liefen. auch nvidia hatte damit zu kämpfen, nur war das bei denen auf einen anderen level.
 
M6500 schrieb:
Also ich hatte damals mit meiner 9600er keine großen Probleme, aber das damals noch die Treiber auf beiden Seiten nicht Gold waren ist ja bekannt.
Aber schön wenn wieder über die Treiber hergezogen wird und man selber gar keine Ati hatte sondern blind die nV gekauft hat und sich mit dem Argument die eigene Karte schön geredet hat, genau deshalb ist der GPU-Markt heute auch so kaputt.

Keine Ahnung was du meinst. Ich hatte diverse ATis, u.a. Rage 128 Pro, 8500, X800, X850XT. Bei den beiden Letzteren hat nicht einmal das Controlpanel funktioniert. Bei der FX und den vorherigen Ti hat der Treiber so funktioniert wie er sollte, da brauch ich mir nichts schön zu reden.

Heute habe ich übrigens eine AMD. Funktioniert einwandfrei.
 
ab catalyst 3.0 wurde es treibermäßig zunehmend besser. zu 9700 pro zeiten waren die treiber zum spielen absolut in ordnung. mag sein das einige einstellungen kleinere probleme machten. beim zocken war aber alles supi und ich habe gute erinnerung daran.

nvidia hatte aber bei z.b. farcry damals einfach die shader durch nen update von 2.0 auf 1.4 gesengt um spielbare frames zu erreichen. hitzeflimmern, dx9 wasserqualität und glänzende oberflächen waren dann weg. das meinte ich mit treibergeschichten und farcry sah aus wie von vorgestern.

mich konnte nvidia erst mit dem g80 2006 wieder überzeugen und die karte habe ich mir auch damals gekauft.
 
  • Gefällt mir
Reaktionen: CMDCake
Immer wieder schön die alten Karten (; und meine rennt wie ne 1
 

Anhänge

  • 20180624_002855.jpg
    20180624_002855.jpg
    944,3 KB · Aufrufe: 591
  • 20180624_002907.jpg
    20180624_002907.jpg
    1.010,2 KB · Aufrufe: 572
  • Gefällt mir
Reaktionen: Pamoli
GTX 5900 … geht's hier um die Endstufe ausm HiFi Bereich? Ich konnte keine so benannte Graka finden, daher is entweder die Überschrift gaga oder das Thema wurde vom Verfasser eindeutig verfehlt. Dafür gibt's doch von den Mods eigentlich immer nett gemeinte Grüße. Hier nicht?
 
Luxmanl525 schrieb:
Aber zuvor schon hatte AMD den richtigen Zug bei der 4000er Reihe gemacht, mit dem sie nämlich nicht den High-End, sondern den Mittelklasse-Bereich bedienten. Was ein richtig genialer Zug damals war und was auch belohnt wurde.
Wo bitte wurde es belohnt? Die 4850 und 4870 waren einfach massiv den GTX 2xx von Nvidia überlegen und was ist passiert?
Die HD 4870 war mehr als 50% über 300€ günstiger als die 280 zum Release, war dabei aber nur ~10% langsamer.
Die HD 4850 war ~50% günstiger als die 260 zum Release, war dabei aber nur ~5% langsamer.
Die GTX 260 war 100€ teurer als die HD 4870 und war ~15% langsamer.

Ganz zu schweigen von der Hitzeentwicklung und Verbrauch beim dem die Nvidia Fanboys bis zur GTX 6xx ganz stark ihre Schnäbel gehalten haben.

Trotz all dem hat sich die GTX 2xx Serie unglaublich, unfair mehr verkauft als die eindeutig besseren ATI Karten.
Wo wurde es denn jetzt genau belohnt, ich sehe es leider nicht. ATI hat mit der 4000er Serie Verlust gemacht, während Nvidia sich dumm und dämmlich Verdient hat.

Also du bist entweder ein Troll oder hast ein sehr verzerrtes Wunschbild von der Vergangenheit!
 
  • Gefällt mir
Reaktionen: CMDCake und Suteki
HornyNinja69 schrieb:
Ganz zu schweigen von der Hitzeentwicklung und Verbrauch beim dem die Nvidia Fanboys bis zur GTX 6xx ganz stark ihre Schnäbel gehalten haben.

Trotz all dem hat sich die GTX 2xx Serie unglaublich, unfair mehr verkauft als die eindeutig besseren ATI Karten.
Wo wurde es denn jetzt genau belohnt, ich sehe es leider nicht. ATI hat mit der 4000er Serie Verlust gemacht, während Nvidia sich dumm und dämmlich Verdient hat.

1. Mir ist als MultiGPU-Fan und ausreizen der maximalen Leistung niemals die Idee nach Effizienz gekommen. Ich habe auch niemals meinen Mund (du magst einen Schnabel haben, andere wie ich haben Münder) gehalten. Ich habe durchaus gerne und bereitwillig mitgeteilt, dass mein TripleSLI mit einem 1kW Netzteil versorgt wird.
Aktuell betreibe ich noch einen i7-920 mit 24GB RAM und zwei niedlichen GTX590 von Zotac. CPU wird je nach Verfügbarkeit noch bis zu einem 970er aufgerüstet, da das MB in dem Kasten kein OC kann.

2. das "besser" an ATI karten mußt du mir dann mal definieren. ich habe auch von AMD CrossfireX genutzt (nicht CrossFire) und es war mit nVidias Pendant nicht vergleichbar. Mehrere "Versuche" wieder bei AMD zu landen, habe ich aufgegeben, bis dann irgendwann mal mit der 7990 Betatreiber auftauchten, die wohl endlich mit dem Microruckeln ein Ende machen sollten. Leider hatte ich mir da schon ne Riege Kepler gekauft … ja genau, die vier Titans aus meiner Sig und die laufen heute noch so flink wie damals.

3. Auch, wenn die 4000er besser gewesen sein sollen als nVidias "Krüppel", sie haben die Leistungskrone nie wirklich wieder zurückerobert und damit die Chance verspielt, dem Kontrahenten am Markt die Rücklichter zu zeigen. Lautstärke war da wohl auch ein Punkt … auch der Nagel im Sarg der FX5900er … Brüllwürfel
 
Love Guru schrieb:
3. Auch, wenn die 4000er besser gewesen sein sollen als nVidias "Krüppel", sie haben die Leistungskrone nie wirklich wieder zurückerobert und damit die Chance verspielt, dem Kontrahenten am Markt die Rücklichter zu zeigen. Lautstärke war da wohl auch ein Punkt … auch der Nagel im Sarg der FX5900er … Brüllwürfel
1. Schön das du nicht abstreitest ein Nvidia Fanboy zu sein, dies habe ich aus deinem Beitrag sofort bemerkt.

2. Du bist ein "MultiGPU-Fan" und bist somit eine Nische im High-End Nischenmarkt. DAS Dual oder Quad GPUs Setups exorbitant viel Strom verbrauchen ist jedem klar und sollte bei den Anschaffungskosten auch keine Rolle spielen. Deine Argumente vertreten nunmal nicht die mehrheit der Nvidia nutzer und somit kannst du auch nicht wirklich für deine Kameraden sprechen.

3. Das "besser" bezog sich auf die 4000er Serie von ATI. Der RV770 war ein viel fortschrittlicherer, modernerer und besserer Chip als alles was Nvidia hatte. Bei weniger als halber DIE größe kam er sehr nah an die GTX 280 ran, welche doppelt so Teuer war. Die GTX 260 war komplett sinnlos, da sie nichtmal über den Preis nehmen konnte.
Deshalb hat Nvidia auch die Core Edition rausgehauen.
3.1 Und schon wieder Multi GPU, ich bestreite nicht, dass AMD Microruckler mit Dual oder Quad GPUs hatte. Gleiches gilt aber für Nvidia! Ich habe mal vor ein paar Jahren auf einem dual GTX780 System gespielt und ich konnte die Microruckler deutlich wahrnehmen, anscheinend bist du und mein Freund resistenter dagegen.
Es war zwar nicht so schlimm wie Frametime Spikes die von einer CPU verursacht werden, aber angesichts des Geldes das man fürn paar lächerliche Spielchen hingeblättert hat, eine totale Verarsche!
Als ob man von einem Porsche in einen Bugatti steigt, bei dem der Automat die Gänge wie ein Fahrschüler schaltet.

4. Die 4000er ATIs waren besser.
sie haben die Leistungskrone nie wirklich wieder zurückerobert und damit die Chance verspielt
So so und was ist mit den HD 5000ern? Die GTX 285 konnte nur gegen die 5850 konkurrieren. Die HD 5870 war ohne Zweifel schneller als die GTX 285!
Erst mit dem Atomreaktor Fermi hatte Nvidia wieder die Führung, die GTX 480 war aber auch nur ~10% schneller als die 5870, mal mehr mal weniger und das bei doppeltem Stromverbrauch über den die Nvidia Fanboys ja so gerne mit ihrem "Mund" reden.
Hast wohl gedacht, dass sich keiner mehr daran errinert oder sich die mühe macht nachzuschauen wa?

PS: warum keine Multi GTX 480? Keine Brandschutzversicherung?:rolleyes:
 
Punkt 1: ich bin nicht DEIN Freund, das will ich ganz klar festhalten.

Punkt 2: Wenn man MultiGPU nicht beherrscht, dann sollte man es als a) Hersteller nicht implementieren und b) als (Nicht-)Nutzer nicht drüber schreiben!

Punkt 3: Ich bin nicht resistent gegen µRuckler, jedoch habe ich eine sehr einfache Lösung gefunden, die heutzutage und auch schon vor Jahrzehnten eingesetzt wurde, um Bildberechnung und Bilddarstellung aneinander zu binden: Vsync … damit ist jeder in der Lage, das Thema µRuckler ad acta zu legen und die dann freiwerdende GPU-Leistung in mehr Details oder einfach in mehr Auflösung zu stecken.

bezüglich GTX480: die habe ich nie besessen. Ich habe eine Ewigkeit mit meinen 8800GTX Triple-SLIs gelebt, bis ich 3 GTX285 nachgeworfen bekam und dann hab ich mir die Titans gekauft. Die beiden 590er sind da eher aus Langer Weile besorgt worden, da ich ein anderes Hobby aufgab und dadurch das Geld einfach übrig ist!

Ich kauf mir halt nen neuen PC, wenn ich der Meinung bin, dass es wirklich nicht mehr geht, aber dann isses halt auch wieder was von ganz hinten im Regal. Und die Kiste wird dann so aufmunitioniert, dass ich wieder in paar Jahre durchhalte. Die Titans fliegen demnächst raus und es kommt mal wieder was neues rein, und da ich ein nVidia Fanboy bin, warte ich auf die neue Kiste von AMD, damit ich später wieder solchem Getrolle ausgesetzt bin.

Wenn ich dafür betrollt werde, weil ich mir seltener, aber dafür ordentlich was kaufe, dann kann ich mit dem Neid anderer leben.

Ich habe eine Hausratversicherung und eine private Haftpflichtversicherung, auch für Brände bzw. eher gegen deren Folgen und Nachwirkungen.
 
Hallo zusammen,

@ HornyNinja69

Wo bitte wurde es belohnt? Die 4850 und 4870 waren einfach massiv den GTX 2xx von Nvidia überlegen und was ist passiert?

Die besagten Karten waren in Punkto Preis- / Leistungsverhältnis den von dir genannten GTX 2xx Massiv Überlegen. Sonst aber so gut wie nichts. Aber das war kein Beinbruch, denn ATI hatte diese GPU mit genau dieser Absicht solch in dem besagten Segment Platziert.

Trotz all dem hat sich die GTX 2xx Serie unglaublich, unfair mehr verkauft als die eindeutig besseren ATI Karten.

Wie bitte? Was ist Unfair? Dies liegt noch immer im Auge des Betrachters, speziell in diesem besagten Zusammenhang, den du hier herstellst. Es hat eben jeder eine andere Gewichtung, genau deshalb hat es eben auch Käufer der GTX 2xxx Serie gegeben. So einfach ist das.

Und wenn du schon von Fairneß anfängst, Fair war von denen keiner der Beiden. Davon kannst du dich ganz leicht mittels dieses Links Überzeugen, da geht es um Preisabsprachen der beiden "Kontrahenten", na ja, Kontrahenten sind ja nur die Farbenblinden Fanboys die den Firmen regelrecht auf den Leim Gehen:

https://www.heise.de/newsticker/mel...icher-Preisabsprachen-vor-Gericht-187553.html

Wo wurde es denn jetzt genau belohnt, ich sehe es leider nicht. ATI hat mit der 4000er Serie Verlust gemacht, während Nvidia sich dumm und dämmlich Verdient hat.

Wo bitte hat ATI mit der 4000er Reihe Verlust gemacht? Dazu hätte ich gerne Zahlen. Meine Kenntnis ist die, daß AMD mit der 3000er Reihe, sowie im besonderen der 4000er Reihe, wieder auf die Füße kam, nachdem sie mit der 2900er komplett Schiffbruch erlitten. Die 2900er Reihe hatte einen Massiven Schag ins Kontor für AMD seinerzeit bedeutet.

Du scheinst mir im übrigen einer dieser Farbenblinden Fanboys zu sein, die den besagten Firmen völlig auf den Leim gegangen sind. Dein sonstiger Kommentar als auch deine restlichen Beiträge in dieser Sache bedürfen da keiner weiteren Erörterung.

@ cleric.de

Herzlichen Dank für den von dir avisierten Link. So mußte ich erst gar nicht mehr Suchen. Hatte die Sache aber schon im Kopf.

So long.....
 
Zuletzt bearbeitet:
Love Guru & HornyNinja, das erinnert mich auch, wie der Artikel, an die guten alten Zeiten..lach. :D
Wenn Fanboys sich bis auf's Onlinemesser hauen..lasst es doch einfach.
Btw hatte ich beide genannten Karten und war sowohl mit der 4850 zum zocken als auch mit der 285 ( DC crunching ) zufrieden. Mit CF war ich äußerst unzufrieden, da selbst zwei xtx nicht in der Lage waren in Oblivion sämtliche Szenarien ruckelfrei darzustellen.
Was den Artikel betrifft, hatte meine damalige 5900 ( gab es auch ohne Zusatzbezeichnung ) auch nie wirklich überzeugt, aber als Fanboy hielt ich die Stange und ertrug die Ati Überlegenheit. Die x850vivo mit Biosmod war damit auch tatsächlich meine erste Ati und ich war schon begeistert von der Leistung.
Ich meine mich daran zu erinnern, das nVidia Microsoft mit ihrer 32Bit Genauigkeit in DX9 zwingen wollte, zumindest stark davon ausging das diese kommen würde, Microsoft jedoch bei ihrem Plan blieb und DX9 mit 24Bit Genauigkeit raus brachte, womit Ati genau in den Spezifikationen blieb und der Chip damals eben keinerlei Probleme hatte. NVidia musste ja software seitig reagieren, was zu deutlichen Leistungsverlusten führte. Ich glaube so war das damals.
Kann es sein das nVidia eben genau deswegen softwareseitig die CPU ausgebremst hatte um 32Bit in 24Bit umzurechnen und damit nicht mehr genug Rechenleistung für die 3D Anwendung übrig blieb? Der Gedanke kam mir gerade weil Mantle ja auch als eigene LowLevel Api ja auch teilweise DX deutlich überlegen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: donend und CS74ES
Nana Selbst eine 8800 Ultra konnte es in manchen Titeln mit den 48x0 aufnehmen , wenn dem unkundigen Kunden die kastrierte 512Mb Version verkauft wurde, erst recht, farcry 2 war glaub einer der Titel ,
Aber darum geht's nicht, hab die 5xx0 Karten damals lang verfolgt, nur solange die Titel meist alle mit einer Gf4mx440 auf 1024*768 und dx7 Spielbar waren
 
@ol'Dirty

Ich finds immer witzig, wenn gewisse Szenarien zitiert werden, wo dann doch die eine oder andere besser ist. Am Ende sagt immer der Preis, wo die Reise hingeht, der Rest sind nur Benchmarkwerte.
Ich habe lange NV gekauft und hab mich nach 10 Jahren mal wieder überreden lassen, eine AMD zu kaufen. Eigentlich wollte ich eine GTX 1060, hab mich aber dann wegen den 8 GB VRAM für die RX480 entschieden, dachte ich brauche die. Was soll ich sagen? Läuft, aber weder besonders gut noch schlecht. Ich konnte bisher alles spielen was ich wollte, also ist mir der Rest pimpe.
 
Love Guru schrieb:
Punkt 3: Ich bin nicht resistent gegen µRuckler, jedoch habe ich eine sehr einfache Lösung gefunden, die heutzutage und auch schon vor Jahrzehnten eingesetzt wurde, um Bildberechnung und Bilddarstellung aneinander zu binden: Vsync … damit ist jeder in der Lage, das Thema µRuckler ad acta zu legen und die dann freiwerdende GPU-Leistung in mehr Details oder einfach in mehr Auflösung zu stecken.
Gerade dies kann Mircostuttering auslösen. Damals enthielten viele Spiele ein als "Vsync" deklarierten Framelimiter und nur damit kann man Microstuttering eigentlich fast zu 100% ausschließen. Beides zusammen funktionierte nicht. Das heißt man musste diese Option im Spiel abschalten und forcierte sie über den Treiber, soweit dies möglich ist. Mal abgesehen davon das Spiele auch ein festes fps Limit mitbringen können.

Bei 4 Titanen wirst Du ständig im CPU Limit hängen (was genauso Microstuttering auslösen kann) und früher hing der glattere Verlauf der Frametimes bei MGPU von den Profilen ab die in den Treibern hinterlegt waren. Da hatte Nvidia tatsächlich keine Vorteile. Stuttering gab es auf beiden Seiten.
Ergänzung ()

HornyNinja69 schrieb:
So so und was ist mit den HD 5000ern? Die GTX 285 konnte nur gegen die 5850 konkurrieren. Die HD 5870 war ohne Zweifel schneller als die GTX 285!
ATI/AMD machte damals den Fehler zu wenig Fertigungskapazitäten zu bestellen und den Preis niedrig anzusetzen. Das führte zum schnellen Ausverkauf von Cypress (RV870). Man war also gezwungen Nvidia zu kaufen wenn man etwas neues wollte, obwohl Cypress schon DX11 Support mitbrachte, aber eben kaum verfügbar war. Siehe gleiches bei Fiji.

Terascale2 war damals sicher keine schlechte Architektur und in bestimmten Bereichen wie eben auch DX-FL Nvidia voraus.
Ergänzung ()

ol'Dirty schrieb:
Love Guru & HornyNinja, das erinnert mich auch, wie der Artikel, an die guten alten Zeiten..lach. :D
Btw hatte ich beide genannten Karten und war sowohl mit der 4850 zum zocken als auch mit der 285 ( DC crunching ) zufrieden.
Hatte die HD5870 und 275, nur um zu testen. Da gabs ja sogar Versionen die Nvidia als GTX PhysX Edition deklarierte.

Zuletzt war eine einzelne 5870 mit speratem PhysX Beschleuniger schneller, die Nvidia schnell abschaffte. SLI und Crossfire brachten damals keine so hohen Zuwächse bei den fps, wie das heute der Fall ist. Alles andere war eher etwas für Puristen, ich wollte die höchstmögliche Leistung aus einer Karte quetschen.:smokin:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: HornyNinja69
Die Voodoo 5 5500 hatte ich mir 2000 für 720DM gekauft, war schon eine tolle Karte, Bildqualität war Dank gutes Antialiasing richtig gut, leider konnte sie kein T&L (Transform and Lighting). daß zu der Zeit vermehrt in Direct 3D von Spieleentwickler verwendet wurde, bei der Voodoo mußte dies die CPU berechnen. Dafür war auch die Bildquali in 2D besser als bei Ati oder Nvidia, habe leider meine Voodoo5 5500 verkauft und mir eine Geforce 3 geholt, heute habe ich noch in einen alten Rechner eine Voodoo4 4500 PCI.

Die Geforce 5800 Ultra und die 5900 Ultra habe ich übersprungen, bzw. hatte ich zu der Zeit eine Ati 9700 Pro, die eine GeForce4 Ti4600 abgelöst hatte.
 
Habe damals mit Voodoo2 SLI Kabelpeitsche Unreal auf einem 15 Zoll (glaube CRT) gezockt, unglaublich...das war wie eine Erlösung. Traurig wie es 3dfx ergangen ist, sie werden immer in meiner Erinnerung bleiben, die alten 3d Pioniere aus vergangenen Zeiten. Matrox war damals auch einen GPU Größe, später verbauten sie AMD GPUs.
 
Das Video hier zur Lautstärke der 5800 fand ich immer gut :)

 
Als Erinnerungsstücke habe ich mir von Voodoo einiges aufgehoben:

- Creative 3D Blaster Voodoo² 12MB EDO-RAM
- Creative 3D Blaster Voodoo Banshee PCI 16MB SD-RAM
- Creative 3D Blaster Voodoo Banshee AGP 16MB SG-RAM

(Hatte 2 Banshee PCI, leider ist eine irgendwo verschwunden, so hatte ich ne Weile unter NT4 ein Triplemonitor Setup für Quake, war schon fett.)
Ergänzung ()

donend schrieb:
Bei 4 Titanen wirst Du ständig im CPU Limit hängen (was genauso Microstuttering auslösen kann) und früher hing der glattere Verlauf der Frametimes bei MGPU von den Profilen ab die in den Treibern hinterlegt waren. Da hatte Nvidia tatsächlich keine Vorteile. Stuttering gab es auf beiden Seiten.

Ich bestreite die Existenz von µRucklern nirgends … also kommt wieder runter und erlaubt mir meine jahrelangen Erkenntnisse abseits irgendwelcher Testlabors, die meist nur einen strikten Parcours abarbeiten, aber selten mal tagelang in eine Richtung abbiegen, um einem kleinen Phänomen auf den Grund zu gehen.

Ich habe für mich eine Lösung gefunden und dafür sogar Bestätigung bekommen. Dieses ewige Nörgeln, dass es ja eh nichts bringen würde von Leuten, die SLI und CrossFire/CrossFireX nur aus den Zeitschriften kennen, ist echt ermüdend.
 
Zuletzt bearbeitet:
Zurück
Oben