Bericht 15 Jahre Radeon: Ein Rückblick auf Grafikkarten von ATi und AMD

bin erst auf den amd/ati zug mit der 9700pro aufgesprungen. erst mit catalyst 3.0 und der 8500er wurden die roten für mich imteressant. hatte vorher immer nvidia und 3dfx.

die 9700er pro war damals der oberhammer:) da lief sogar das 2004 erschienene farcry gut und dank starken shader 2.0 sah es auch bombe aus (hitzeflimmern,wasser,spiegelungen an rohren etc.)

hatte zwischendurch mal den g80 aus dem hause nvidia. bin aber seit dem r300 eher ein roter;)
 
Mir kommt die x19xx Reihe zu schlecht weg, die haben die 79XXer Nividias aber mal ganz locker in der Pfeife geraucht und selbst Crysis war in 1280x1024 auf High gut spielbar. Auch Jahre später konnte man Spiele zocken, bei denen die Konkurrenz längst nur noch Standbilder zu Stande gebracht hat. Die Serie ist wohl allgemein etwas untergegangen weil Nvidia paar Monate später die 88er Reihe gelaunched hat. Auch die 4000er Reihe war in meinen Augen ebenbürtig zur Konkurrenz, die 4870 sogar schneller als erwartet, Nvidia musste deswegen extra die Shader der 260 erhöhen.(280 mal außen vor, aber war auch nicht der direkte Konkurrent);)
 
Meine Lieblingskarte von ATI war meine (absurd teure) X850 XT Platinum Edition aus dem Frühjahr 2005, die ich mir extra für Doom 3 gekauft hatte. 1024*768 maxed mit vierfach AA und knapp schneller als die GeForce 6800 Ultra.
 
Auch Jahre später konnte man Spiele zocken, bei denen die Konkurrenz längst nur noch Standbilder zu Stande gebracht hat.
Kein Wunder, die GF7 war ein Shaderkrüppel sonder gleichen, die hat echt nur noch einstellige FPS ausgespuckt. Eine 8800GTX war zig 1000 mal schneller.

Allgemein ist die GF7 rückblickend die schlechteste GPU Generation(AMD+NV) ever, da war sogar die HD 2900XT stark dagegen.
 
Zuletzt bearbeitet:
hab mit eine ATi Graphics Ultra+ angefangen.Danach kam alles mögliche wie die S3,elsa erazor,Voodoo,Riva tnt,usw.
Mir war es immer egal ob es nun Nvidia oder ati war.genauso wie Amd oder Intel.Für mich war es nur wichtig das ich die spiele zocken konnte.Ich fahre heut immer noch mit meine 6950 und bin zufrieden dafür das sie schon paar jahre auf den puckel hat.Die preise von damals und heute haben sich auch ganz schön verändert und man hat nicht mehr wie früher.Graka ist graka geblieben.Früher wurden die Grafikkarten auch bis ans limit aus gereizt und heut werden sie nach einem jahr schon wieder raus geschmissen.verstehen muss man es nicht weil sonst müssten sich einige auch ihre autos jedes jahr neu kaufen usw. und dadurch kann man ja auch nicht besser spielen.Der stromverbrauch wird auch immer höher obwohl man den verbrauch eigendlich niedriger setzen wollte.also die test was preis/leistung an geht sind oft zum schmunzeln.Es wird ganz selten auf den verbrauch geachtet bei den test.Würde man auf den verbrauch achten würden die test ganz anders ausfallen.Aber in allem und ganzen hat sich viel getan ob negatives oder positives.Nur irgendwann sind auch grenzen wo es dann nicht mehr weiter geht.die zeiten von damals waren sehr schön und da war man glücklich mit einer 512kb graka, an die gb hat man nicht gedacht das wir da so schnell hinkommen.Dauert auch nicht mehr lange dann sind wir bei TB.
 
Mainstream, Gamer, semi-professionell, Privatanwender...

Ich hatte auch eine Matrox Mystique mit 4GB (2GB + 2GB Erweiterungschip) als Spielekarte. Das Arbeitstier war die Matrox Millenium.
 
Meine 7950 läuft auch noch super. Von 800 auf 880 standard übertaktet, und wenn ich mal GTA V spiele macht die auch noch 1000 mit. Weiter so AMD, das wird schon.
 
Was ist an der Formulierung falsch? Sie haben sich von den "Heimanwendern" abgewandt und in den professionellen Bereich verabschiedet. Das bedeutet doch schlicht nur, dass Matrox ab da an nur noch Profikarten baute.
 
Früher war ATI noch wettbewerbsfähig. Ich hatte eine 9800 Pro. Truform war Sahne. Heute ist AMD/ATI leider nur am Ende. Schaurig was aus beiden Sparten CPU/GPU geworden ist. Missmanagement und Entlassungen trugen dazu bei. Auch der Verkauf der Fabs (Real Men have Fabs) trugen dazu bei.
 
hey, wollte mal danke sagen an die redaktion für den artikel.
bin grad am lesen der reviews der karten, (bin grad am artikel treffen der generationen -7500 bis 9800 pro) und ich bin schon den ganzen tag am schwären und schwelgen in erinnerung etc.pp.
besonders wenn ich solche sätze lese: "2*256MB Corsair XMS3000 CL2 DDR-RAM mit 2-5-3-3 Timing, gnadenlos übertaktet auf 200MHz" ;
oder auch wenn man auf einmal hersteller wie elsa leadtek tyan oder hercules zu gesicht bekommt, kommt man irgendwie schon den tränen nahe :D danke computerbase ^^
 
1999: ATi All-in-wonder mit 32mb vram. Waren damals 500€ und ein gesparter Fernseher wg. TV-Funktion :-))
 
Meine 9800SE@PRO AiW ist trotz riesigem Ersatzkühler irgendwann gestorben, als ich die wieder auseinander genommen hatte, war der Stromstecker mehr Braun statt Weiß, der alte Floppy Stecker kam mit dem Stromverbrauch nicht so recht klar.
 
Ist doch wahr. Die Gestalten die bei AMD das Sagen haben sind lächerlich. Die Su tut mir einfach nur leid. AMD, ich bin gespannt wie lange es die noch gibt.
 
Ich flame nicht ich sage die Wahrheit. Ich habe selbst AMD gekauft. Aber leider wurde der Laden mit dem Read endgültig zu Grabe getragen.
 
Wieso? Weil ich keinen Unsinn poste? Ich habe recht. Ich verpacke die Kritik aber nicht in Blumen. Leider geht es mit AMD abwärts. Ich hatte wie gesagt selbst genug AMD/ATI Produkte.

Zum Beispiel die XP Prozessoren. Das waren noch Zeiten. Oder wie gesagt 9800 Pro. Innovation und zuverlässig.
 
Tomahawk schrieb:
Was meinst du mit "Speichertechnik"? Weder AMD noch nVidia stellen Speicherchips her. Lediglich der Grafikchip kommt von nVidia bzw. von AMD. Und der Grafikchip muss bei beiden Herstellern sogar bei Fremdfirmen gefertigt werden.

Mit Speichertechnik meint er zB die erste Grafikkarte mit GDDR5, die HD4870, oder die erste Karte mit HBM, die R9 390(X).



Tomahawk schrieb:
AMD punktet halt beim Preis, technologisch relevant ist aber sowas wie Tempo pro Chipflächeneinheit oder Tempo pro Watt.
:lol:
Tja wenn Leistung/Fläche technologisch relevant ist, dann war AMD/ATI Nvidia schon IMMER überlegen. Denn man erreichte bzw übertraf die Leistung von Nvidia immer mit deutlich kleineren GPUs. Hawaii ist AMD's größte jemals entwickelte GPU, 438mm². Bei Nvidia sind ~550mm² im High End Standard. Der GM200 der Titan X ist trotz fehlender DP Einheiten ganze 601mm² groß.
So, und wenn ich nun sehe, dass der 438mm² große Hawaii (btw, 512bit Speicheranbindung ;)) zuletzt immer öfter den 551mm² großen GK110 der 780Ti schlägt, dann kann man wohl sagen, dass der AMD Chip technisch fortschrittlicher ist. Von der DP Leistung ganz zu schweigen, da braucht Nvidia 2 GK110 um mit Hawaii zu konkurrieren ;)

Der generell günstigere Preis der AMD/ATI Karten hat eben mit den günstiger (weil kleiner) zu produzierenden Chips zu tun.
 
ATI war bevor AMD die aufkaufte auf Augenhöhe mit nVidia. Da war der Marktanteil 50/50. Hab hier noch alte Gamestar Zeitschriften rumliegen. Heute sieht das ganz anders aus.

Da gabs sogar noch 3DFX. Das waren noch Zeiten!

Die 9800 Pro war ne geile Karte.
 
zeedy

Fijii wird wahrscheinlich so groß werden wie GK110 und zusätzlich noch DP Einheiten haben, sprich ca 550mm^2 werden oft geschätzt.
Im Vergleich zu GM200 kann AMD Fijii auch als DP-HPC Karte vermarkten. Gern wird immer davon ausgegangen, dass AMD weniger Margen hat. Aber mit Fijii könnten sie deutlich besser fahren, als NV mit GM200 mit einigen Enthusiasten Gamer .
Es heißt schon was, wenn PNY sich beschwert, dass GM200 nicht mal mehr "VRAM" als sein Vorgänger hat, weil der Mehrwert für Kunden eventuell nicht da ist, selbst wenn die SP höher ausfällt, als bei GK210.

Flowerpower77
Schön dass du mal AMD gekauft hat und das in deiner Welt Grund genug ist um den kompletten Markt einzuschätzen. Wenn es um die 28nm Karte geht, wird AMD aber am Ende eventuell die schnellste 28nm Karte haben die auch noch technologisch weiter ist als die Konkurrenz und AMD durch GF am Ende dann noch früher 14nm Line Up anbietet als die Konkurrenz. Ich warte schon nauf den 14nm Fijii für die Mittelklasse, denn wie groß wird der Chip 550 mm^2 im 14nm FinFet sein ? Man vergisst oft, dass Fijii, Tonga ect eigentlich als 20 nm Bulk Chip gedacht waren.
Aber lieber betet man den anderen Konzern an, weil dieser es schafft mehr aus seinen Kunden rauszuquetschen (und bei der Titan sieht man ja, dass einige bereit sind den Preis zu zahlen), wobei einer dieser Kunden Flowerpower77 ist.
 
Zuletzt bearbeitet:
Ah ich sehe, Flowerpower77 ist wohl ein weiterer Nvidia Fanboy/AMD Hater der hier nur zum Bashen ist. Den Bullshit den er hier verbreitet, sollte man echt ignorieren. Da kann man auch gleich mit einer Wand diskutieren.
 
Zurück
Oben