News Alle Details zu ATis Radeon 5000er Serie

Vorallem die GF7 war die mit Abstand schlechteste Generation ever, aber darum gehts nicht. Bei einer neuen DX API wird die Umstellung immer als Gelegenheit genutzt gleich eine neue Architektur umzusetzen. Also komplett neues DX = neue Architektur; Shrink ≠ neue Architektur (sowas ist immer zuviel auf einmal)

HD 3000 @ DX 10.1 war zb. auch nur ein Furz im Wind und hat fast nix neues an der Architektur gebracht.

Wobei DX 10.1 schon ein geiles Feature ist, nicht falsch verstehen! :rolleyes:
 
Zuletzt bearbeitet:
Wieso war die GF7 Reihe die schlechteste?Sie waren sehr schnell zur damaligen Zeit und den ATI Karten meist überlegen. Nur bei heutigen Spielen verlieren sie stark an Leistung gegenüber damligen ATI Karten der X19XX Generation weil eben die Shaderleistung fehlt. Das war damals aber noch uninteressant.

Die FX Reihe mit der 5700/5800/5900 waren ein Flopp.

Und wie es aussieht kommt nVidia diesmal nicht mit einer neuen Architektur. ATI bringt ja mit der 5XXX Reihe auch keine völlig neue Architektur. Im Grunde sind es immer noch stark aufgebohrte R600 Karten nur ohne Ringbus System und einigen Erweiterungen. Neu ist da nichts.
Bei nVidia hat sich seid dem G80 auch nichts mehr wirklich verändert. Immer wieder aufgebohrt, mehr nicht.

Wirklich neues werden wir sicher erst mit der Generation nach RV800 und GT300 sehen.

DX10.1 bietet ja nicht viel mehr. Verstehe nicht warum nVidia da nicht mitgezogen hat. Schließlich kann man ein paar Dinge mit DX10.1 schneller berechnen. Bestes Beispiel ist H.A.W.X wo 8xAA unter DX10.1 deutlich schneller ist als unter DX10. Tesslation hätte auch schon einzug in die Spielewelt bekommen können, gibt es ja unter DX10.1. Schade, hätte man einiges draus machen können.
 
weil eben die Shaderleistung fehlt.
Unter anderem deswegen, das zählt hald heute einfach mit dazu. X1950 Besitzer lachen sich tot über GF7 Besitzer: https://www.computerbase.de/2009-08/test-14-grafikkarten-vergleich/

Schlechte Bildqualität und Treiber "Optimierungen" hatten einen Höchststand erreicht. Schon allein deswegen ist die GF7 schlechter als eine GF5 die eine sehr gute Bildqualität hatte.

Und dann ist da noch der Preis. Extrem teuer für nix für ein paar Tage. Es gab so einige die sich eine 500€ GF7 gekauft hatten und kurz darauf kahm die GF8 und war zig mal schneller + exorbitant bessere Bildqualität. Die GF7 wurde also umgespitzt in den Boden gerammt. :D

Also extrem schlechtes Timing der GF7 auch darum ist die GF5 besser. Bei mir hat die GF 5900 4 Jahre durchgehalten. Was man ja von der GF7 niemals sagen kann!

Meiner Meinung in Kombination die schlechteste Generation ever von NV. ATI war zu der Zeit deutlich besser aufgestellt! Naja vielleicht nicht bei den Treibern aber sonst...
Und wie es aussieht kommt nVidia diesmal nicht mit einer neuen Architektur.
Daran will ich einfach nicht glauben. Es wird einfach höchste Zeit für eine neue.

ATI bringt ja mit der 5XXX Reihe auch keine völlig neue Architektur.
Hmm, ja kann sein, mal abwarten was die Tests so sagen...

Bei nVidia hat sich seid dem G80 auch nichts mehr wirklich verändert. Immer wieder aufgebohrt, mehr nicht.
Was will man machen wenn der G80 so genial war, im GPGPU Bereich hat sich extrem viel getan seit G80... Idle Stromsparen rechne ich der GT200 auch sehr positiv an...

Verstehe nicht warum nVidia da nicht mitgezogen hat.
Ich auch nicht, sogar eine poplige S3Chrome 440 GTX hat 10.1: https://www.computerbase.de/2008-12/test-s3-chrome-440-gtx/#abschnitt_einleitung
 
Zuletzt bearbeitet:
Moin!

Kasmopaya schrieb:
Schlechte Bildqualität und Treiber "Optimierungen" hatten einen Höchststand erreicht.

In Bezug auf die GF7 und X1k absolut richtig.

Kasmopaya schrieb:
Schon allein deswegen ist die GF7 schlechter als eine GF5 die eine sehr gute Bildqualität hatte.

Bedingt richtig. Wie man feststellte waren Radeon 9700 und GeForce 5 in Sachen Bildqualität ebenbürtig schlecht. Die GeForce 7, die nichts anderes als eine GeForce 6 war, hat sicherlich viele BQ-Menschen enttäuscht.
Enttäuschend war auch die Entwicklung der BQ von Radeon 9800 zur X800, nämlich null [, wobei die Effizienz (heute spricht man von "Leistung"/Watt) der X800-Serie extrem gut war.]

Kasmopaya schrieb:
Und dann ist da noch der Preis. Extrem teuer für nix für ein paar Tage. Es gab so einige die sich eine 500€ GF7 gekauft hatten und kurz darauf kahm die GF8 und war zig mal schneller + exorbitant bessere Bildqualität. Die GF7 wurde also umgespitzt in den Boden gerammt. :D

Die GF7 war in der Tat schnell.
Die GF7 hat auch verhältnismäßig lange gelebt.
Außerdem hatten die späteren GF7-Modelle eine Eigenschaft, die ich heute bei fast jeder Karte aus dem unteren High-End-Segment vermisse: Eine sehr gute Idle/Load-Leistungsaufnahme (siehe GF 7950GT)
Dieser Punkt ließ die "mangelnde Bildqualität" doch schon verschmerzen. ;) Strom kommt schließlich nicht aus der Steckdose.

Kasmopaya schrieb:
Also extrem schlechtes Timing der GF7 auch darum ist die GF5 besser. Bei mir hat die GF 5900 4 Jahre durchgehalten. Was man ja von der GF7 niemals sagen kann!

1. Kapier ich den Gedanken nicht.
2. Bei mir hat die GeForce FX keine 2 Monate durchgehalten und flog mindestens genauso schnell raus wie mein "Testmuster" der HD2900XT.

Kasmopaya schrieb:
Meiner Meinung in Kombination die schlechteste Generation ever von NV. ATI war zu der Zeit deutlich besser aufgestellt! Naja vielleicht nicht bei den Treibern aber sonst...

Die GeForce 7 war alles in allem akzeptabel. Sie bot teilweise eine gute Performance bei noch besserer Leistungsaufnahme zu moderaten Preisen - Zumindest ab späteren Revisionen. Natürlich hat man ein paar (in meinen Augen) bescheidene Abstriche bei der BQ machen müssen. Wie manche GeForce-Fanatiker allerdings immer flehend hervorheben, ist die Tatsache, dass auch die GF7 HQ kann. :freak:;)

Kasmopaya schrieb:
Daran will ich einfach nicht glauben. Es wird einfach höchste Zeit für eine neue.

Die DX11 API braucht im Grunde genommen keine gänzlich neue Architektur. Sie ist nichts anderes als der (ich nenn es mal so: ) "flexible Ausbau" der DX10 API. (Ich will damit jetzt keine Diskussion provozieren, ob multi-skalare Shader idf besser aufgestellte sind/sein sollen, halte es aber nicht unbedingt für abwegig)

Kasmopaya schrieb:
[...] im GPGPU Bereich hat sich extrem viel getan seit G80... Idle Stromsparen rechne ich der GT200 auch sehr positiv an...

DX11 wird den GPGPU-Bereich zunächst einmal neu aufmischen und vereinheitlichen. Das war ja eines der Primärziele der neuen API.
Dein letzteres Argument ist mehr Hoffnung als Fakt.

Kasmopaya schrieb:
Ich auch nicht, sogar eine poplige S3Chrome 440 GTX hat 10.1

Warum soll ich für DX10.1 Transistoren opfern, wenn keine DX10.1-Software verfügbar ist?
Natürlich hast du recht, dass wenn beide Hersteller gleichermaßen am DX10.1-Strang gezogen hätten, es auch zu besseren Ergebnissen gekommen wäre. Gleichermaßen gilt dies auch für eigentlich sehr interssante Features wie Physx, die auch mit Hilfe von nvidia bis heute einen ziemlich bescheidenen Funtionsumfang aufweisen können. nvida präsentierte physx schließlich als offenen Standart, also mindestens genauso offen wie es derzeit DX10.1 ist.




n schönen wünsch ich dir noch :)
 
Kasmopaya schrieb:
Naja vielleicht nicht bei den Treibern aber sonst...

Des ist nur ein Vorurteil. Genau das selbe könnte ich von Nvidia berechtigerweise auch behaupten.

gruß
 
Zuletzt bearbeitet:
Morgenz,

Yup dat hoffen wa alle irgendwie glaub ich :D

Was ich mich bis jetzt frage kommt da ne teilweise neue Achitektur oder ne komplet neue oder ne aufgeborte RV7** ?!?
Ergänzung ()

AMD/ATI wird sich bestimmt nicht wider das butter vom brot nehmen lassen hoffe ich
und ATI agiert auch nicht im Highend bereich wie NV einzige was für den Highend da istsind die X2´er modele :freak:
 
@Kasmopaya: auch wenns offtopic ist, aber die gf7 war eine sehr gute karte. sie war deutlich sparsamer als gf6 und radeon x1k. die bildqualität war dafür schlechter als bei den beiden.
unterm strich war sie damals aber vollkommen gleichwertig zur konkurrenz (eben verbrauch vs. bildqualität bei gleicher leistung).
bei meinem notebook z. b. stand ich vor der wahl x1800xt oder 7900gs und mit meiner entscheidung bin ich heute noch sehr zufrieden.

die gf5 dagegen hatte der radeon 9 (dx9) rein gar nichts entgegenzusetzen.

Treiber "Optimierungen" hatten einen Höchststand erreicht.
das verstehe ich auch nicht. was willst du damit aussagen? dass der treiber zu gf8 zeiten nicht mehr für die gf7 optimiert wurde? dir ist schon klar, dass die x1950 ein halbes jahr lang gegen die 8800er antreten musste?
 
Zuletzt bearbeitet:
HDReady schrieb:
dann haben halt die hd5870 16 x 64MB chips bausteine druff mit jeweils 32 bit anbinung
und die hd5870 mit 2GB dann halt 16 x 128MB bausteine druff mit 32 bit anbinung
Jo, wäre möglich. Aber ist in meinen Augen nicht sinnvoll. Glaube kaum, dass 16 512MBit Chips billiger sind als 8 1GBit Chips.

Deswegen könnte es ja sein, dass die 5870, so sie denn ein 256bit SI hat, bei der 1GB Version nur einseitig bestückt ist.
 
feldwebel-Chief schrieb:
ich meine die GTX 285 vs HD 4870! und so wirds wieder sein , gleicher verbrauch der jeweiligen karten GT300 / RV870 und Nvidia ist 30% schneller wirste sehn

Edit : erst wenn 2010/2011 der RV970 kommt wirds spannend da ATi eigentlich dannn ne neue architektur machen wollte

hehehehe sag mal mir mal bitte die kommenden Lotto zahlen an....
naja mal gucken was abgehn wird wenn wirklich diesmal ATI die oberhand hat
würde zugern die gesichter der fanboy´s sehn :D

Ontopic:
gibt es denn entlich ein foto was zeigt wie der finale kühler aussieht oder ist es der derzeitige ?!?!?!
 
Na sieh einer an....256bit Speicherinterface.

Davon kam wohl auch der Begriff DualCore;-)
 

Anhänge

  • 20090914122130798.png
    20090914122130798.png
    202 KB · Aufrufe: 658
Zuletzt bearbeitet:
Mag sein aber Nvidia ist nicht AMD/ATI :P


nvidia pleite war aber die fx5800 ultra , fx5900, und dann noch fx5900 ultra
bei ebay bekommt man nichts von dieser serie
 
dayworker123 schrieb:
Mag sein aber Nvidia ist nicht AMD/ATI :P


nvidia pleite war aber die fx5800 ultra , fx5900, und dann noch fx5900 ultra
bei ebay bekommt man nichts von dieser serie
Sollte aber ja schon aufgefallen sein das NVIDIA gewaltig an boden verliert seit AMD ATI aufgekauft hat. Manchen scheins nicht:p Das wird sich sicher mit der 5 er Serie fortsetzen. Preis Leistung zählt halt.
 
Zuletzt bearbeitet:
hast recht...
Ergänzung ()

wie sagt man bei uns aufn bau: wenns klatscht solls sitzen damit sich dat och lohnt hier
in diesem sinne: hoffe ick mal dat beste für ATI verdient haben die sich das ja
 
feldwebel-Chief schrieb:
ich meine die GTX 285 vs HD 4870! und so wirds wieder sein , gleicher verbrauch der jeweiligen karten GT300 / RV870 und Nvidia ist 30% schneller wirste sehn

Wie du hier den gleichen Stromverbrauch ausmachen kannst ist mir schleierhaft:

https://www.computerbase.de/2009-08/test-14-grafikkarten-vergleich/11/#abschnitt_leistungsaufnahme

Die HD 4870 verbraucht sogar noch weniger. Keine Ahnung ob man den Werten auch wirklich vertrauen kann, aber die GTX 285 verbraucht schon um die 60 Watt mehr.
 
Weiss jemand wann die jetzt vorgestellt wird?

Hatte ja irgendwie die hoffnung das es heute soweit waere.
 
fromdadarkside schrieb:
Was würden denn die Leute bei einem Auto sagen, das erst 100 PS schafft bei 5l Verbrauch, in der nächsten Generation 140 PS hat bei 7l Verbrauch?? Das würde niemand kaufen, Fortschritt ist was anderes.

Sorry, aber genau so sieht die Realität aus. Zwar wird die Leistungsaufnahme/Spritverbrauch immer besser, aber du kannst nicht erwarten, dass ein deutlich besseres, schnelleres, usw. Produkt weniger Leistungsaufnahme/Spritverbrauch hat als das vorangegangene, wenn die Menschheit sowas drauf hätte, dann hätten wir inzwischen 1-Liter-Autos mit 250 PS und unser PC würde mit einer Solarzelle ähnlich der auf unseren Taschenrechnern laufen, da er so Energie-Effizient ist. ;)
 
@LoK

Genau so siehts aus

und es wird ja im midrange bereich Karten geben die genauso schnell wie ne 4870 sind aber weit weniger strom verbrauchen (aehnlich wie 4770)

DAs ist doch schon mal ne gute entwicklung.
Wenn man das mit autos vergleicht ist das schon ein riesen sprung mal bei gleicher leistung nur halb soviel verbrauch.
 

Ähnliche Themen

Zurück
Oben